WO2020045619A1 - 内視鏡システム、および内視鏡システムを動作させる方法 - Google Patents
内視鏡システム、および内視鏡システムを動作させる方法 Download PDFInfo
- Publication number
- WO2020045619A1 WO2020045619A1 PCT/JP2019/034087 JP2019034087W WO2020045619A1 WO 2020045619 A1 WO2020045619 A1 WO 2020045619A1 JP 2019034087 W JP2019034087 W JP 2019034087W WO 2020045619 A1 WO2020045619 A1 WO 2020045619A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image data
- image
- light
- wavelength band
- wavelength
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2407—Optical details
- G02B23/2461—Illumination
- G02B23/2469—Illumination using optical fibres
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00186—Optical arrangements with imaging filters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/044—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/063—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for monochromatic or narrow-band illumination
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0638—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0646—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0655—Control therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0661—Endoscope light sources
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/07—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue
- A61B5/1455—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
- A61B5/14551—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue
- A61B5/1455—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
- A61B5/14551—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
- A61B5/14552—Details of sensors specially adapted therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue
- A61B5/1455—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
- A61B5/1459—Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue using optical sensors, e.g. spectral photometrical oximeters invasive, e.g. introduced into the body by a catheter
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0075—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
Definitions
- the present disclosure relates to an endoscope system and a method of operating the endoscope system.
- an endoscope device having a spectral image capturing function
- information for example, a reflection spectrum
- the reflection spectrum of the living tissue reflects information on the type and concentration of the substance contained in the vicinity of the surface layer of the living tissue to be measured.
- the absorption calculated from the reflection spectrum of a living tissue is a linear superposition of the absorptions of a plurality of substances constituting the living tissue.
- the living tissue of the lesioned part differs from the living tissue of the healthy part in the composition and component amount.
- many previous studies have reported that abnormalities in lesions represented by cancer and the like are deeply related to the state of blood, especially the state of total blood volume and oxygen saturation.
- qualitatively and quantitatively determining two living tissues of interest by using the spectroscopic feature values in the visible region of the two living tissues are methods that are often used in the field of spectroscopic chemistry. Therefore, it is possible to estimate whether or not any diseased part is included in the living tissue by comparing the spectral characteristics of the blood of the living tissue including the diseased part with those of the living tissue only of the healthy part.
- Japanese Patent Application Laid-Open No. H11-163873 discloses "In order to perform a plurality of types of special light observations with a simple configuration, light of each region of R, G, and B is included.
- An illumination unit (3, 7) for irradiating illumination light to a living tissue; an imaging unit (8) for acquiring an image signal from reflected light of the illumination light on the biological tissue (X); And at least one of R, G, and B wavelength bands included in the illumination light, the two narrow bands on both sides of the center wavelength of the wavelength band.
- spectroscopic endoscope apparatuses can generate and observe more types of special light images in order to cope with various usage modes.
- the present disclosure has been made in view of such a situation, and provides a technology capable of generating and presenting more kinds of special light images with higher image quality.
- the present embodiment is a normal observation mode in which white light is applied to living tissue to acquire an image, and a special observation mode in which light of a specific wavelength band is applied to living tissue to acquire an image.
- An endoscope system capable of operating in Illumination light including at least R in the first wavelength band, G in the second wavelength band, B in the third wavelength band, R in the fourth wavelength band, G in the fifth wavelength band, and B in the sixth wavelength band.
- An illumination unit for irradiating living tissue An imaging unit that generates image data based on reflected light from the living tissue caused by irradiating the living body tissue with the illumination light, An image processing unit that acquires the image data from the imaging unit and performs a predetermined image processing; A display unit that displays an image generated by the predetermined image processing by the image processing unit on a screen, At least the second wavelength band, the third wavelength band, the fifth wavelength band, and the sixth wavelength band are bounded by the wavelength of the equal absorption point at which the transmittance is constant regardless of the oxygen saturation.
- the second wavelength band includes an isosbestic point in the band other than the isosbestic point that is a boundary of the band, the sixth wavelength band is a shorter wavelength band than the third wavelength band, and the fifth wavelength band
- the band is a shorter wavelength band than the second wavelength band
- the fourth wavelength band is a shorter wavelength band than the first wavelength band
- the image data corresponds to R1 image data corresponding to R light in the first wavelength band, G1 image data corresponding to G light in the second wavelength band, and B light in the third wavelength band.
- the image processing unit includes: the G1 image data; and at least one image data of the R1 image data, the B1 image data, the R2 image data, the G2 image data, and the B2 image data other than the G1 image data.
- An endoscope system that generates a special light image by performing image processing using the endoscope system.
- FIG. 1 is a diagram illustrating a schematic configuration example of an endoscope system 1 according to the present embodiment.
- FIG. 3 is a diagram illustrating the spectral characteristics and a wavelength band of a first optical filter used when acquiring a broadband image (G1 image).
- FIG. 4 is a diagram illustrating the spectral characteristics and a wavelength band of a second optical filter used when acquiring a B2 image, a G2 image, and an R2 image.
- FIG. 4 is a diagram illustrating the spectral characteristics and a wavelength band of a third optical filter used when acquiring a narrow-band image (G3 image). It is the graph which plotted the relationship between the transmitted light amount of blood (vertical axis) and oxygen saturation (horizontal axis) in the wavelength range W2.
- FIG. 3 is a diagram illustrating an example of an internal configuration of an analysis processing unit 230 according to the embodiment. It is a flowchart for demonstrating the process which produces
- FIG. 10 is a diagram showing a process of performing a matrix conversion operation on the RGB values of the On @ chip filter (upper row in FIG. 9: (Rs, Gs, Bs)) to generate corrected RGB values (RGB_related_values).
- FIG. 9 is a diagram illustrating an example of a blood vessel running image of an observation region generated by a blood vessel running image generating process (FIG. 8).
- FIG. 10A shows an example of a visible light image of an observation site.
- FIG. 10B is a B2 image (an image obtained by irradiating light in a wavelength band of 420 ⁇ 3 nm to 452 ⁇ 3 nm), and shows an example of an image of a blood vessel in a shallow place from the observation site.
- FIG. 10A shows an example of a visible light image of an observation site.
- FIG. 10B is a B2 image (an image obtained by irradiating light in a wavelength band of 420 ⁇ 3 nm to 452 ⁇ 3 nm), and shows an example of an image of a blood vessel in a shallow place from the observation site.
- FIG. 10A shows an example of a visible light image of an observation site.
- FIG. 10B is a B2 image (an image obtained by
- FIG. 10C is a G1 image (an image obtained by irradiating light in a wavelength band of 524 ⁇ 3 nm to 582 ⁇ 3 nm) and shows an example of an image of a state of a blood vessel at a position at a moderate depth from an observation site.
- FIG. 10D is an R1 image (an image obtained by irradiating light in a wavelength band of 630 ⁇ 3 nm to 700 ⁇ 3 nm), and shows an example of an image of a blood vessel at a deeper position from the observation site.
- 5 is a flowchart illustrating details of a characteristic region specifying process according to the embodiment. It is a figure for explaining the principle which asks for hemoglobin concentration (blood concentration) which removed the influence of scattered light.
- FIG. 12 is a diagram illustrating an example of each characteristic region image of an observation site generated by the characteristic region specifying process (FIG. 11).
- FIG. 14A shows an example of a visible light image of an observation site.
- FIG. 14B shows an image example of a portion (a portion with a large blood flow) where the blood concentration (Hb concentration) is equal to or higher than a predetermined Hb value in the observation region.
- FIG. 14C shows an example of an image of a portion where the oxygen saturation is equal to or less than a predetermined percentage (a portion where the amount of oxygen consumption is large) in the observation portion.
- FIG. 13A shows an example of a visible light image of an observation site.
- FIG. 14B shows an image example of a portion (a portion with a large blood flow) where the blood concentration (Hb concentration) is equal to or higher than a predetermined Hb value in the observation region.
- FIG. 14C shows an example of an image of a portion where the oxygen saturation is equal to or less than a predetermined
- FIG. 14D shows an example of an image of a portion where the blood concentration (Hb concentration) is equal to or higher than a predetermined Hb value and the oxygen saturation is equal to or lower than a predetermined% (a portion having a high blood flow but a low oxygen amount) in the observation region.
- Hb concentration blood concentration
- a predetermined% a portion having a high blood flow but a low oxygen amount
- FIG. 16A shows an example of a normal RGB output image of the observation site.
- FIG. 16B shows an example of a blood-cleared image when the subtraction parameter of the G1 image is set (for example, the subtraction parameter can be set to ⁇ 0.2).
- FIG. 16C shows an example of a blood transparent image when the subtraction parameter of the G1 image is set to 0.
- FIG. 16D shows an example of a blood-cleared image when the subtraction parameter of the G1 image is set to be larger (for example, the subtraction parameter can be set to ⁇ 0.5).
- FIG. 4 is a diagram illustrating an example in which first and second filters are provided with first and second image sensors (first and second solid-state image sensors: for example, CMOS sensors).
- FIG. 8 is a diagram illustrating an example in which a third filter and a third image sensor (a third solid-state image sensor: for example, a CMOS sensor) that captures light passing through the third filter are arranged.
- FIG. 4 is a diagram illustrating an example in which first and second filters are provided with first and second image sensors (first and second solid-state image sensors: for example, CMOS sensors).
- FIG. 8 is a diagram illustrating an example in which a third filter and a third image sensor (a third solid-state
- FIG. 3 is a diagram illustrating an example in which a three-plate prism is used instead of a beam splitter.
- a third optical filter (FIG. 20A: corresponding to the optical filter shown in FIG. 4) for acquiring a narrow band image (an image formed by light having a wavelength of 546 ⁇ 3 to 570 ⁇ 3 nm);
- FIG. 20B is a diagram illustrating a first optical filter (FIG. 20B: corresponding to the optical filter illustrated in FIG. 2) for acquiring a wide image (an image formed by light having a wavelength of 524 ⁇ 3 to 582 ⁇ 3 nm).
- FIG. 20A corresponding to the optical filter shown in FIG. 4
- FIG. 20B is a diagram illustrating a first optical filter (FIG. 20B: corresponding to the optical filter illustrated in FIG. 2) for acquiring a wide image (an image formed by light having a wavelength of 524 ⁇ 3 to 582 ⁇ 3 nm).
- FIG. 20A corresponding to the optical filter
- FIG. 15 is a diagram for explaining the principle of Modification Example 5.
- FIG. 15 is a diagram illustrating a configuration example of an optical element according to Modification Example 5.
- FIG. 1 is a diagram illustrating a schematic configuration example of an endoscope system 1 according to the present embodiment.
- the endoscope system 1 includes an electronic scope (endoscope apparatus) 100, a processor 200, and a monitor 300.
- the processor 200 includes a system controller 202, a timing controller 204, an image processing unit 220, a lamp 208, and an optical filter device 260.
- the system controller 202 executes various programs stored in the memory 212 and integrally controls the entire endoscope system 1. Further, the system controller 202 is connected to the operation panel 214. The system controller 202 changes each operation of the endoscope system 1 and parameters for each operation in accordance with an instruction from a user input from the operation panel 214.
- the timing controller 204 outputs a clock pulse for adjusting the operation timing of each unit to each processing unit in the endoscope system 1.
- the lamp 208 emits the irradiation light L after being started by the lamp power supply igniter 206.
- the lamp 208 is, for example, a high-intensity lamp such as a xenon lamp, a halogen lamp, a mercury lamp, or a metal halide lamp, or an LED (Light Emitting Diode).
- the irradiation light L is light having a spectrum mainly extending from a visible light region to an invisible infrared light region (or white light including at least the visible light region).
- An optical filter device 260 is disposed between the lamp 208 and the condenser lens 210.
- the optical filter device 260 includes a filter driving unit 264 and an optical filter 262 mounted on the filter driving unit 264.
- the filter driving section 264 is configured to be able to slide the optical filter 262 in a direction orthogonal to the optical path between a position on the optical path of the irradiation light L (solid line) and a position retracted from the optical path (dashed line). Note that the configuration of the filter driving unit 264 is not limited to the above-described one.
- optical filter 262 by rotating the optical filter 262 around a rotation axis deviated from the center of gravity of the optical filter 262 as in a rotary filter device, A configuration in which the optical filter 262 is inserted and removed on the optical path of the irradiation light L may be adopted.
- the details of the optical filter 262 will be described later.
- the endoscope system 1 of the present embodiment uses the white light emitted from the lamp 208 as it is (or removes the infrared component and / or the ultraviolet component) as illumination light (normal light Ln) to perform endoscope.
- the optical filter 262 is arranged at a position retracted from the optical path in the normal observation mode, and is arranged on the optical path in the special observation mode.
- the irradiation light L (the filter light Lf or the normal light Ln) that has passed through the optical filter device 260 is condensed on the incident end face of the LCB (Light Carrying Bundle) 102 by the condenser lens 210 and is introduced into the LCB 102.
- the irradiation light L introduced into the LCB 102 propagates through the LCB 102, is emitted from the emission end face of the LCB 102 disposed at the tip of the electronic scope 100, and irradiates the subject via the light distribution lens 104.
- the return light from the subject irradiated by the irradiation light L forms an optical image on the light receiving surface of the solid-state imaging device 108 via the objective lens 106.
- the solid-state image sensor 108 is, for example, a single-chip color CCD (Charge Coupled Device) image sensor having a Bayer-type pixel arrangement.
- the solid-state imaging device 108 accumulates an optical image formed by each pixel on the light receiving surface as a charge corresponding to the amount of light, generates and outputs an image signal (image data).
- an R filter that transmits red light, a G filter that transmits green light, and a B filter that transmits blue light are directly formed on each light receiving element of the solid-state imaging device 108. , A so-called on-chip color filter.
- the image signal generated by the solid-state imaging device 108 includes an image signal R captured by a light receiving element with an R filter, an image signal G captured by a light receiving element with a G filter, and a B filter. An image signal B captured by the light receiving element is included.
- the solid-state imaging device 108 is not limited to a CCD image sensor, but may be replaced with a CMOS (Complementary Metal Oxide Semiconductor) image sensor or another type of imaging device.
- CMOS Complementary Metal Oxide Semiconductor
- the electronic scope 100 includes a driver signal processing unit 110 in a connection part with the processor 200.
- An image signal is input from the solid-state imaging device 108 to the driver signal processing unit 110 at a field cycle.
- the driver signal processing unit 110 performs predetermined processing on an image signal input from the solid-state imaging device 108, and then outputs the processed signal to the image processing unit 220 of the processor 200.
- the driver signal processing unit 110 also accesses the memory 112 and reads out the unique information of the electronic scope 100.
- the unique information of the electronic scope 100 recorded in the memory 112 includes, for example, the number of pixels and the sensitivity of the solid-state imaging device 108, an operable field rate, a model number, and the like.
- the driver signal processing unit 110 outputs the unique information read from the memory 112 to the system controller 202.
- the system controller 202 performs various calculations based on the unique information of the electronic scope 100 to generate a control signal.
- the system controller 202 uses the generated control signal to control the operation and timing of various processing units in the processor 200 so that processing suitable for the electronic scope connected to the processor 200 is performed.
- the timing controller 204 supplies a clock pulse to the driver signal processing unit 110 according to the timing control by the system controller 202.
- the driver signal processing unit 110 controls the drive of the solid-state imaging device 108 at a timing synchronized with the field rate of an image processed by the processor 200 according to the clock pulse supplied from the timing controller 204.
- the image processing unit 220 performs predetermined signal processing such as color complementation, matrix operation, and Y / C separation on an image signal input in one field cycle from the driver signal processing unit 110, and then displays a monitor display screen. Data is generated, and the generated screen data for monitor display is converted into a predetermined video format signal. The converted video format signal is output to the monitor 300. As a result, an image of the subject is displayed on the display screen of the monitor 300.
- predetermined signal processing such as color complementation, matrix operation, and Y / C separation
- the image processing unit 220 includes the analysis processing unit 230.
- the analysis processing unit 230 performs spectroscopic analysis processing based on the acquired image signals R (Red), G (Green), and B (Blue) in, for example, the special observation mode, and performs oxygen spectroscopy on the living tissue as the subject. An index value having a correlation with the saturation is calculated, and image data for visually displaying the calculation result is generated.
- An example of the internal configuration of the analysis processing unit 230 will be described later (see FIG. 7).
- the endoscope system 1 of the present embodiment uses the white light (normal light Ln) emitted from the lamp 208 as the illumination light without using the optical filter 262, and a normal observation mode.
- Special observation mode for performing spectroscopic analysis using the filter light Lf obtained by passing white light through the optical filter 262 as illumination light, and a baseline measurement mode for acquiring a correction value for special observation. It is configured to operate in two modes. Switching between the modes is performed by a user operation on the operation unit of the electronic scope 100 or the operation panel 214 of the processor 200.
- the system controller 202 controls the optical filter device 260 to retract the optical filter 262 from the optical path, and irradiates the subject with the normal light Ln to perform imaging. Then, the image data captured by the image sensor 108 is subjected to image processing as needed, and then converted into a video signal and displayed on the monitor 300.
- the system controller 202 controls the optical filter device 260 to arrange the optical filter 262 on the optical path, and irradiates the subject with the filter light Lf to perform imaging.
- analysis processing depth-based blood vessel running image generation processing, characteristic region identification processing, blood clearing processing, and the like
- image data captured by the imaging element 108.
- the baseline measurement mode before performing actual endoscopic observation, an image is captured under illumination with the filter light Lf using a color reference plate such as an achromatic diffuser or a standard reflector as a subject, and the special observation mode is performed. In this mode, data used for normalization processing is acquired.
- Image data R (x, y), G (x, y), and B (x, y) of three primary colors captured using the filter light Lf in the baseline measurement mode are respectively baseline image data BLR (x, y). ), BLG (x, y) and BLB (x, y) are stored in the internal memory of the analysis processing unit 230. Note that R (x, y), G (x, y), B (x, y), BLR (x, y), BLG (x, y), and BLB (x, y) are pixels (x, y), respectively. y) are the values of the image data and the baseline image data. The pixel (x, y) is specified by a horizontal coordinate x and a vertical coordinate y.
- FIG. 2 is a diagram illustrating the spectral characteristics and the wavelength band of the first optical filter used when acquiring a broadband image (G1 image).
- FIG. 3 is a diagram showing the spectral characteristics and the wavelength band of the second optical filter used when acquiring the B2 image, the G2 image, and the R2 image.
- FIG. 4 is a diagram showing the spectral characteristics and the wavelength band of the third optical filter used when acquiring a narrow-band image (G3 image).
- the values of the respective wavelength ranges described below are expressed with a width of “center wavelength ⁇ 3” in consideration of an error generated during the manufacture of the optical filter. Therefore, it should be noted that the value of the manufacturing error ( ⁇ 3) is an example, and that the value of the “width” increases as the error increases.
- the reason why the wavelength value at each isosbestic point has a range of ⁇ 3 is that the intersection of each spectrum of oxygenated hemoglobin and reduced hemoglobin is loose.
- the first optical filter has a first region transmitting light (blue light) having a wavelength of 452 ⁇ 3 to 502 ⁇ 3 nm and a second region transmitting light (green light) having a wavelength of 524 ⁇ 3 to 582 ⁇ 3 nm. And a third region that transmits light (red light) having a wavelength of 630 ⁇ 3 to 700 ⁇ 3 nm.
- the first region is a hemoglobin transmission spectrum isosbestic point (the hemoglobin transmission spectrum is a two-component spectrum in which the sum of the concentrations of oxygenated hemoglobin and reduced hemoglobin is constant; therefore, the concentration ratio of each component (oxygen It is the point where the absorption (transmittance) becomes constant regardless of the saturation) and corresponds to the wavelength band between E2 (452 ⁇ 3 nm) and the equal absorption point E3 (502 ⁇ 3 nm), and generates oxygen saturation information.
- E2 452 ⁇ 3 nm
- E3 502 ⁇ 3 nm
- the second region corresponds to a wavelength band between the isosbestic point E4 (524 ⁇ 3 nm) and the isosbestic point E7 (582 ⁇ 3 nm).
- the second region further includes an isosbestic point E5 (546 ⁇ 3 nm) and an isosbestic point E6 (570 ⁇ 3 nm) between the isosbestic points E4 and E7, and the isosbestic points E5 and E6.
- a lot of information on the oxygen saturation can be obtained from the image data during the period.
- a third optical filter (FIG. 5) will be used.
- the third region contains no isosbestic points, has little light absorption (high light transmittance), and provides red light data for generating oxygen saturation information.
- the second optical filter has a fourth region transmitting light (blue light) having a wavelength of 420 ⁇ 3 to 452 ⁇ 3 nm and a fifth region transmitting light (green light) having a wavelength of 502 ⁇ 3 to 524 ⁇ 3 nm. And a sixth region that transmits light (red light) having a wavelength of 582 ⁇ 3 to 615 ⁇ 3 nm.
- the fourth region corresponds to a wavelength band between the isosbestic point E1 (420 ⁇ 3 nm) and the isosbestic point E2 (452 ⁇ 3 nm), and provides blue light data for generating oxygen saturation information.
- the fifth region corresponds to a wavelength band between the equal absorption point E3 (502 ⁇ 3 nm) and the equal absorption point E4 (524 ⁇ 3 nm).
- the sixth region corresponds to a wavelength band between the isosbestic point E7 (582 ⁇ 3 nm) and a wavelength of 630 ⁇ 3 nm.
- the third optical filter has a seventh region for transmitting light (blue light) having a wavelength of 380 ⁇ 3 to 420 ⁇ 3 nm and an eighth region for transmitting light (green light) having a wavelength of 546 ⁇ 3 to 570 ⁇ 3 nm. And a ninth region that transmits light (red light) having a wavelength of 720 ⁇ 3 to 800 ⁇ 3 nm.
- the seventh region corresponds to a wavelength region between the wavelength 380 ⁇ 3 nm and the isosbestic point E1 (420 ⁇ 3 nm), and provides blue light data for generating oxygen saturation information.
- the eighth region corresponds to a wavelength band between the isosbestic point E5 (546 ⁇ 3 nm) and the isosbestic point E6 (570 ⁇ 3 nm).
- the ninth region has no isosbestic point, hardly absorbs light (has a high light transmittance), and provides red light data for acquiring deep part information.
- the third optical filter makes it possible to acquire image data between the equal absorption points E5 and E6. Since this wavelength band is a band in which the light level of the light source is strong, much information on the oxygen saturation (StO 2 ) can be obtained. However, when image data in this wavelength band is used, the dynamic range of an oxygen saturation index value described later is narrow, so that the resolution is low and it may be difficult to accurately determine the oxygen saturation.
- the present embodiment proposes that the dynamic range of the oxygen saturation index value is expanded to improve the resolution, and that the oxygen saturation is accurately obtained (described later).
- FIG. 5 is a graph in which the relationship between the amount of transmitted blood (vertical axis) and the oxygen saturation (horizontal axis) in the wavelength range W2 is plotted.
- the amount of transmitted light on the vertical axis is a value integrated over the entire wavelength range W2. It can be seen from the graph of FIG. 5 that the absorption of hemoglobin decreases almost linearly with the oxygen saturation in the wavelength range W2. In the adjacent wavelength range W1, hemoglobin absorption increases linearly with oxygen saturation.
- the light transmittance is a change in accordance with Lambert-Beer's law (Beer-Lambert Law), but is considered to be a substantially linear change in a narrow wavelength range of about 20 nm to 80 nm. be able to.
- the absorption of blood increases as the oxygen saturation increases. Although it monotonically increases, in the wavelength range W5, on the contrary, the absorption of blood monotonously decreases with an increase in the oxygen saturation.
- the present inventor has found that the amount of decrease in blood absorption in the wavelength range W5 is substantially equal to the sum of the increase in blood absorption in the wavelength ranges W4 and W6, and that the blood Was found to be almost constant irrespective of.
- FIG. 6 is a graph in which the relationship between the amount of transmitted blood (vertical axis) and the oxygen saturation (horizontal axis) in the wavelength ranges W4 to W6 is plotted.
- the amount of transmitted light on the vertical axis is a value integrated over the entire wavelength range W4 to W6.
- the average value of the transmitted light amount was 0.267 (arbitrary unit), and the standard deviation was 1.86 ⁇ 10 ⁇ 5 . From the graph of FIG. 6, it can be seen that in the entire wavelength range W4 to W6, the transmitted light amount of blood is substantially constant regardless of the oxygen saturation.
- a wavelength region of 650 ⁇ 3 to 720 ⁇ 3 nm can be used as a transparent wavelength region without absorption of hemoglobin and as a reference wavelength region of transmitted light amount.
- a wavelength region from a wavelength of 650 ⁇ 3 nm to a wavelength of 720 ⁇ 3 nm can be defined as a wavelength region WR.
- the oxygen saturation (StO 2 ) can be estimated from the value of the index X.
- a device is devised to expand the dynamic range of the oxygen saturation index value to improve the resolution and accurately obtain the oxygen saturation.
- FIG. 7 is a diagram illustrating an example of the internal configuration of the analysis processing unit 230 according to the present embodiment.
- the analysis processing unit 230 is corrected by an image acquisition unit 2301 that acquires an image captured by the electronic scope 100, a correction operation unit 2302 that corrects the RGB values of the image acquired by the image acquisition unit 2301, and a correction operation unit 2302
- a blood vessel running image generation unit 2303 that generates a blood vessel running image using images in each wavelength band, and a characteristic region that calculates a relative hemoglobin concentration and oxygen saturation and specifies a characteristic region with a high blood concentration and a low oxygen saturation
- the display processing unit 2306 stores parameters and various data, and temporarily stores data received from the electronic scope 100.
- Each processing unit from the image acquisition unit 2301 to the display processing unit 2306 can be configured by, for example, a program.
- the image processing unit 220 or the analysis processing unit 230 as a processor reads a program for realizing each processing unit from the memory 212 or another storage device (not shown in FIG. 1) and expands the program in the internal memory 2307. Thereby, each processing unit can be realized.
- Each processing unit may be configured as a module.
- the electronic scope 100 includes, for example, two or more solid-state imaging devices (CMOS image sensors) 108.
- CMOS image sensors solid-state imaging devices
- one solid-state imaging device is used.
- the second optical filter is used.
- the image acquisition unit 2301 acquires an image captured by each solid-state imaging device and transmitted via the driver signal processing unit 110.
- the image acquisition unit 2301 uses the first optical filter to generate a B1 image having a wavelength band of 452 ⁇ 3 nm to 502 ⁇ 3 nm, a G1 image having a wavelength band of 524 ⁇ 3 nm to 582 ⁇ 3 nm, and a wavelength band of 630 ⁇ 3 nm. And an R1 image of 700 ⁇ 3 nm.
- the image acquisition unit 2301 uses the second optical filter to generate a B2 image having a wavelength range of 420 ⁇ 3 nm to 452 ⁇ 3 nm, a G2 image having a wavelength band of 502 ⁇ 3 nm to 524 ⁇ 3 nm, and a wavelength band of 582 ⁇ 3 nm.
- an R2 image of 630 ⁇ 3 nm Further, the image obtaining unit 2301 obtains a correction image (white image) used as a reference when correcting the RGB values.
- the correction operation unit 2302 rounds, for example, the RGB values acquired by the On Chip filter in the CMOS image sensor to a numerical value having a high correlation with the filter output using the correction image acquired by the image acquisition unit 2301 (for example, a color matrix for color correction, which has a coefficient having a high correlation with the wavelength of oxygen saturation, is used.
- the blood vessel running image generation unit 2303 represents a B2 image (an image with a wavelength band of 420 ⁇ 3 nm to 452 ⁇ 3 nm) from the corrected image of each wavelength band obtained by the correction calculation unit 2302, which represents a blood vessel in a portion shallow from the surface.
- the G1 image image having a wavelength band of 524 ⁇ 3 nm to 582 ⁇ 3 nm: a broadband image
- the R1 image wavelength band is 630 ⁇ 3 nm to 700 ⁇ 3 nm. Of the blood vessel at each depth is generated.
- the characteristic region specifying processing unit 2304 calculates the ratio between the B1 image and the G1 image and the Hb (hemoglobin) concentration indicating the blood concentration, and applies them to the oxygen saturation index table (see FIG. 13B) prepared in advance. Thereby, the oxygen saturation is calculated.
- the transparency processing unit 2305 generates an image using information in a wavelength range where blood is not absorbed in order to improve a situation in which an examination (diagnosis) and a surgical site cannot be confirmed by blood. As a result, the visibility of the tissue at the site where bleeding occurs is ensured. Specifically, the transparency processing unit 2305 determines, for each pixel, a G1 image (an image having a wavelength band of 524 ⁇ 3 nm to 582 ⁇ 3 nm) and a G2 image (an image having a wavelength band of 502 ⁇ 3 nm to 524 ⁇ 3 nm).
- R1 image (wavelength band from 582 ⁇ 3 nm to 630 ⁇ 3 nm) is linearly combined (a1 ⁇ G1 image pixel value + a2 ⁇ G2 image pixel value + a3 ⁇ R1 image pixel value) to provide blood transparency.
- the display processing unit 2306 converts the blood vessel running image, the image specifying the characteristic region, and the blood transparency image into a format that matches the format of the monitor 300, generates display data, and transmits the display data to the monitor 300.
- FIG. 8 is a flowchart for explaining a process of generating a blood vessel traveling image (mainly a blood vessel structure: Depth Profile) for each depth.
- the operation subject of each step is the image acquisition unit 2301, the correction calculation unit 2302, the blood vessel running image generation unit 2303, and the display processing unit 2306.
- the operation subject is It may be read as the analysis processing unit 230 or the image processing unit 220 (hereinafter, also referred to as a processor).
- the image processing unit 220 hereinafter, also referred to as a processor.
- the image acquisition unit 2301 acquires a first RGB image, a second RGB image, and a correction image, which are images captured by the electronic scope 100.
- the first RGB image is a B1 image having a wavelength band of 452 ⁇ 3 nm to 502 ⁇ 3 nm, a G1 image having a wavelength band of 524 ⁇ 3 nm to 582 ⁇ 3 nm, and an R1 image having a wavelength band of 630 ⁇ 3 nm to 700 ⁇ 3 nm. including.
- the second RGB image is a B2 image having a wavelength range of 420 ⁇ 3 nm to 452 ⁇ 3 nm, a G2 image having a wavelength band of 502 ⁇ 3 nm to 524 ⁇ 3 nm, and an R2 image having a wavelength band of 582 ⁇ 3 nm to 630 ⁇ 3 nm.
- the correction image is a correction image (white image) used as a reference when correcting each of the RGB values of the first RGB image and the second RGB image.
- the correction calculation unit 2302 converts the RGB values of the first and second RGB images acquired by the On Chip filter in the CMOS image sensor into filter outputs using the correction image acquired by the image acquisition unit 2301.
- a matrix calculation process (for example, using a color matrix for color correction and having a coefficient having a high correlation with the wavelength of the oxygen saturation) is performed to round to a numerical value having a high correlation.
- the On Chip filter may not be able to output an appropriate RGB value because there are portions where wavelength bands overlap. Therefore, the RGB values acquired by the on-chip filter are corrected by a coefficient having a high correlation with the wavelength of the oxygen saturation (for example, a 3 ⁇ 3 matrix operation) to realize appropriate band separation.
- a matrix conversion operation is performed on the RGB values of the On chip filter (upper row in FIG. 9: (Rs, Gs, Bs)) to generate corrected RGB values (RGB_related_values).
- the corrected RGB values are used as the RGB values.
- the blood vessel running image generation unit 2303 generates an image (blood vessel running image: also referred to as Depth Profile) of a blood vessel at a shallow part of a part to be observed by an endoscope, a blood vessel at a deep part, and a blood vessel at an intermediate part therebetween.
- This is a process of generating an image using the fact that visible information in the depth direction differs depending on the observation wavelength.
- the short-wavelength image is used to obtain information on blood vessels and tissues near the surface of the observation site, and is used to obtain information on blood vessels and tissues deeper from the surface of the observation site as the wavelength becomes longer.
- the information is visualized, and information on the relative depth of the blood vessel is generated.
- Step 802 The display processing unit 2306 converts each of the B2 image, the G1 image, and the R1 image into a format used when displaying an image on the monitor 300, and transmits the converted data to the monitor 300.
- the monitor 300 receives the data corresponding to the B2 image, the G1 image, and the R1 image from the display processing unit 2306 of the analysis processing unit 230, and displays each image on the screen.
- FIG. 10 is a diagram illustrating an example of a blood vessel running image of an observation site generated by the blood vessel running image generating process (FIG. 8).
- FIG. 10A shows an example of a visible light image of an observation site.
- FIG. 10B is a B2 image (an image obtained by irradiating light in a wavelength band of 420 ⁇ 3 nm to 452 ⁇ 3 nm), and shows an example of an image of a state of a blood vessel at a position shallow from the surface of the observation site.
- FIG. 10 is a diagram illustrating an example of a blood vessel running image of an observation site generated by the blood vessel running image generating process (FIG. 8).
- FIG. 10A shows an example of a visible light image of an observation site.
- FIG. 10B is a B2 image (an image obtained by irradiating light in a wavelength band of 420 ⁇ 3 nm to 452 ⁇ 3 nm), and shows an example of an image of a state of
- FIG. 10C is a G1 image (an image obtained by irradiating light in a wavelength band of 524 ⁇ 3 nm to 582 ⁇ 3 nm), and is an image example of a state of a blood vessel at a position at a moderate depth from the surface of the observation site.
- FIG. 10D is an R1 image (an image obtained by irradiating light in a wavelength band of 630 ⁇ 3 nm to 700 ⁇ 3 nm) and shows an example of an image of a blood vessel at a deeper position from the surface of the observation site.
- FIG. 11 is a flowchart for explaining details of the characteristic region specifying process according to the present embodiment.
- the operation subject of each step is the image acquisition unit 2301, the correction operation unit 2302, the characteristic region specifying processing unit 2304, and the display processing unit 2306.
- the operation subject is It may be read as the analysis processing unit 230 or the image processing unit 220 (hereinafter, also referred to as a processor).
- the image processing unit 220 hereinafter, also referred to as a processor.
- the characteristic region specifying processing unit 2304 calculates the relative hemoglobin concentration at the observation site.
- the hemoglobin concentration (blood concentration) is obtained by calculating the ratio of each element as oxygenated hemoglobin, reduced hemoglobin, and scattered light using the elements contained in the spectral information of the mucous membrane.
- the elements of the scattered light actually enter, as shown in FIG. 12B, the baseline does not become horizontal and has an inclination (the base line becomes dull). As shown in FIG.
- Equation (2) is an equation used for calculating relative hemoglobin concentration in consideration of scattered light.
- the characteristic region specifying processing unit 2304 can calculate the relative hemoglobin concentration at each position of the observation region.
- Step 1102 The characteristic region specifying processing unit 2304 calculates the oxygen saturation.
- the characteristic region specifying processing unit 2304 calculates B1 / G1 and compares the relative Hb concentration value and the value of B1 / G1 calculated in step 901 with the oxygen saturation calculation prepared in advance. Applying to the table (FIG. 13B), it is checked what percentage of oxygen saturation the point represented by the pair of Hb concentration and B1 / G1 corresponds to. Thereby, the oxygen saturation can be obtained.
- the oxygen saturation was determined by a point represented by a pair of the Hb concentration and G1 / G3.
- the characteristic from the oxygen saturation of 0% to 100% is obtained. Resolution is not good.
- G1 / G3 as in the related art was used, the oxygen saturation could not be accurately calculated.
- B1 / G1 is used, as shown in FIG. 13B, the resolution of the characteristic from 0% to 100% of the oxygen saturation is improved. Therefore, the use of B1 / G1 makes it possible to accurately determine the oxygen saturation.
- Step 1103 The characteristic region specifying processing unit 2304 determines the relative hemoglobin concentration (blood concentration) of the observation site that is equal to or higher than the predetermined Hb value and the oxygen saturation is equal to or lower than the predetermined% in Steps 1101 and 1102. Specify based on value and oxygen saturation.
- Specifying a site where the relative hemoglobin concentration (blood concentration) is equal to or higher than a predetermined Hb value and the oxygen saturation is equal to or lower than a predetermined% means, for example, specifying a site suffering from cancer.
- a site suffering from cancer many new blood vessels are created, and the blood vessels carry nutrients and oxygen to the cancer cells, so that the cancer cells grow more and more. Therefore, at a cancer site, blood flow is high (blood concentration is high) and oxygen saturation is low due to high oxygen consumption. Therefore, by specifying the location of hypoxia while having a high blood flow, it is possible to identify the location that may have cancer and improve the efficiency of cancer diagnosis (cancer detection).
- the characteristic region specifying processing unit 2304 generates an observation region image showing the high blood concentration (high Hb concentration) portion in red and yellow (the red portion has a higher concentration), and generates a low oxygen saturation portion. Is generated in a light blue color, and an observation site image is generated in which a portion having high blood concentration (high Hb concentration) and low oxygen saturation is indicated in yellow-green.
- Step 1104 The display processing unit 2306 converts each of the characteristic region images of the observation region generated in step 1103 into a format used when displaying the image on the monitor 300, and transmits the converted data to the monitor 300.
- the monitor 300 receives data corresponding to each characteristic region image from the display processing unit 2306 of the analysis processing unit 230, and displays each characteristic region image on a screen.
- FIG. 14 is a diagram illustrating an example of each characteristic region image of the observation region generated by the characteristic region specifying process (FIG. 11).
- FIG. 14A shows an example of a visible light image of an observation site.
- FIG. 14B shows an image example of a portion (a portion with a large blood flow) where the blood concentration (Hb concentration) is equal to or higher than a predetermined Hb value in the observation region.
- FIG. 14C shows an example of an image of a portion where the oxygen saturation is equal to or less than a predetermined percentage (a portion where the amount of oxygen consumption is large) in the observation portion.
- FIG. 14A shows an example of a visible light image of an observation site.
- FIG. 14B shows an image example of a portion (a portion with a large blood flow) where the blood concentration (Hb concentration) is equal to or higher than a predetermined Hb value in the observation region.
- FIG. 14C shows an example of an image of a portion where the oxygen saturation is equal to or less than a predetermined
- FIG. 14D shows an example of an image of a portion where the blood concentration (Hb concentration) is equal to or higher than a predetermined Hb value and the oxygen saturation is equal to or lower than a predetermined% (a portion having a high blood flow but a low oxygen amount) in the observation region.
- each characteristic region in the observation region (for example, three types: a region with a large amount of blood flow, a region with a large amount of oxygen consumption, and a region with a large amount of blood flow but a small amount of oxygen) Location) can be specified with high accuracy, and the respective areas can be displayed on the display screen, so that an endoscope operator such as a doctor can perform a diagnosis / examination efficiently.
- an endoscope operator such as a doctor can perform a diagnosis / examination efficiently.
- FIG. 15 is a flowchart for explaining details of the blood clearing process according to the present embodiment.
- the operation subject of each step is the image acquisition unit 2301, the correction calculation unit 2302, the transparency processing unit 2305, and the display processing unit 2306, but when these are realized by a program, the operation subject is analyzed. It may be read as the processing unit 230 or the image processing unit 220 (hereinafter, also referred to as a processor).
- the processing unit 230 or the image processing unit 220 (hereinafter, also referred to as a processor).
- the image processing unit 220 hereinafter, also referred to as a processor.
- the blood clearing process is to generate a display image of the observation site with information in the wavelength range where blood is not absorbed, thereby ensuring the visibility of the tissue and allowing the procedure involving bleeding to proceed. It is.
- Step 1501 The transparency processing unit 2305 generates an image in which blood is transparent (blood-transparent image) by assigning image data (the value obtained by correcting the imaging data in step 102) to each of B_Channel, G_Channel, and R_Channel. Normally, input signals for each of the RGB areas are output in the same area color. That is, B_Channel (blue) is used for a B image having a wavelength band of 425 ⁇ 3 nm to 452 ⁇ 3 nm, G_Channel (green) is used for a G image having a wavelength band of 500 ⁇ 3 nm to 525 ⁇ 3 nm, and a wavelength band of 600 ⁇ 3 nm to 630.
- R_Channel (red) is assigned to each of the ⁇ 3 nm R images. In this case, it has been pointed out that the blood is expressed in red, and thus the visibility of the observation site deteriorates.
- the transparency processing unit 2305 outputs an input signal of each wavelength region in a color of a different wavelength region. Specifically, the transparency processing unit 2305 converts the G2 image having the wavelength band of 502 ⁇ 3 nm to 524 ⁇ 3 nm into B_Channel (blue), the R2 image having the wavelength band of 582 ⁇ 3 nm to 630 ⁇ 3 nm into G_Channel, and the wavelength band 630.
- the R1 image of ⁇ 3 nm to 700 ⁇ 3 nm is directly assigned to the R_Channel, and the output value of the G1 image of the G1 image in the wavelength band of 524 ⁇ 3 nm to 582 ⁇ 3 nm is adjusted (subtraction parameter for the G1 image (0.05 to 0.5)). To linearly combine the other images) to generate a blood clearing image.
- Step 1502 The display processing unit 2306 converts the blood-cleared image of the observation region generated in step 1501 into a format used when displaying the image on the monitor 300, and transmits the converted data to the monitor 300.
- the monitor 300 receives data corresponding to the blood transparency image from the display processing unit 2306 of the analysis processing unit 230, and displays the blood transparency image on the screen.
- FIG. 16 is a diagram illustrating an example of a blood clearing image obtained by the blood clearing process.
- FIG. 16A shows an example of a normal RGB output image of the observation site.
- FIG. 16B shows an example of a blood transparent image when the subtraction parameter of the G1 image is set (for example, it can be set to ⁇ 0.2).
- FIG. 16C shows an example of a blood transparent image when the subtraction parameter of the G1 image is set to 0.
- FIG. 16D shows an example of a blood-cleared image when another subtraction parameter of the G1 image is set (an example where the subtraction parameter is further increased: generally, it is possible to set -0.5). Is shown. As shown in FIG.
- FIG. 16B the image signal derived from the blood becomes very weak, the blood is made transparent, and the colors of other parts are also reproduced naturally.
- FIG. 16C sets the subtraction of the G1 image to 0 times. In this case, although the image information of the blood becomes small, some remains.
- FIG. 16D shows the blood-cleared image when the subtraction of the G1 image is excessively performed. However, the blood-cleared image is originally displayed in white by performing a further large subtraction (for example, the subtraction can be set to 0.5 times). Area becomes reddish.
- CMOS image sensors data of six wavelength bands (B1, G1, R1, B2, G2, and R2 images) (DRI has three wavelength bands). Data is used). Further, since the G1 image is multiplied and subtracted by the parameter coefficient, the blood image information can be reduced, and the output image can be finely adjusted. Therefore, it is possible to absorb the difference in the colors of the on-chip filters of a plurality of solid-state imaging devices (CMOS image sensors).
- CMOS image sensors solid-state imaging devices
- the present embodiment based on the data of the six wavelength bands, information other than the blood-cleared image (such as the above-described blood vessel running image and characteristic region image) can be simultaneously obtained. Therefore, there is no need to execute the time-series switching process according to the type of image to be acquired.
- Modification 1 In the above-described embodiment, an example in which the first to third optical filters are arranged on the light source side is described. However, the present invention is not limited to this, and the first to third filters may be arranged on the imaging unit side.
- FIG. 17 shows an example in which first and second filters and first and second image sensors (first and second solid-state image sensors: for example, CMOS sensors) are arranged.
- the light incident on the camera lens is formed into an image by the imaging optical system, is divided into two, passes through the first optical filter and the second optical filter, and is separated by the first image sensor and the second image sensor into the first RGB image.
- An image (B1, G1, and R1 images) and a second RGB image (B2, G2, and R2 images) are obtained.
- the first and second RGB images can be simultaneously acquired in real time, so that even when the six wavelength bands are used, there is no time delay in image acquisition and calculation, and the image shifts.
- the imaging optical system may be arranged behind the beam splitter as long as it is on the optical path (the same applies to the following modifications).
- FIG. 18 is a diagram illustrating an example in which a third filter and a third image sensor (third solid-state image sensor: for example, a CMOS sensor) that captures light passing through the third filter are further arranged.
- a third image sensor third solid-state image sensor: for example, a CMOS sensor
- FIG. 19 is a diagram illustrating an example in which a three-plate prism is used instead of the beam splitter.
- the interface of the prism is formed of a dichroic mirror, and the light amount of the image is divided into three by simple semi-transmission.
- the function and configuration of the image sensor are the same as those shown in FIGS.
- An advantage of using a three-plate prism is that the existing configuration can be used as a three-plate camera with a minor change, so that it is easy to realize.
- FIG. 20 shows a third optical filter (FIG. 20A: corresponding to the optical filter shown in FIG. 4) for acquiring a narrow band image (an image formed by light having a wavelength of 546 ⁇ 3 to 570 ⁇ 3 nm).
- FIG. 20B shows a first optical filter (FIG. 20B: corresponding to the optical filter shown in FIG. 2) for acquiring a wide image (an image formed by light having a wavelength of 524 ⁇ 3 nm to 582 ⁇ 3 nm). It is.
- the narrow-band image and the wide-band image are used to calculate the degree of change in the spectral characteristics of the living tissue at the location C shown in FIG. 20B (bending of characteristics: characteristics of spectral characteristics).
- the degree of change in the spectral characteristics of the living tissue can be obtained by dividing the broadband image by the narrowband image (broadband image / narrowband image). Since this value is a change amount affected by the blood concentration and the oxygen saturation, it is necessary to perform conversion based on the blood concentration when obtaining the oxygen saturation index value from the change degree. In addition, there is a feature that the oxygen saturation is high when the degree of change is large, and low when the degree of change is small.
- the wide band image and the narrow band image are obtained by using the third optical filter (FIG. 20A) and the first optical filter (FIG. 20B) in the arrangement example of the filter and the image sensor shown in the above-described modification 1 (FIG. 17). can do.
- the light amount becomes 50% by the beam splitter (for example, the beam splitter that splits the light to 50%), and further, the light amount becomes 50% by each optical filter. That is, as can be seen from FIG. 21 showing the relationship between the irradiated light (100% light amount) and the light whose light amount is reduced by the beam splitter and each optical filter, the amount of light emitted from the light source is At the stage where the light is incident on the image sensor, it is about 25%.
- the wavelength band for acquiring a narrow band image (a band for 24 ⁇ 6 nm since 546 ⁇ 3 nm to 570 ⁇ 3 nm) is 58 ⁇ 3 nm for acquiring a wide band image (524 ⁇ 3 nm to 582 ⁇ 3 nm).
- a band for 6 nm For this reason, the narrow-band image is darker than the wide-band image. If the above calculation (broadband image / narrowband image) is executed as it is, the calculation accuracy is affected. In this regard, in the configuration according to the first modification, since two image sensors are used, it is not necessary to acquire an image with the same exposure time.
- the exposure time of the imaging device that captures a narrowband image can be set to be 2 to 2.5 times the exposure time of the imaging device that captures a wideband image.
- the exposure time of the imaging device that captures a narrowband image is set to, for example, twice the exposure time of the imaging device that captures a wideband image in the initial setting, and after the actual acquisition of the narrowband image and the wideband image, It may be adjusted so as to be in a proper state.
- Modification 5 Modification Example 5 is an optical filter that uses a first optical filter (see FIG. 2) and a second optical filter (see FIG. 3) whose wavelength bands are complementary (complementary) to each other (also referred to as a nested relationship).
- An example of the arrangement of two image sensors is proposed.
- FIG. 22 is a diagram for explaining the principle of the fifth modification
- FIG. 23 is a diagram illustrating a configuration example of an optical element according to the fifth modification.
- the optical filter (for example, the first optical filter (see FIG. 2)) realizes desired filter characteristics by, for example, depositing dozens of thin films (for example, 60 layers). Examined what happens to light that did not pass through the first optical filter. Then, it was initially thought that the light was absorbed by the deposited film of the first optical filter. However, as shown in FIG. 22, it was found that all the light not transmitted was reflected by the first optical filter. Therefore, the present inventor has devised to form a layer of a desired optical filter (for example, a first optical filter (FIG. 2)) instead of the divided film of the beam splitter.
- a desired optical filter for example, a first optical filter (FIG. 2)
- the arrangement of the optical elements includes a beam splitter having the first optical filter (FIGS. 2 and 20B) as a division film, and light transmitted through the beam splitter (transmitted through the first optical filter).
- a first image sensor for example, a CMOS sensor
- a second optical filter that filters light reflected in the beam splitter (light in a wavelength range other than light transmitted through the first optical filter) (see FIG. 3).
- the reflected light from the living tissue is split into optical elements such as a beam splitter and a prism and is incident on each image pickup element.
- the image sensor 108 is disposed at the distal end of the electronic scope 100
- it can be provided at a location close to the operation unit or inside the processor 200.
- the reflected light from the end of the endoscope 100 is guided to an optical element such as a beam splitter or a prism by an optical fiber or the like.
- the R of the RGB light (the first wavelength band (630 ⁇ 3 nm to 700 ⁇ 3 nm)) and the second wavelength band (524 ⁇ G from 3 nm to 582 ⁇ 3 nm, B in the third wavelength band (452 ⁇ 3 nm to 502 ⁇ 3 nm), R in the fourth wavelength band (582 ⁇ 3 nm to 630 ⁇ 3 nm), fifth wavelength band (from 502 ⁇ 3 nm)
- An image is obtained by irradiating the living tissue with G light of 524 ⁇ 3 nm) and B light of the sixth wavelength band (420 ⁇ 3 nm to 452 ⁇ 3 nm), and performing predetermined image processing using the image.
- the second wavelength band, the third wavelength band, the fifth wavelength band, and the sixth wavelength band have a constant transmittance regardless of oxygen saturation.
- the band boundary depends on the wavelength of the absorption point.
- the G1 image data corresponding to the second wavelength band, the R1 image data corresponding to the first wavelength band other than the G1 image data, the B1 image data corresponding to the third wavelength band, and the fourth Special processing is performed by performing image processing using at least one of R2 image data corresponding to the wavelength band, G2 image data corresponding to the fifth wavelength band, and B2 image data corresponding to the sixth wavelength band.
- An optical image is generated, whereby the quality of the special optical image can be improved.
- a first blood vessel image at a position at a first depth (shallow position) from the surface of the living tissue is generated using the B2 image data, and a first blood vessel image that is deeper than the first depth is generated using the G1 image data.
- a second blood vessel image at a position at two depths (intermediate depth position) is generated, and a third blood vessel image at a position at a third depth (deepest position) deeper than the second depth is generated using the R1 image data. Is done.
- by generating an image by utilizing the characteristics of each acquired image it is possible to generate images corresponding to various uses.
- a portion that satisfies the characteristic condition where the hemoglobin concentration is equal to or higher than the first threshold value and the oxygen saturation is less than the second threshold value is specified, and the portion that satisfies the characteristic condition is distinguished from other portions.
- a feature image in a form may be generated, and the feature image may be displayed on a screen.
- the endoscope system assigns G2 image data to the Blue wavelength region and assigns R2 image data to the Green wavelength region, thereby reducing the level of image data derived from blood adhering to the surface of the living tissue. It is possible to generate a blood transparent image in which the blood is made transparent by lowering the blood. By displaying the blood transparency image on the screen, even if the operator has a bleeding part in the living tissue of the subject, the operation can be continued with good visibility.
- the endoscope system includes a first image sensor that generates R1 image data, G1 image data, and B1 image data, and a second image sensor that generates R2 image data, G2 image data, and B2 image data. And at least an image sensor.
- light of each wavelength band is generated using a filter.
- a laser light source device (LED light source device) that emits light of each wavelength band without using a filter. May be used to acquire image data (R1 and B2 image data) of each wavelength band. Further, a special image may be generated by further using each of the RGB image data obtained by irradiating light of each wavelength band obtained by the third optical filter (FIG. 4). By doing so, it is possible to provide further various types of observation modes.
- the degree of change in the spectral characteristics of living tissue in a narrow band is calculated based on the image based on the broadband light and the image based on the narrowband light. Output.
- CMOS sensors two image sensors
- the exposure time of the image sensor that captures narrowband light is set to be longer (about 2 to 2.5 times) than the exposure time of the image sensor that captures broadband light. By doing so, it is possible to reduce a calculation error due to a light amount difference existing between the narrowband light and the wideband light.
- the broadband light is light having a wavelength range of 524 ⁇ 3 nm to 582 ⁇ 3 nm
- the narrowband light is light having a wavelength range of 546 ⁇ 3 nm to 570 ⁇ 3 nm.
- a layer of an optical filter (the first optical filter (see FIG. 2)) is used instead of the light splitting film of the light splitting film.
- the reflected light from the living tissue generated by irradiating the living tissue with the illumination light is the first wavelength band light (light of 452 ⁇ 3 nm to 502 ⁇ 3 nm, light of 524 ⁇ 3 nm 582 ⁇ 3 nm, and 630 ⁇ 3 nm to 700 ⁇ 3 nm) transmit through the optical filter layer.
- second wavelength band light (light of 400 ⁇ 3 nm to 452 ⁇ 3 nm, light of 502 ⁇ 3 nm to 524 ⁇ 3 nm, and light of 582 ⁇ 3 nm to 630 ⁇ 3 nm) which is light of a wavelength set other than the predetermined wavelength range set.
- Light is reflected by the layer of the optical filter.
- the first imaging unit CMOS sensor
- the second imaging unit another CMOS sensor
- the image processing unit performs predetermined image processing (for example, oxygen saturation calculation, blood vessel running image generation processing, blood transparency processing, etc.) based on the first image data and the second image data.
- the image processing result is displayed on the display screen of the monitor 300.
- Specific item 1 An endoscope system capable of operating in a normal observation mode in which white light is applied to a living tissue to acquire an image, and in a special observation mode in which light of a specific wavelength band is applied to a living tissue to acquire an image. , Illumination light including at least R in the first wavelength band, G in the second wavelength band, B in the third wavelength band, R in the fourth wavelength band, G in the fifth wavelength band, and B in the sixth wavelength band.
- An illumination unit for irradiating living tissue An imaging unit that generates image data based on reflected light from the living tissue caused by irradiating the living body tissue with the illumination light, An image processing unit that acquires the image data from the imaging unit and performs a predetermined image processing; A display unit that displays an image generated by the predetermined image processing by the image processing unit on a screen, At least the second wavelength band, the third wavelength band, the fifth wavelength band, and the sixth wavelength band are bounded by the wavelength of the equal absorption point at which the transmittance is constant regardless of the oxygen saturation.
- the second wavelength band includes an isosbestic point in the band other than the isosbestic point that is a boundary of the band, the sixth wavelength band is a shorter wavelength band than the third wavelength band, and the fifth wavelength band
- the band is a shorter wavelength band than the second wavelength band
- the fourth wavelength band is a shorter wavelength band than the first wavelength band
- the image data corresponds to R1 image data corresponding to R light in the first wavelength band, G1 image data corresponding to G light in the second wavelength band, and B light in the third wavelength band.
- the image processing unit includes: the G1 image data; and at least one image data of the R1 image data, the B1 image data, the R2 image data, the G2 image data, and the B2 image data other than the G1 image data.
- an endoscope system that generates a special light image by performing image processing using.
- the first wavelength band is 630 ⁇ 3 nm to 700 ⁇ 3 nm;
- the second wavelength band is 524 ⁇ 3 nm to 582 ⁇ 3 nm;
- the third wavelength band is 452 ⁇ 3 nm to 502 ⁇ 3 nm;
- the fourth wavelength band is from 582 ⁇ 3 nm to 630 ⁇ 3 nm,
- the fifth wavelength band is from 502 ⁇ 3 nm to 524 ⁇ 3 nm,
- the sixth wavelength band is from 420 ⁇ 3 nm to 452 ⁇ 3 nm,
- An endoscope system wherein 452 ⁇ 3 nm, 502 ⁇ 3 nm, 524 ⁇ 3 nm, and 582 ⁇ 3 nm are the wavelengths of the isosbestic point.
- the image processing unit A process of generating a first blood vessel image at a position at a first depth from the surface of the living tissue using the B2 image data; A process of using the G1 image data to generate a second blood vessel image at a position at a second depth deeper than the first depth; A process of using the R1 image data to generate a third blood vessel image at a position at a third depth deeper than the second depth; Performing an endoscope system.
- the image processing unit calculates a hemoglobin concentration indicating a blood concentration by dividing the G1 image data by at least the R1 image data, and calculates a hemoglobin concentration value and the B1 image data / the G1 image data value.
- An endoscope system for determining the oxygen saturation of the living tissue based on the information.
- the image processing unit specifies, in the living tissue, a location that satisfies a feature condition in which the hemoglobin concentration is equal to or greater than a first threshold and the oxygen saturation is less than a second threshold, and identifies a location that satisfies the feature condition.
- the image processing unit calculates the relative hemoglobin concentration by removing the influence of scattered light by dividing the G1 image data by a linear combination of the B1 image data, the G1 image data, and the R1 image data.
- An endoscope system for determining the oxygen saturation using the relative hemoglobin concentration.
- the image processing unit assigns the G2 image data to a Blue wavelength region and assigns the R2 image data to a Green wavelength region, thereby lowering the level of image data derived from blood adhering to the surface of the living tissue. Generate a blood transparent image of the blood transparent, The endoscope system, wherein the display unit displays the blood transparency image on a screen.
- the image processing unit further multiplies the G1 image data by a predetermined subtraction parameter, and calculates the G2 image data assigned to the Blue wavelength region, the R2 image data assigned to the Green wavelength region, and the subtraction parameter. And the G1 image data obtained by multiplying the blood transparent image by linearly combining the G1 image data and the G1 image data.
- Specific items 9 In any one of specific items 1 to 8, A first imaging element configured to generate the R1 image data, the G1 image data, and the B1 image data; and a second imaging device configured to generate the R2 image data, the G2 image data, and the B2 image data. And an element.
- An endoscope system capable of operating in a normal observation mode in which white light is applied to a living tissue to acquire an image, and in a special observation mode in which light of a specific wavelength band is applied to a living tissue to acquire an image.
- An illumination unit that irradiates living tissue with illumination light;
- An optical element that splits reflected light from the living tissue caused by irradiating the living body tissue with the illumination light, and outputs at least a first reflected light and a second reflected light;
- a first optical filter that transmits light of a first set of wavelength ranges of the first reflected light;
- a second optical filter that transmits light of a second set of wavelength ranges including a part of the first set of wavelength ranges of the second reflected light;
- a first imaging unit configured to generate first image data corresponding to light in a predetermined wavelength range based on the light in the first set of wavelength ranges;
- a second imaging unit configured to generate second image data corresponding to light in a wavelength range narrower than the predetermined range
- the first image data is broadband image data corresponding to light having a wavelength range of 524 ⁇ 3 nm to 582 ⁇ 3 nm
- the endoscope system wherein the second image data is narrow-band image data corresponding to light having a wavelength range of 546 ⁇ 3 nm to 570 ⁇ 3 nm.
- Specific items 12 In specific items 10 or 11, The endoscope system, wherein the image processing unit calculates a degree of change in spectral characteristics of the living tissue from 546 ⁇ 3 nm to 570 ⁇ 3 nm.
- Specific items 14 An endoscope system capable of operating in a normal observation mode in which white light is applied to a living tissue to acquire an image, and in a special observation mode in which light of a specific wavelength band is applied to a living tissue to acquire an image.
- An illumination unit that irradiates living tissue with illumination light; Having a layer of an optical filter instead of a light splitting film, the first wavelength band light, which is light of a predetermined wavelength band set in reflected light from the living tissue caused by irradiating the living tissue with the illumination light, The second wavelength band light that is transmitted through the optical filter layer and is light of a wavelength group other than the predetermined wavelength band group is reflected by the optical filter layer, and the first wavelength band light and the second wavelength band light are reflected.
- An output optical element A first imaging unit configured to generate first image data corresponding to the light of the predetermined wavelength range set based on the first wavelength range light; A second imaging unit that generates second image data corresponding to light of a wavelength set other than the predetermined wavelength range set based on the second wavelength range light; An image processing unit that performs predetermined image processing based on the first image data and the second image data; An output unit that outputs a calculation result by the image processing unit;
- An endoscope system comprising:
- Specific items 19 A method of operating an endoscope system in a special observation mode to acquire an image by irradiating light of a specific wavelength band to a living tissue,
- the illumination unit emits at least light of R in the first wavelength band, G in the second wavelength band, B in the third wavelength band, R in the fourth wavelength band, G in the fifth wavelength band, and B in the sixth wavelength band.
- Irradiating the living tissue with illumination light including An imaging unit generates image data based on reflected light from the living tissue caused by irradiating the living tissue with the illumination light, An image processing unit acquires the image data from the imaging unit, and performs predetermined image processing; Display unit, on the screen to display an image generated by the predetermined image processing by the image processing unit, including, At least the second wavelength band, the third wavelength band, the fifth wavelength band, and the sixth wavelength band are bounded by the wavelength of the equal absorption point at which the transmittance is constant regardless of the oxygen saturation.
- the second wavelength band includes an isosbestic point in the band other than the isosbestic point that is a boundary of the band, the sixth wavelength band is a shorter wavelength band than the third wavelength band, and the fifth wavelength band
- the band is a shorter wavelength band than the second wavelength band
- the fourth wavelength band is a shorter wavelength band than the first wavelength band
- the image data corresponds to R1 image data corresponding to R light in the first wavelength band, G1 image data corresponding to G light in the second wavelength band, and B light in the third wavelength band.
- the image processing unit When generating the image data, the image processing unit includes the G1 image data, the R1 image data other than the G1 image data, the B1 image data, the R2 image data, the G2 image data, and the B2 image data.
- a method of generating a special light image by performing image processing using at least one image data among image data.
- the first wavelength band is 630 ⁇ 3 nm to 700 ⁇ 3 nm;
- the second wavelength band is 524 ⁇ 3 nm to 582 ⁇ 3 nm;
- the third wavelength band is 452 ⁇ 3 nm to 502 ⁇ 3 nm;
- the fourth wavelength band is from 582 ⁇ 3 nm to 630 ⁇ 3 nm,
- the fifth wavelength band is from 502 ⁇ 3 nm to 524 ⁇ 3 nm,
- the sixth wavelength band is from 420 ⁇ 3 nm to 452 ⁇ 3 nm, The method wherein 452 ⁇ 3 nm, 502 ⁇ 3 nm, 524 ⁇ 3 nm, and 582 ⁇ 3 nm are the wavelengths of the isosbestic point.
- the image processing unit performs the predetermined image processing, Using the B2 image data, the image processing unit generates a first blood vessel image at a position at a first depth from the surface of the living tissue; The image processing unit using the G1 image data to generate a second blood vessel image at a position at a second depth that is deeper than the first depth; Using the R1 image data, the image processing unit generates a third blood vessel image at a position at a third depth that is deeper than the second depth; Including, methods.
- the image processing unit performs the predetermined image processing, The image processing unit calculates a hemoglobin concentration indicating a blood concentration by dividing the G1 image data by at least the R1 image data; The image processing unit calculates the oxygen saturation of the living tissue based on the value of the hemoglobin concentration and the value of the B1 image data / the G1 image data; Including, methods.
- the image processing unit performs the predetermined image processing, The image processing unit, in the biological tissue, to identify a location where the hemoglobin concentration is equal to or greater than a first threshold and the oxygen saturation satisfies a characteristic condition that is less than a second threshold, The image processing unit generates a feature image that adopts a display mode in which a portion satisfying the feature condition is distinguished from other portions, The method, wherein the display unit displays the feature image on a screen.
- the image processing unit calculates the relative hemoglobin concentration by removing the influence of scattered light by dividing the G1 image data by a linear combination of the B1 image data, the G1 image data, and the R1 image data. And determining the oxygen saturation using the relative hemoglobin concentration.
- the image processing unit performs the predetermined image processing, The image processing unit assigns the G2 image data to a Blue wavelength region and assigns the R2 image data to a Green wavelength region, thereby lowering the level of image data derived from blood adhering to the surface of the living tissue. Including generating a blood transparent image in which the blood is transparent, The method, wherein the display unit displays the blood-cleared image on a screen.
- the image processing unit performs the predetermined image processing, The image processing unit multiplies the G1 image data by a predetermined subtraction parameter, and multiplies the G2 image data assigned to the Blue wavelength region by the R2 image data assigned to the Green wavelength region by the subtraction parameter. A linear combination of the G1 image data thus obtained and the blood-cleared image.
- the imaging unit includes a first imaging device and a second imaging device,
- the first image sensor generates the R1 image data, the G1 image data, and the B1 image data
- the second image sensor generates the R2 image data, the G2 image data, and the B2 image data. how to.
- Endoscope system 100 Electronic scope 108 Solid-state imaging device 110 Driver signal processing unit 200 Processor 202 System controller 204 Timing controller 208 Lamp 220 Image processing unit 230 Analysis processing unit 260 Optical filter device 262 Optical filter 264 Filter driving unit 300 Monitor 2301 Image Acquisition unit 2302 Correction calculation unit 2303 Blood vessel running image generation unit 2304 Characteristic region specification processing unit 2306 Display processing unit 2307 Internal memory
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Signal Processing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Astronomy & Astrophysics (AREA)
- General Physics & Mathematics (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
Abstract
より高画質で、より多くの種類の特殊光画像を生成し、提示することを可能にする技術を提供する。本開示による内視鏡システムは、G1画像データ(524±3nmから582±3nmの光を照射することにより得られた画像データ)と、当該G1画像データ以外のR1画像データ(630±3nmから700±3nmの光を照射することにより得られた画像データ)、B1画像データ(452±3nmから502±3nm)、R2画像データ(582±3nmから630±3nmの光を照射することにより得られた画像データ)、G2画像データ(502±3nmから524±3nmの光を照射することにより得られた画像データ)、およびB2画像データ(420±3nmから452±3nmの光を照射することにより得られた画像データ)のうち少なくとも1つの画像データと、を用いて画像処理を行うことにより特殊光画像を生成する(図7)。
Description
本開示は、内視鏡システム、および内視鏡システムを動作させる方法に関する。
分光画像撮影機能を備えた内視鏡装置(分光内視鏡装置)を用いると、消化器の粘膜等の生体組織の分光特性に関する情報(例えば反射スペクトル)を得ることができる。この生体組織の反射スペクトルは、測定対象となる生体組織の表層近傍に含まれる物質の種類や濃度の情報を反映していることが知られている。具体的には、生体組織の反射スペクトルより算出される吸収は、その生体組織を構成する複数の物質の吸収を線形的に重畳したものとなることが知られている。
また、病変部の生体組織は、その組成、成分量において健常部の生体組織とは異なることが知られている。特に、癌などに代表される病変部の異常は、血液の状態、とりわけ全血液量や酸素飽和度の状態と深く関わることが多くの先行研究で報告されている。ここで、注目する2つの生体組織を、それらが有する可視域の分光学的特徴量を利用して、定性、定量することは、分光分析化学の分野では良く利用されている手法である。よって、病変部を含む生体組織の血液の分光特性と、健常部のみの生体組織のそれとを比較して、生体組織に何らかの病変部が含まれるかどうかを推定することができる。
以上のような分光内視鏡装置に関し、例えば、特許文献1には、「簡易な構成で複数種の特殊光観察を実施することを目的とし、R,G,Bそれぞれの領域の光を含む照明光を生体組織に照射する照明部(3,7)と、照明光の生体組織(X)における反射光から画像信号を取得する撮像部(8)と、照明部(3,7)または撮像部(8)に配置され、照明光の波長帯域において、照明光を構成するR、G、Bの少なくとも1つの波長帯域のうち、該波長帯域の中心波長を挟んだ両側の2つの狭帯域の光を生成する狭帯域光生成部(F1,F2)と、2以上の狭帯域の反射光が撮像部(8)により取得された2以上の画像信号に基づいて画像を生成する画像生成部(18)と、を備える生体観察装置(1)」(要約)が開示されている。
近年、分光内視鏡装置においては、様々な使用態様に対応するため、より多種類の特殊光画像を生成して観察可能になることが望まれている。
しかしながら、特許文献1の分光内視鏡装置によれば、通常画像の他、特殊光画像は3種類生成しているだけであり、より多種類の特殊光画像を観察したいという最近のニーズに応えることができていない。また、さらに高画質の特殊光画像の生成も望まれている。
本開示はこのような状況に鑑みてなされたものであり、より高画質で、より多くの種類の特殊光画像を生成し、提示することを可能にする技術を提供する。
上記課題を解決するために、本実施形態は、白色光を生体組織に照射して画像を取得する通常観察モード、および特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードでの動作が可能な内視鏡システムであって、
第1波長帯域のR、第2波長帯域のG、第3波長帯域のB、第4波長帯域のR、第5波長帯域のG、および第6波長帯域のBの光を少なくとも含む照明光を生体組織に照射する照明部と、
前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光に基づいて画像データを生成する撮像部と、
前記撮像部から前記画像データを取得し、所定の画像処理を行う画像処理部と、
前記画像処理部による前記所定の画像処理によって生成された画像を画面上に表示する表示部と、を備え、
少なくとも前記第2波長帯域、前記第3波長帯域、前記第5波長帯域、および前記第6波長帯域は、酸素飽和度によらずに透過率が一定となる等吸収点の波長によって帯域の境界が規定されており、
前記第2波長帯域は、帯域の境界となる等吸収点以外の等吸収点をその帯域内に含み、 前記第6波長帯域は前記第3波長帯域よりも短波長帯域であり、前記第5波長帯域は前記第2波長帯域よりも短波長帯域であり、前記第4波長帯域は前記第1波長帯域よりも短波長帯域であり、
前記画像データは、前記第1波長帯域のRの光に対応するR1画像データと、前記第2波長帯域のGの光に対応するG1画像データと、前記第3波長帯域のBの光に対応するB1画像データと、前記第4波長帯域のRの光に対応するR2画像データと、前記第5波長帯域のGの光に対応するG2画像データと、前記第6波長帯域のBの光に対応するB2画像データと、を含み、
前記画像処理部は、前記G1画像データと、当該G1画像データ以外の前記R1画像データ、前記B1画像データ、前記R2画像データ、前記G2画像データ、および前記B2画像データのうち少なくとも1つの画像データと、を用いて画像処理を行うことにより特殊光画像を生成する、内視鏡システムを提供する。
第1波長帯域のR、第2波長帯域のG、第3波長帯域のB、第4波長帯域のR、第5波長帯域のG、および第6波長帯域のBの光を少なくとも含む照明光を生体組織に照射する照明部と、
前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光に基づいて画像データを生成する撮像部と、
前記撮像部から前記画像データを取得し、所定の画像処理を行う画像処理部と、
前記画像処理部による前記所定の画像処理によって生成された画像を画面上に表示する表示部と、を備え、
少なくとも前記第2波長帯域、前記第3波長帯域、前記第5波長帯域、および前記第6波長帯域は、酸素飽和度によらずに透過率が一定となる等吸収点の波長によって帯域の境界が規定されており、
前記第2波長帯域は、帯域の境界となる等吸収点以外の等吸収点をその帯域内に含み、 前記第6波長帯域は前記第3波長帯域よりも短波長帯域であり、前記第5波長帯域は前記第2波長帯域よりも短波長帯域であり、前記第4波長帯域は前記第1波長帯域よりも短波長帯域であり、
前記画像データは、前記第1波長帯域のRの光に対応するR1画像データと、前記第2波長帯域のGの光に対応するG1画像データと、前記第3波長帯域のBの光に対応するB1画像データと、前記第4波長帯域のRの光に対応するR2画像データと、前記第5波長帯域のGの光に対応するG2画像データと、前記第6波長帯域のBの光に対応するB2画像データと、を含み、
前記画像処理部は、前記G1画像データと、当該G1画像データ以外の前記R1画像データ、前記B1画像データ、前記R2画像データ、前記G2画像データ、および前記B2画像データのうち少なくとも1つの画像データと、を用いて画像処理を行うことにより特殊光画像を生成する、内視鏡システムを提供する。
本開示に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、本開示は、要素及び多様な要素の組み合わせ及び以降の詳細な記述と添付される請求の範囲の様態により達成され実現される。
本明細書の記述は典型的な例示に過ぎず、請求の範囲又は適用例を如何なる意味に於いても限定するものではないことを理解する必要がある。
本明細書の記述は典型的な例示に過ぎず、請求の範囲又は適用例を如何なる意味に於いても限定するものではないことを理解する必要がある。
本開示によれば、より高画質で、より多くの種類の特殊光画像を生成し、提示することが可能となる。
<内視鏡システムの構成>
図1は、本実施形態による内視鏡システム1の概略構成例を示す図である。図1に示されるように、内視鏡システム1は、電子スコープ(内視鏡装置)100と、プロセッサ200と、モニタ300と、を備えている。
図1は、本実施形態による内視鏡システム1の概略構成例を示す図である。図1に示されるように、内視鏡システム1は、電子スコープ(内視鏡装置)100と、プロセッサ200と、モニタ300と、を備えている。
プロセッサ200は、システムコントローラ202、タイミングコントローラ204、画像処理部220、ランプ208及び光学フィルタ装置260を備えている。システムコントローラ202は、メモリ212に記憶された各種プログラムを実行し、内視鏡システム1全体を統合的に制御する。また、システムコントローラ202は、操作パネル214に接続されている。システムコントローラ202は、操作パネル214より入力されるユーザからの指示に応じて、内視鏡システム1の各動作及び各動作のためのパラメータを変更する。タイミングコントローラ204は、各部の動作のタイミングを調整するクロックパルスを内視鏡システム1内の各処理部に出力する。
ランプ208は、ランプ電源イグナイタ206による始動後、照射光Lを射出する。ランプ208は、例えば、キセノンランプ、ハロゲンランプ、水銀ランプ、メタルハライドランプ等の高輝度ランプやLED(Light Emitting Diode)である。照射光Lは、主に可視光領域から不可視である赤外光領域に広がるスペクトルを持つ光(又は少なくとも可視光領域を含む白色光)である。
ランプ208と集光レンズ210との間には、光学フィルタ装置260が配置されている。光学フィルタ装置260は、フィルタ駆動部264と、フィルタ駆動部264に装着された光学フィルタ262を備えている。フィルタ駆動部264は、光学フィルタ262を、照射光Lの光路上の位置(実線)と光路から退避した位置(破線)との間で、光路と直交する方向にスライド可能に構成されている。なお、フィルタ駆動部264の構成は、上述のものに限定されず、例えば回転フィルタ装置のように、光学フィルタ262の重心から外れた回動軸の周りに光学フィルタ262を回動させることにより、照射光Lの光路上に光学フィルタ262を挿抜する構成としてもよい。光学フィルタ262の詳細については後述する。
本実施形態の内視鏡システム1は、ランプ208から放射された白色光をそのまま(或いは、赤外成分及び/又は紫外成分を除去して)照明光(通常光Ln)として使用して内視鏡観察を行う通常観察モードと、白色光を光学フィルタ262に通して(或いは、更に赤外成分及び/又は紫外成分を除去して)得たフィルタ光Lfを照明光として使用して内視鏡観察を行う特殊観察モードと、特殊観察モードで使用される補正値を取得するためのベースライン測定モードの3つの動作モードで動作可能に構成されている。光学フィルタ262は、通常観察モードでは光路から退避した位置に配置され、特殊観察モードでは光路上に配置される。
光学フィルタ装置260を通過した照射光L(フィルタ光Lf又は通常光Ln)は、集光レンズ210によってLCB(Light Carrying Bundle)102の入射端面に集光されて、LCB102内に導入される。
LCB102内に導入された照射光Lは、LCB102内を伝播して電子スコープ100の先端に配置されたLCB102の射出端面より射出され、配光レンズ104を介して被写体に照射される。照射光Lにより照射された被写体からの戻り光は、対物レンズ106を介して固体撮像素子108の受光面上で光学像を結ぶ。
固体撮像素子108は、例えば、ベイヤ型画素配置を有する単板式カラーCCD(Charge Coupled Device)イメージセンサである。固体撮像素子108は、受光面上の各画素で結像した光学像を光量に応じた電荷として蓄積して画像信号(画像データ)を生成して出力する。固体撮像素子108は、赤色の光を透過させるRフィルタと、緑色の光を透過させるGフィルタと、青色の光を透過させるBフィルタとが固体撮像素子108の各受光素子上に直接形成された、いわゆるオンチップカラーフィルタを備えている。固体撮像素子108が生成する画像信号には、Rフィルタが装着された受光素子によって撮像された画像信号R、Gフィルタが装着された受光素子によって撮像された画像信号G及びBフィルタが装着された受光素子によって撮像された画像信号Bが含まれている。
なお、固体撮像素子108は、CCDイメージセンサに限らず、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやその他の種類の撮像装置に置き換えてもよい。
図1に示されるように、電子スコープ100は、プロセッサ200との接続部内に、ドライバ信号処理部110を備えている。ドライバ信号処理部110には、画像信号がフィールド周期で固体撮像素子108より入力される。ドライバ信号処理部110は、固体撮像素子108より入力される画像信号に対して所定の処理を施した後、プロセッサ200の画像処理部220へ出力する。
ドライバ信号処理部110はまた、メモリ112にアクセスして電子スコープ100の固有情報を読み出す。メモリ112に記録される電子スコープ100の固有情報には、例えば、固体撮像素子108の画素数や感度、動作可能なフィールドレート、型番等が含まれる。ドライバ信号処理部110は、メモリ112より読み出された固有情報をシステムコントローラ202に出力する。
システムコントローラ202は、電子スコープ100の固有情報に基づいて各種演算を行い、制御信号を生成する。システムコントローラ202は、生成された制御信号を用いて、プロセッサ200に接続されている電子スコープに適した処理がなされるようにプロセッサ200内の各種処理部の動作やタイミングを制御する。
タイミングコントローラ204は、システムコントローラ202によるタイミング制御に従って、ドライバ信号処理部110にクロックパルスを供給する。ドライバ信号処理部110は、タイミングコントローラ204から供給されるクロックパルスに従って、固体撮像素子108をプロセッサ200側で処理される映像のフィールドレートに同期したタイミングで駆動制御する。
画像処理部220は、ドライバ信号処理部110より1フィールド周期で入力される画像信号に対して色補完、マトリクス演算、Y/C分離等の所定の信号処理を施した後、モニタ表示用の画面データを生成し、生成されたモニタ表示用の画面データを所定のビデオフォーマット信号に変換する。変換されたビデオフォーマット信号は、モニタ300に出力される。これにより、被写体の画像がモニタ300の表示画面に表示される。
また、画像処理部220は、分析処理部230を備えている。分析処理部230は、例えば、特殊観察モードにおいて、取得した画像信号R(Red)、G(Green)、B(Blue)に基づいて分光学的な分析処理を行い、被写体である生体組織における酸素飽和度との相関を有する指標の値を計算し、計算結果を視覚的に表示するための画像データを生成する。なお、分析処理部230の内部構成例については後述する(図7参照)。
上述のように、本実施形態の内視鏡システム1は、光学フィルタ262を使用せず、ランプ208から放射された白色光(通常光Ln)を照明光として使用してする通常観察モードと、白色光を光学フィルタ262に通して得られるフィルタ光Lfを照明光として使用して分光学的な分析を行う特殊観察モードと、特殊観察用の補正値を取得するためのベースライン測定モードの3つのモードで動作するように構成されている。各モードの切り替えは、電子スコープ100の操作部又はプロセッサ200の操作パネル214に対するユーザ操作によって行われる。
通常観察モードでは、システムコントローラ202は、光学フィルタ装置260を制御して光学フィルタ262を光路上から退避させ、被写体に通常光Lnを照射して撮像を行う。そして、撮像素子108によって撮像された画像データを、必要に応じて画像処理を施した後に、ビデオ信号に変換して、モニタ300に表示させる。
特殊観察モード及びベースライン測定モードでは、システムコントローラ202は、光学フィルタ装置260を制御して光学フィルタ262を光路上に配置し、被写体にフィルタ光Lfを照射して撮像を行う。そして、特殊観察モードでは、撮像素子108によって撮像された画像データに基づいて、後述する分析処理(深さ別血管走行画像生成処理、特徴領域特定処理、血液透明化処理など)を行う。
ベースライン測定モードは、実際の内視鏡観察を行う前に、無彩色の拡散板や標準反射板等の色基準板を被写体として、フィルタ光Lfによる照明下で撮像を行い、特殊観察モードの規格化処理に使用するデータを取得するモードである。
ベースライン測定モードにおいてフィルタ光Lfを用いて撮像した3原色の画像データR(x,y)、G(x,y)、B(x,y)は、それぞれベースライン画像データBLR(x,y)、BLG(x,y)、BLB(x,y)として、分析処理部230の内部メモリに記憶される。なお、R(x,y)、G(x,y)、B(x,y)及びBLR(x,y)、BLG(x,y)、BLB(x,y)は、それぞれ画素(x,y)の画像データ及びベースライン画像データの値である。また、画素(x,y)は、水平方向の座標x及び垂直方向の座標yにより特定される。
<光学フィルタの構成(帯域)>
図2から4は、生体組織の分光特性と、本実施形態による特殊観察モードで使用する光学フィルタの帯域との関係を示す図である。図2は、上記分光特性と広帯域画像(G1画像)を取得する際に用いる第1光学フィルタの波長帯域とを示す図である。図3は、上記分光特性とB2画像、G2画像、およびR2画像を取得する際に用いる第2光学フィルタの波長帯域とを示す図である。図4は、上記分光特性と狭帯域画像(G3画像)を取得する際に用いる第3光学フィルタの波長帯域とを示す図である。なお、以下に示す各波長域の値を“中心波長±3”と幅を持たせて表現しているのは、光学フィルタの製造時に生じる誤差を考慮したものである。従って、この製造時誤差(±3)の値は一例であり、当該誤差が大きくなれば当該「幅」の値はより大きくなることに留意すべきである。また、以下において、各等吸収点における波長値が±3(一例)の幅を持つ理由は、酸素化ヘモグロビンと還元ヘモグロビンの各スペクトルの交差が緩やかになっているためである。
図2から4は、生体組織の分光特性と、本実施形態による特殊観察モードで使用する光学フィルタの帯域との関係を示す図である。図2は、上記分光特性と広帯域画像(G1画像)を取得する際に用いる第1光学フィルタの波長帯域とを示す図である。図3は、上記分光特性とB2画像、G2画像、およびR2画像を取得する際に用いる第2光学フィルタの波長帯域とを示す図である。図4は、上記分光特性と狭帯域画像(G3画像)を取得する際に用いる第3光学フィルタの波長帯域とを示す図である。なお、以下に示す各波長域の値を“中心波長±3”と幅を持たせて表現しているのは、光学フィルタの製造時に生じる誤差を考慮したものである。従って、この製造時誤差(±3)の値は一例であり、当該誤差が大きくなれば当該「幅」の値はより大きくなることに留意すべきである。また、以下において、各等吸収点における波長値が±3(一例)の幅を持つ理由は、酸素化ヘモグロビンと還元ヘモグロビンの各スペクトルの交差が緩やかになっているためである。
(i)第1光学フィルタ(図2)
第1光学フィルタは、波長が452±3から502±3nmの光(青色光)を透過させる第1領域と、波長が524±3から582±3nmの光(緑色光)を透過させる第2領域と、波長が630±3から700±3nmの光(赤色光)を透過させる第3領域と、を備える光学フィルタである。
第1光学フィルタは、波長が452±3から502±3nmの光(青色光)を透過させる第1領域と、波長が524±3から582±3nmの光(緑色光)を透過させる第2領域と、波長が630±3から700±3nmの光(赤色光)を透過させる第3領域と、を備える光学フィルタである。
第1領域は、ヘモグロビンの透過スペクトル等吸収点(ヘモグロビンの透過スペクトルは、酸素化ヘモグロビンと還元ヘモグロビンの濃度の和が一定となる2成分系の分光スペクトルであるため、各成分の濃度比(酸素飽和度)によらず吸収(透過率)が一定となるポイントをいう)E2(452±3nm)と等吸収点E3(502±3nm)の間の波長帯域に相当し、酸素飽和度情報を生成するための青色光データを提供する。
第2領域は、等吸収点E4(524±3nm)と等吸収点E7(582±3nm)の間の波長帯域に相当する。第2領域は、等吸収点E4と等吸収点E7との間に、さらに等吸収点E5(546±3nm)と等吸収点E6(570±3nm)を含んでおり、等吸収点E5とE6の間の画像データからは酸素飽和度の情報を多く得ることができる。等吸収点E5とE6の間の画像データを取得するには第3光学フィルタ(図5)を用いることとなる。
第3領域は、等吸収点を含んでおらず、ほとんど光の吸収がなく(光透過率が高く)、酸素飽和度情報を生成するための赤色光データを提供する。
第3領域は、等吸収点を含んでおらず、ほとんど光の吸収がなく(光透過率が高く)、酸素飽和度情報を生成するための赤色光データを提供する。
(ii)第2光学フィルタ(図3)
第2光学フィルタは、波長が420±3から452±3nmの光(青色光)を透過させる第4領域と、波長が502±3から524±3nmの光(緑色光)を透過させる第5領域と、波長が582±3から615±3nmの光(赤色光)を透過させる第6領域と、を備える光学フィルタである。
第2光学フィルタは、波長が420±3から452±3nmの光(青色光)を透過させる第4領域と、波長が502±3から524±3nmの光(緑色光)を透過させる第5領域と、波長が582±3から615±3nmの光(赤色光)を透過させる第6領域と、を備える光学フィルタである。
第4領域は、等吸収点E1(420±3nm)と等吸収点E2(452±3nm)の間の波長帯域に相当し、酸素飽和度情報を生成するための青色光データを提供する。第5領域は、等吸収点E3(502±3nm)と等吸収点E4(524±3nm)の間の波長帯域に相当する。第6領域は、等吸収点E7(582±3nm)から波長630±3nmの間の波長帯域に相当する。
(iii)第3光学フィルタ(図4)
第3光学フィルタは、波長が380±3から420±3nmの光(青色光)を透過させる第7領域と、波長が546±3から570±3nmの光(緑色光)を透過させる第8領域と、波長が720±3から800±3nmの光(赤色光)を透過させる第9領域と、を備える光学フィルタである。
第3光学フィルタは、波長が380±3から420±3nmの光(青色光)を透過させる第7領域と、波長が546±3から570±3nmの光(緑色光)を透過させる第8領域と、波長が720±3から800±3nmの光(赤色光)を透過させる第9領域と、を備える光学フィルタである。
第7領域は、波長380±3nmと等吸収点E1(420±3nm)の間の波長領域に相当し、酸素飽和度情報を生成するための青色光データを提供する。第8領域は、等吸収点E5(546±3nm)と等吸収点E6(570±3nm)の間の波長帯域に相当する。第9領域は、等吸収点を含んでおらず、ほとんど光の吸収がなく(光透過率が高く)、深層部情報を取得するための赤色光データを提供する。
第3光学フィルタを用いると、等吸収点E5およびE6間の画像データを取得することが可能となる。この波長帯域は光源の光のレベルが強い帯域であるため、酸素飽和度(StO2)に関する情報を多く得ることができる。しかし、この波長帯域の画像データを用いると、後述の酸素飽和度指標値のダイナミックレンジが狭いため、分解能が低く、正確に酸素飽和度を求めることが困難な場合がある。本実施形態では、酸素飽和度指標値のダイナミックレンジを広げて分解能を向上させ、精度良く酸素飽和度を求めることを提案している(後述)。
(iv)等吸収点における特徴について
隣接する等吸収点間では、酸素飽和度の増加に応じて吸収が単調に増加又は減少する。また、隣接する等吸収点間では、ヘモグロビンの吸収Aは、酸素飽和度に対してほぼ線形的に変化する。図5は、波長域W2における血液の透過光量(縦軸)と酸素飽和度(横軸)との関係をプロットしたグラフである。なお、縦軸の透過光量は、波長域W2の全域で積分した値である。図5のグラフより、波長域W2において、ヘモグロビンの吸収が酸素飽和度に対してほぼ線形的に減少することがわかる。なお、隣接する波長域W1においては、ヘモグロビンの吸収が酸素飽和度に対して線形的に増加する。具体的には、光透過率に関しては、正確にはランバート・ベールの法則(Beer-Lambert Law)に従う変化量であるが、20nm~80nm程度のある程度の狭い波長領域においてはほぼ線形の変化と見なすことができる。
隣接する等吸収点間では、酸素飽和度の増加に応じて吸収が単調に増加又は減少する。また、隣接する等吸収点間では、ヘモグロビンの吸収Aは、酸素飽和度に対してほぼ線形的に変化する。図5は、波長域W2における血液の透過光量(縦軸)と酸素飽和度(横軸)との関係をプロットしたグラフである。なお、縦軸の透過光量は、波長域W2の全域で積分した値である。図5のグラフより、波長域W2において、ヘモグロビンの吸収が酸素飽和度に対してほぼ線形的に減少することがわかる。なお、隣接する波長域W1においては、ヘモグロビンの吸収が酸素飽和度に対して線形的に増加する。具体的には、光透過率に関しては、正確にはランバート・ベールの法則(Beer-Lambert Law)に従う変化量であるが、20nm~80nm程度のある程度の狭い波長領域においてはほぼ線形の変化と見なすことができる。
また、等吸収点E4からE7までの波長領域(すなわち、波長域W4~W6の連続した波長領域)に着目すると、波長域W4及びW6においては、酸素飽和度の増加に応じて血液の吸収が単調に増加するが、波長域W5においては、逆に酸素飽和度の増加に応じて血液の吸収が単調に減少する。しかしながら、本発明者は、波長域W5における血液の吸収の減少量が、波長域W4及びW6における血液の吸収の増加量の和と略等しく、波長域W7全体としては血液の吸収が酸素飽和度に依らず略一定となることを見出した。
図6は、波長域W4からW6における血液の透過光量(縦軸)と酸素飽和度(横軸)との関係をプロットしたグラフである。なお、縦軸の透過光量は、波長域W4からW6の全域で積分した値である。透過光量の平均値は0.267(任意単位)、標準偏差は1.86×10-5であった。図6のグラフより、波長域W4からW6全体では、血液の透過光量が酸素飽和度に依らず略一定となることがわかる。
また、図2から4に示されるように、概ね630±3nm以上(特に、650nm以上)の波長領域においては、ヘモグロビンの吸収が少なく、酸素飽和度が変化しても光透過率は殆ど変化しない。また、白色光源にキセノンランプを使用する場合、波長750±3nm以下(特に、720nm以下)の波長領域においては、白色光源の十分に大きな光量が得られる。従って、例えば650±3~720±3nmの波長領域を、ヘモグロビンの吸収が無い透明領域として、透過光量の基準の波長領域として使用することができる。本明細書では、波長650±3nmから波長720±3nmまでの波長領域を波長域WRと定義することができる。
上述したように、波長域W2におけるヘモグロビンの吸収AW2は酸素飽和度の増加に対して線形的に減少することが知られている。波長域W4からW6におけるヘモグロビンの吸収AW4-6は酸素飽和度に依らず一定値とみなせることから、吸収AW4-6を基準とした吸収AW2の値は酸素飽和度を反映した指標を与えることになる。具体的には次の式(1)によって定義される指標Xにより酸素飽和度を表すことができる。
X=AW2-AW4-6 ・・・ (1)
X=AW2-AW4-6 ・・・ (1)
従って、予め実験的に又は計算により酸素飽和度と指標Xとの定量的な関係を取得すれば、指標Xの値から酸素飽和度(StO2)を推定することができる。なお、上述したように、本実施形態では、酸素飽和度指標値のダイナミックレンジを広げて分解能を向上させ、精度良く酸素飽和度を求めるための工夫がなされている。
<分析処理部の内部構成例>
図7は、本実施形態による分析処理部230の内部構成例を示す図である。分析処理部230は、電子スコープ100が撮像した画像を取得する画像取得部2301と、画像取得部2301が取得した画像のRGB値を補正する補正演算部2302と、補正演算部2302によって補正された各波長帯域の画像を用いて血管走行画像を生成する血管走行画像生成部2303と、相対的ヘモグロビン濃度と酸素飽和度を算出し、血液濃度が高く酸素飽和度が低い特徴領域を特定する特徴領域特定処理部2304と、血液を透明化した画像(血液透明化画像)を生成する透明化処理部2305と、生成した各画像や関連情報をモニタ300の画面上に表示するための表示データを生成する表示処理部2306と、パラメータや各種データを格納したり、電子スコープ100から受信したデータなどを一時的に格納したりする内部メモリ2307と、を備えている。画像取得部2301から表示処理部2306までの各処理部は、例えば、プログラムによって構成することができる。この場合、プロセッサとしての画像処理部220あるいは分析処理部230がメモリ212や他のストレージデバイス(図1において図示せず)から各処理部を実現するためのプログラムを読み込み、内部メモリ2307に展開することにより、各処理部を実現することができる。各処理部は、モジュールとして構成するようにしてもよい。
図7は、本実施形態による分析処理部230の内部構成例を示す図である。分析処理部230は、電子スコープ100が撮像した画像を取得する画像取得部2301と、画像取得部2301が取得した画像のRGB値を補正する補正演算部2302と、補正演算部2302によって補正された各波長帯域の画像を用いて血管走行画像を生成する血管走行画像生成部2303と、相対的ヘモグロビン濃度と酸素飽和度を算出し、血液濃度が高く酸素飽和度が低い特徴領域を特定する特徴領域特定処理部2304と、血液を透明化した画像(血液透明化画像)を生成する透明化処理部2305と、生成した各画像や関連情報をモニタ300の画面上に表示するための表示データを生成する表示処理部2306と、パラメータや各種データを格納したり、電子スコープ100から受信したデータなどを一時的に格納したりする内部メモリ2307と、を備えている。画像取得部2301から表示処理部2306までの各処理部は、例えば、プログラムによって構成することができる。この場合、プロセッサとしての画像処理部220あるいは分析処理部230がメモリ212や他のストレージデバイス(図1において図示せず)から各処理部を実現するためのプログラムを読み込み、内部メモリ2307に展開することにより、各処理部を実現することができる。各処理部は、モジュールとして構成するようにしてもよい。
本実施形態による電子スコープ100は、例えば、2つ以上の固体撮像素子(CMOSイメージセンサ)108を備えている。第1光学フィルタを用いてそれに対応する波長領域の画像を撮像する場合には、1の固体撮像素子が用いられ、第2光学フィルタを用いてそれに対応する波長領域の画像を撮像する場合には、もう1つの固体撮像素子が用いられる。画像取得部2301は、それぞれの固体撮像素子で撮像され、ドライバ信号処理部110を介して送信されてきた画像を取得する。つまり、画像取得部2301は、第1光学フィルタによって、波長帯域が452±3nmから502±3nmのB1画像と、波長帯域が524±3nmから582±3nmのG1画像と、波長帯域が630±3nmから700±3nmのR1画像と、を取得する。また、画像取得部2301は、第2光学フィルタによって、波長領域が420±3nmから452±3nmのB2画像と、波長帯域が502±3nmから524±3nmのG2画像と、波長帯域が582±3nmから630±3nmのR2画像と、を取得する。さらに、画像取得部2301は、RGB値を補正する際に基準として用いる補正用画像(白画像)を取得する。
補正演算部2302は、例えば、CMOSイメージセンサにおけるOn Chipフィルタによって取得されたRGB値を、画像取得部2301が取得した補正用画像を用いて、フィルタ出力と相関が高い数値に丸めるマトリクス演算処理(例えば、色補正のためのカラーマトリクスであって、酸素飽和度の波長と相関が高い係数を有するカラーマトリクスを用いる)を行う。
血管走行画像生成部2303は、補正演算部2302によって得られる補正された各波長帯域の画像から、B2画像(波長帯域が420±3nmから452±3nmの画像)を表面から浅い部分の血管を表す画像とし、G1画像(波長帯域が524±3nmから582±3nmの画像:広帯域画像)を表面から中間の深さ部分の血管を表す画像とし、R1画像(波長帯域が630±3nmから700±3nmの画像)を表面から深い部分の血管を表す画像とすることにより、各深度における血管走行画像を生成する。
特徴領域特定処理部2304は、B1画像とG1画像の比率と、血液濃度を示すHb(ヘモグロビン)濃度を算出し、それらを予め用意されている酸素飽和度指標テーブル(図13B参照)に適用することにより、酸素飽和度を算出する。
透明化処理部2305は、検査(診断)および手術部位が血液によって確認できなくなるという状況を改善するために、血液の吸収のない波長範囲の情報を用いて画像を生成する。これにより、出血が伴う箇所の組織の視認性を確保する。具体的に、透明化処理部2305は、各画素について、G1画像(波長帯域が524±3nmから582±3nmの画像)と、G2画像(波長帯域が502±3nmから524±3nmの画像)と、R1画像(波長帯域が582±3nmから630±3nmの画像)とを線形結合(a1×G1画像の画素値+a2×G2画像の画素値+a3×R1画像の画素値)することにより、血液透明化画像を生成する。
表示処理部2306は、各血管走行画像、特徴領域を特定した画像、および血液透明化画像をモニタ300のフォーマットに合った形式に変換して表示用データを生成し、モニタ300に送信する。
<血管走行画像生成処理>
図8は、深度別の血管走行画像(血管構造主体:Depth Profile)を生成する処理を説明するためのフローチャートである。ここでは、各ステップの動作主体を、画像取得部2301、補正演算部2302、血管走行画像生成部2303、および表示処理部2306としているが、これらがプログラムによって実現される場合には、動作主体を分析処理部230や画像処理部220(以下、プロセッサと言うこともできる)と読み替えてもよい。また、ここでは、固体撮像素子108として、On Chipフィルタを備えたCMOSイメージセンサを2つ用いるものとする。
図8は、深度別の血管走行画像(血管構造主体:Depth Profile)を生成する処理を説明するためのフローチャートである。ここでは、各ステップの動作主体を、画像取得部2301、補正演算部2302、血管走行画像生成部2303、および表示処理部2306としているが、これらがプログラムによって実現される場合には、動作主体を分析処理部230や画像処理部220(以下、プロセッサと言うこともできる)と読み替えてもよい。また、ここでは、固体撮像素子108として、On Chipフィルタを備えたCMOSイメージセンサを2つ用いるものとする。
(i)ステップ101
画像取得部2301は、電子スコープ100で撮像された画像である、第1RGB画像および第2RGB画像、さらには補正用画像を取得する。第1RGB画像は、波長帯域が452±3nmから502±3nmのB1画像と、波長帯域が524±3nmから582±3nmのG1画像と、波長帯域が630±3nmから700±3nmのR1画像と、を含む。また、第2RGB画像は、波長領域が420±3nmから452±3nmのB2画像と、波長帯域が502±3nmから524±3nmのG2画像と、波長帯域が582±3nmから630±3nmのR2画像と、を含む。さらに、補正用画像は、第1RGB画像および第2RGB画像のRGB値それぞれを補正する際に基準として用いる補正用画像(白画像)である。
画像取得部2301は、電子スコープ100で撮像された画像である、第1RGB画像および第2RGB画像、さらには補正用画像を取得する。第1RGB画像は、波長帯域が452±3nmから502±3nmのB1画像と、波長帯域が524±3nmから582±3nmのG1画像と、波長帯域が630±3nmから700±3nmのR1画像と、を含む。また、第2RGB画像は、波長領域が420±3nmから452±3nmのB2画像と、波長帯域が502±3nmから524±3nmのG2画像と、波長帯域が582±3nmから630±3nmのR2画像と、を含む。さらに、補正用画像は、第1RGB画像および第2RGB画像のRGB値それぞれを補正する際に基準として用いる補正用画像(白画像)である。
(ii)ステップ102
補正演算部2302は、例えば、CMOSイメージセンサにおけるOn Chipフィルタによって取得された、第1および第2RGB画像のそれぞれのRGB値を、画像取得部2301が取得した補正用画像を用いて、フィルタ出力と相関が高い数値に丸めるマトリクス演算処理(例えば、色補正のためのカラーマトリクスであって、酸素飽和度の波長と相関が高い係数を有するカラーマトリクスを用いる)を行う。On Chipフィルタは、波長帯域が重複している箇所があるため、適切なRGB値を出力することができない可能性がある。そこで、On Chipフィルタで取得したRGB値を酸素飽和度の波長と相関の高い係数で補正し(例えば、3×3の行列演算)、適切な帯域分離を実現する。
補正演算部2302は、例えば、CMOSイメージセンサにおけるOn Chipフィルタによって取得された、第1および第2RGB画像のそれぞれのRGB値を、画像取得部2301が取得した補正用画像を用いて、フィルタ出力と相関が高い数値に丸めるマトリクス演算処理(例えば、色補正のためのカラーマトリクスであって、酸素飽和度の波長と相関が高い係数を有するカラーマトリクスを用いる)を行う。On Chipフィルタは、波長帯域が重複している箇所があるため、適切なRGB値を出力することができない可能性がある。そこで、On Chipフィルタで取得したRGB値を酸素飽和度の波長と相関の高い係数で補正し(例えば、3×3の行列演算)、適切な帯域分離を実現する。
具体的には、図9に示されるように、On chipフィルタのRGB値(図9上段:(Rs,Gs,Bs))に行列変換演算を実行し、補正RGB値(RGB_related_values)を生成する。以後の処理では、RGB値として、補正RGB値が用いられる。
(iii)ステップ801
血管走行画像生成部2303は、内視鏡による観察部位の浅い箇所の血管と、深い箇所の血管と、それらの中間の箇所の血管の画像(血管走行画像:Depth Profileとも言う)を生成する。これは、観察波長によって深さ方向の可視情報が異なることを利用して画像を生成する処理である。短波長画像は、観察部位の表面近傍の血管や組織の情報を得るのに用いられ、長波長になればなるほど観察部位の表面から深い箇所にある血管や組織の情報を得るのに用いられる。ステップ801では、これらの情報を可視化し、血管の相対的深さの情報が生成される。
血管走行画像生成部2303は、内視鏡による観察部位の浅い箇所の血管と、深い箇所の血管と、それらの中間の箇所の血管の画像(血管走行画像:Depth Profileとも言う)を生成する。これは、観察波長によって深さ方向の可視情報が異なることを利用して画像を生成する処理である。短波長画像は、観察部位の表面近傍の血管や組織の情報を得るのに用いられ、長波長になればなるほど観察部位の表面から深い箇所にある血管や組織の情報を得るのに用いられる。ステップ801では、これらの情報を可視化し、血管の相対的深さの情報が生成される。
短波長の光で組織を観察すると、観察部位表面から浅い箇所で光が飽和してしまう。このため、深い箇所の情報(例えば、血管のデータ)は欠落し、浅い箇所の情報(血管情報)が選択的に観察されることになる。従って、波長帯域420±3nmから452±3nmの光を照射することによって得られるB2画像を表示することにより、観察部位の浅い箇所の血管の様子(走行状態)を確認することができる。なお、B1画像を用いても観察部位表面から浅い箇所の血管画像を生成することはできる。
中波長の光で組織を観察すると、観察部位表面から中程度の深さの箇所で光が飽和してしまう。このため、深い箇所の情報(例えば、血管のデータ)は欠落し、中程度の深さの箇所の情報(血管情報)が選択的に観察されることになる。従って、波長帯域524±3nmから582±3nmの光を照射することによって得られるG1画像を表示することにより、観察部位の中程度の深さの箇所の血管の様子(走行状態)を確認することができる。
長波長の光で組織を観察すると、観察部位表面からさらに深い箇所まで光が到達する。このため、観察部位表面から深い箇所の情報(血管情報)を選択的に観察することが可能となる。従って、波長帯域630±3nmから700±3nmの光を照射することによって得られるR1画像を表示することにより、観察部位からさらに深い箇所の血管の様子(走行状態)を確認することができる。
(iv)ステップ802
表示処理部2306は、B2画像、G1画像、およびR1画像のそれぞれを、モニタ300に画像を表示する際に用いられるフォーマットに変換し、変換したデータをモニタ300に送信する。モニタ300は、分析処理部230の表示処理部2306からB2画像、G1画像、およびR1画像に対応するデータを受信し、それぞれの画像を画面上に表示する。
表示処理部2306は、B2画像、G1画像、およびR1画像のそれぞれを、モニタ300に画像を表示する際に用いられるフォーマットに変換し、変換したデータをモニタ300に送信する。モニタ300は、分析処理部230の表示処理部2306からB2画像、G1画像、およびR1画像に対応するデータを受信し、それぞれの画像を画面上に表示する。
<血管走行画像の例>
図10は、血管走行画像生成処理(図8)によって生成された、観察部位の血管走行画像の例を示す図である。図10Aは、観察部位の可視光画像例を示す。図10Bは、B2画像(波長帯域420±3nmから452±3nmの光を照射して得られた画像)であり、観察部位表面から浅い箇所にある血管の様子の画像例を示す。図10Cは、G1画像(波長帯域524±3nmから582±3nmの光を照射して得られた画像)であり、観察部位表面から中程度の深さの箇所にある血管の様子の画像例を示す。図10Dは、R1画像(波長帯域630±3nmから700±3nmの光を照射して得られた画像)であり、観察部位表面からさらに深い箇所にある血管の様子の画像例を示す。
図10は、血管走行画像生成処理(図8)によって生成された、観察部位の血管走行画像の例を示す図である。図10Aは、観察部位の可視光画像例を示す。図10Bは、B2画像(波長帯域420±3nmから452±3nmの光を照射して得られた画像)であり、観察部位表面から浅い箇所にある血管の様子の画像例を示す。図10Cは、G1画像(波長帯域524±3nmから582±3nmの光を照射して得られた画像)であり、観察部位表面から中程度の深さの箇所にある血管の様子の画像例を示す。図10Dは、R1画像(波長帯域630±3nmから700±3nmの光を照射して得られた画像)であり、観察部位表面からさらに深い箇所にある血管の様子の画像例を示す。
以上のように、B2画像、G1画像、およびR1画像を生成することにより、観察部位における各深さのプロファイルを取得することができ、被検者を有効に、かつ効率的に検査・診断することが可能となる。
<特徴領域特定処理>
図11は、本実施形態による特徴領域特定処理の詳細を説明するためのフローチャートである。ここでは、各ステップの動作主体は、画像取得部2301、補正演算部2302、特徴領域特定処理部2304、および表示処理部2306としているが、これらがプログラムによって実現される場合には、動作主体を分析処理部230や画像処理部220(以下、プロセッサと言うこともできる)と読み替えてもよい。また、ここでは、固体撮像素子108として、On Chipフィルタを備えたCMOSイメージセンサを2つ用いるものとする。なお、ステップ101および102は、図8と同様であるため、説明は省略する。
図11は、本実施形態による特徴領域特定処理の詳細を説明するためのフローチャートである。ここでは、各ステップの動作主体は、画像取得部2301、補正演算部2302、特徴領域特定処理部2304、および表示処理部2306としているが、これらがプログラムによって実現される場合には、動作主体を分析処理部230や画像処理部220(以下、プロセッサと言うこともできる)と読み替えてもよい。また、ここでは、固体撮像素子108として、On Chipフィルタを備えたCMOSイメージセンサを2つ用いるものとする。なお、ステップ101および102は、図8と同様であるため、説明は省略する。
(i)ステップ1101
特徴領域特定処理部2304は、観察部位における相対的ヘモグロビン濃度を算出する。ヘモグロビン濃度(血液濃度)は、粘膜の分光情報が含む要素を酸素化ヘモグロビン、還元ヘモグロビン、散乱光として各要素の比率を計算することによって得られる。散乱光が無い場合、図12Aに示されるように、ベースラインはほぼ水平になるため、相対的ヘモグロビン濃度(血液濃度)は、ベースラインからG1(wide)までの変位Hb=G1/R1によって表すことができる(R1がベースラインを表す)。しかし、実際には散乱光の要素が入ってきてしまうので、図12Bに示すように、ベースラインが水平とならず傾きを持ってしまう(ベースラインが鈍る)。散乱の分光特性は、図12Cに示すように、通常のRGBの各分光特性の組み合わせで表すことができる。このため、分光特性をRGBの線形結合で再現してベースラインとすることにより、散乱光を考慮した相対的ヘモグロビン濃度を算出することができる。式(2)は、散乱光を考慮した相対的ヘモグロビン濃度を算出する際に用いる式であり、式(2)において、最適な(分光特性を再現できる)係数α、β、およびγを決定すればよいことが分かる。図12Bの分光特性における傾きを持ったベースラインはG1とR1のみから再現できるため、図12B(図12C)の例では、α=0、β=γ=1とすることができる。
特徴領域特定処理部2304は、観察部位における相対的ヘモグロビン濃度を算出する。ヘモグロビン濃度(血液濃度)は、粘膜の分光情報が含む要素を酸素化ヘモグロビン、還元ヘモグロビン、散乱光として各要素の比率を計算することによって得られる。散乱光が無い場合、図12Aに示されるように、ベースラインはほぼ水平になるため、相対的ヘモグロビン濃度(血液濃度)は、ベースラインからG1(wide)までの変位Hb=G1/R1によって表すことができる(R1がベースラインを表す)。しかし、実際には散乱光の要素が入ってきてしまうので、図12Bに示すように、ベースラインが水平とならず傾きを持ってしまう(ベースラインが鈍る)。散乱の分光特性は、図12Cに示すように、通常のRGBの各分光特性の組み合わせで表すことができる。このため、分光特性をRGBの線形結合で再現してベースラインとすることにより、散乱光を考慮した相対的ヘモグロビン濃度を算出することができる。式(2)は、散乱光を考慮した相対的ヘモグロビン濃度を算出する際に用いる式であり、式(2)において、最適な(分光特性を再現できる)係数α、β、およびγを決定すればよいことが分かる。図12Bの分光特性における傾きを持ったベースラインはG1とR1のみから再現できるため、図12B(図12C)の例では、α=0、β=γ=1とすることができる。
以上のような演算を行うことにより、特徴領域特定処理部2304は、観察部位の各箇所における相対的ヘモグロビン濃度を算出することができる。
(ii)ステップ1102
特徴領域特定処理部2304は、酸素飽和度を算出する。酸素飽和度を求める際、特徴領域特定処理部2304は、B1/G1を算出し、ステップ901で算出した相対的Hb濃度の値とB1/G1の値を、予め用意されている酸素飽和度算出テーブル(図13B)に当てはめ、Hb濃度とB1/G1のペアで表されるポイントが何%の酸素飽和度に該当するかをチェックする。これにより、酸素飽和度を求めることができる。
特徴領域特定処理部2304は、酸素飽和度を算出する。酸素飽和度を求める際、特徴領域特定処理部2304は、B1/G1を算出し、ステップ901で算出した相対的Hb濃度の値とB1/G1の値を、予め用意されている酸素飽和度算出テーブル(図13B)に当てはめ、Hb濃度とB1/G1のペアで表されるポイントが何%の酸素飽和度に該当するかをチェックする。これにより、酸素飽和度を求めることができる。
従来は、Hb濃度とG1/G3のペアで表されるポイントによって酸素飽和度を求めていたが、図13Aに示されるように、Hb濃度が低いときには酸素飽和度0%から100%までの特性の分解能が良くない。このため、従来のようなG1/G3を用いた場合、酸素飽和度を精度良く算出することができなかった。一方、本実施形態では、B1/G1を用いているため、図13Bに示すように、酸素飽和度0%から100%までの特性の分解能が改善されている。従って、B1/G1を用いれば、精度良く酸素飽和度を求めることが可能となる。
(iii)ステップ1103
特徴領域特定処理部2304は、観察部位において、相対的ヘモグロビン濃度(血液濃度)が所定Hb値以上で、かつ酸素飽和度が所定%以下の箇所を、ステップ1101および1102で求めた相対的ヘモグロビン濃度値および酸素飽和度に基づいて、特定する。
特徴領域特定処理部2304は、観察部位において、相対的ヘモグロビン濃度(血液濃度)が所定Hb値以上で、かつ酸素飽和度が所定%以下の箇所を、ステップ1101および1102で求めた相対的ヘモグロビン濃度値および酸素飽和度に基づいて、特定する。
相対的ヘモグロビン濃度(血液濃度)が所定Hb値以上で、かつ酸素飽和度が所定%以下の箇所を特定することは、例えば、癌に罹患している箇所を特定することを意味する。癌の箇所では、新生血管が多く作り出されており、その血管が癌細胞に栄養と酸素を運んでいくため、癌細胞がどんどん成長することになる。従って、癌の箇所では、血流が多く(血液濃度が高く)、酸素消費量が多いため酸素飽和度が低い。そこで、高血流でありながら低酸素の箇所を特定することにより、癌に罹患している可能性がある箇所を特定し、癌診断(癌発見)の効率性を向上させることができる。
そして、特徴領域特定処理部2304は、高血液濃度(高Hb濃度)の箇所を赤色および黄色(赤色の箇所の方がより高濃度)で示す観察部位画像を生成し、低酸素飽和度の箇所を水色で示す観察部位画像を生成し、高血液濃度(高Hb濃度)かつ低酸素飽和度の箇所を黄緑色で示す観察部位画像を生成する。
(iv)ステップ1104
表示処理部2306は、ステップ1103で生成した観察部位の特徴領域画像のそれぞれを、モニタ300に画像を表示する際に用いられるフォーマットに変換し、変換したデータをモニタ300に送信する。モニタ300は、分析処理部230の表示処理部2306から各特徴領域画像に対応するデータを受信し、それぞれの特徴領域画像を画面上に表示する。
表示処理部2306は、ステップ1103で生成した観察部位の特徴領域画像のそれぞれを、モニタ300に画像を表示する際に用いられるフォーマットに変換し、変換したデータをモニタ300に送信する。モニタ300は、分析処理部230の表示処理部2306から各特徴領域画像に対応するデータを受信し、それぞれの特徴領域画像を画面上に表示する。
<特徴領域画像の例>
図14は、特徴領域特定処理(図11)によって生成された、観察部位の各特徴領域画像の例を示す図である。図14Aは、観察部位の可視光画像例を示す。図14Bは、観察部位において、血液濃度(Hb濃度)が所定Hb値以上の箇所(血流が多い箇所)の画像例を示す。図14Cは、観察部位において、酸素飽和度が所定%以下の箇所(酸素消費量が多い箇所)の画像例を示す。図14Dは、観察部位において、血液濃度(Hb濃度)が所定Hb値以上、かつ酸素飽和度が所定%以下の箇所(血流が多いが、酸素量が少ない箇所)の画像例を示す。
図14は、特徴領域特定処理(図11)によって生成された、観察部位の各特徴領域画像の例を示す図である。図14Aは、観察部位の可視光画像例を示す。図14Bは、観察部位において、血液濃度(Hb濃度)が所定Hb値以上の箇所(血流が多い箇所)の画像例を示す。図14Cは、観察部位において、酸素飽和度が所定%以下の箇所(酸素消費量が多い箇所)の画像例を示す。図14Dは、観察部位において、血液濃度(Hb濃度)が所定Hb値以上、かつ酸素飽和度が所定%以下の箇所(血流が多いが、酸素量が少ない箇所)の画像例を示す。
以上のように、本実施形態による特徴領域特定処理によって、観察部位における各特徴領域(例えば3種類:血流が多い箇所、酸素消費量が多い箇所、および血流が多いが、酸素量が少ない箇所)を、精度良く特定し、当該各領域を表示画面上に表示することができるため、医師などの内視鏡オペレータは効率的に診断・診察をすることが可能となる。B2画像、G1画像、およびR1画像を生成することにより、観察部位における各深さのプロファイルを取得することができ、被検者を有効に、かつ効率的に検査・診断することが可能となる。
<透明化処理>
図15は、本実施形態による血液透明化処理の詳細を説明するためのフローチャートである。ここでは、各ステップの動作主体は、画像取得部2301、補正演算部2302、透明化処理部2305、および表示処理部2306としているが、これらがプログラムによって実現される場合には、動作主体を分析処理部230や画像処理部220(以下、プロセッサと言うこともできる)と読み替えてもよい。また、ここでは、固体撮像素子108として、On Chipフィルタを備えたCMOSイメージセンサを2つ用いるものとする。なお、ステップ101および102は、図8と同様であるため、説明は省略する。
図15は、本実施形態による血液透明化処理の詳細を説明するためのフローチャートである。ここでは、各ステップの動作主体は、画像取得部2301、補正演算部2302、透明化処理部2305、および表示処理部2306としているが、これらがプログラムによって実現される場合には、動作主体を分析処理部230や画像処理部220(以下、プロセッサと言うこともできる)と読み替えてもよい。また、ここでは、固体撮像素子108として、On Chipフィルタを備えたCMOSイメージセンサを2つ用いるものとする。なお、ステップ101および102は、図8と同様であるため、説明は省略する。
血液透明化処理は、血液の吸収が無い波長範囲の情報で観察部位の表示用画像を生成することにより、組織の視認性を確保しつつ、出血が伴う手技を進めることができるようにするものである。
(i)ステップ1501
透明化処理部2305は、B_Channel、G_Chennel、およびR_Channelのそれぞれに画像データ(撮像データをステップ102で補正した値)を割り当てることにより、血液を透明化した画像(血液透明化画像)を生成する。通常、RGBの各領域の入力信号を同じ領域の色で出力する。つまり、波長帯域が425±3nmから452±3nmのB画像にはB_Channel(青色)が、波長帯域500±3nmから525±3nmのG画像にはG_Chennel(緑色)が、波長帯域600±3nmから630±3nmのR画像にはR_Channel(赤色)がそれぞれ割り当てられる。この場合、血液は赤色で表現されるため、観察部位の視認性が悪化するという課題が指摘されていた。
透明化処理部2305は、B_Channel、G_Chennel、およびR_Channelのそれぞれに画像データ(撮像データをステップ102で補正した値)を割り当てることにより、血液を透明化した画像(血液透明化画像)を生成する。通常、RGBの各領域の入力信号を同じ領域の色で出力する。つまり、波長帯域が425±3nmから452±3nmのB画像にはB_Channel(青色)が、波長帯域500±3nmから525±3nmのG画像にはG_Chennel(緑色)が、波長帯域600±3nmから630±3nmのR画像にはR_Channel(赤色)がそれぞれ割り当てられる。この場合、血液は赤色で表現されるため、観察部位の視認性が悪化するという課題が指摘されていた。
一方、本実施形態では、透明化処理部2305は、各波長領域の入力信号を異なる波長領域の色で出力する。具体的には、透明化処理部2305は、波長帯域502±3nmから524±3nmのG2画像をB_Channel(青色)に、波長帯域582±3nmから630±3nmのR2画像をG_Chennelに、波長帯域630±3nmから700±3nmのR1画像をそのままR_Channelに割り当てると共に、波長帯域524±3nmから582±3nmのG1画像のG_Chennelにおける出力値を調整(G1画像に減算パラメータ(0.05から0.5)を乗算して他の画像を線形結合する)して血液透明化画像を生成する。
(ii)ステップ1502
表示処理部2306は、ステップ1501で生成した観察部位の血液透明化画像を、モニタ300に画像を表示する際に用いられるフォーマットに変換し、変換したデータをモニタ300に送信する。モニタ300は、分析処理部230の表示処理部2306から血液透明化画像に対応するデータを受信し、血液透明化画像を画面上に表示する。
表示処理部2306は、ステップ1501で生成した観察部位の血液透明化画像を、モニタ300に画像を表示する際に用いられるフォーマットに変換し、変換したデータをモニタ300に送信する。モニタ300は、分析処理部230の表示処理部2306から血液透明化画像に対応するデータを受信し、血液透明化画像を画面上に表示する。
<血液透明化画像の例>
図16は、血液透明化処理のよって得られた血液透明化画像の例を示す図である。図16Aは、観察部位の通常のRGB出力画像例を示す。図16Bは、G1画像の減算パラメータを設定した場合の血液透明化画像の例(例えば、-0.2に設定することができる)を示す。図16Cは、G1画像の減算パラメータを0に設定した場合の血液透明化画像の例を示す。図16Dは、G1画像の別の減算パラメータを設定した場合の血液透明化画像の例(減算パラメータをさらに大きくした場合の例:一般的に、-0.5に設定することが可能である)を示す。
図16Bに示されるように、血液由来の画像信号が非常に弱くなり、血液が透明化され、他の箇所の色も自然に再現される。
図16Cは、G1画像の減算を0倍にしている。この場合、血液の画像情報は小さくなるが、多少残存することになる。
図16Dは、G1画像の減算を過度に行った場合の血液透明化画像を示すが、さらに大きく減算する(例えば、0.5倍の減算に設定することが可能)ことにより本来白色で表示される領域赤みがかってしまう。
図16は、血液透明化処理のよって得られた血液透明化画像の例を示す図である。図16Aは、観察部位の通常のRGB出力画像例を示す。図16Bは、G1画像の減算パラメータを設定した場合の血液透明化画像の例(例えば、-0.2に設定することができる)を示す。図16Cは、G1画像の減算パラメータを0に設定した場合の血液透明化画像の例を示す。図16Dは、G1画像の別の減算パラメータを設定した場合の血液透明化画像の例(減算パラメータをさらに大きくした場合の例:一般的に、-0.5に設定することが可能である)を示す。
図16Bに示されるように、血液由来の画像信号が非常に弱くなり、血液が透明化され、他の箇所の色も自然に再現される。
図16Cは、G1画像の減算を0倍にしている。この場合、血液の画像情報は小さくなるが、多少残存することになる。
図16Dは、G1画像の減算を過度に行った場合の血液透明化画像を示すが、さらに大きく減算する(例えば、0.5倍の減算に設定することが可能)ことにより本来白色で表示される領域赤みがかってしまう。
以上のように、本実施形態による血液透明化処理では、6波長帯域のデータ(B1画像、G1画像、R1画像、B2画像、G2画像、およびR2画像)が用いられる(DRIでは3波長帯域のデータが用いられる)。また、パラメータ係数をG1画像に乗算して減算するため、血液の画像情報を減らすことができ、出力画像を細かに調整することができるようになる。したがって、複数の固体撮像素子(CMOSイメージセンサ)のOn Chipフィルタの色の違いを吸収することができる。
さらに、本実施形態では、6波長帯域のデータに基づいて、血液透明化画像以外の情報(上述の血管走行画像や特徴領域画像など)を同時に取得できる。従って、取得すべき画像の種類に応じて時系列切り替え処理を実行する必要がない。
<変形例>
(1)変形例1
上述の実施形態では、光源側に第1から第3光学フィルタを配置する例を示したが、これに限定されず、撮像部側に第1から第3フィルタを配置するようにしてもよい。
(1)変形例1
上述の実施形態では、光源側に第1から第3光学フィルタを配置する例を示したが、これに限定されず、撮像部側に第1から第3フィルタを配置するようにしてもよい。
図17は、第1および第2フィルタと、第1および第2撮像素子(第1および第2固体撮像素子:例えば、CMOSセンサなど)とを配置する例を示している。カメラレンズを入射した光は結像光学系によって結像された後2分割され、第1光学フィルタおよび第2光学フィルタをそれぞれ通過し、第1撮像素子および第2撮像素子によって、上述の第1RGB画像(B1画像、G1画像、およびR1画像)と第2RGB画像(B2画像、G2画像、およびR2画像)をそれぞれ取得する。このようにすることにより、実時間で第1および第2RGB画像を同時に取得することができるようになるので、6波長帯域を用いても画像取得および演算の時間遅れが発生せず、画像のずれも生じないという利点がある。なお、結像光学系は、光路上であればビームスプリッタの後方に配置してもよい(以下の変形例でも同様)。
(2)変形例2
図18は、さらに第3フィルタとそれを通過した光を撮像する第3撮像素子(第3固体撮像素子:例えば、CMOSセンサ)を配置する例を示す図である。この場合も同様に、実時間で3種類のRGB画像を同時に取得することができるので、9波長帯域を用いて画像取得および演算の時間遅れや画像ずれが生じないという利点がある。
図18は、さらに第3フィルタとそれを通過した光を撮像する第3撮像素子(第3固体撮像素子:例えば、CMOSセンサ)を配置する例を示す図である。この場合も同様に、実時間で3種類のRGB画像を同時に取得することができるので、9波長帯域を用いて画像取得および演算の時間遅れや画像ずれが生じないという利点がある。
(3)変形例3
図19は、ビームスプリッタの代わりに3板式プリズムを用いた例を示す図である。3板式プリズムでは、プリズムの界面をダイクロイックミラーで構成し、単純な半透過で画像の光量を3分割している。撮像素子の機能および構成は、図17および18に示されたものと同様である。3板式プリズムを用いる利点は、撮像素子3板式のカメラとして既存の構成をマイナーチェンジして利用することができるため、実現し易いということである。
図19は、ビームスプリッタの代わりに3板式プリズムを用いた例を示す図である。3板式プリズムでは、プリズムの界面をダイクロイックミラーで構成し、単純な半透過で画像の光量を3分割している。撮像素子の機能および構成は、図17および18に示されたものと同様である。3板式プリズムを用いる利点は、撮像素子3板式のカメラとして既存の構成をマイナーチェンジして利用することができるため、実現し易いということである。
(4)変形例4
図20は、狭帯域(narrow)画像(波長546±3から570±3nmの光によって形成される画像)を取得するための第3光学フィルタ(図20A:図4に示される光学フィルタに相当)と、広帯域(wide)画像(波長524±3nmから582±3nmの光によって形成される画像)を取得するための第1光学フィルタ(図20B:図2に示される光学フィルタに相当)を示す図である。狭帯域画像と広帯域画像は、図20Bに示されるCの箇所における生体組織の分光特性の変化度合(特性の曲がり:分光特性の特徴)を算出するために用いられる。当該生体組織の分光特性の変化度合は、広帯域画像を狭帯域画像で除算する(広帯域画像/狭帯域画像)ことにより求めることができる。この値は血液濃度、酸素飽和度に影響を受ける変化量であるので、この変化度合いより酸素飽和指標値を求める際は、血液濃度による換算を行う必要がある。なお、変化度合が大きいと酸素飽和度が高く、変化度合が小さいと酸素飽和度は低いという特徴がある。
図20は、狭帯域(narrow)画像(波長546±3から570±3nmの光によって形成される画像)を取得するための第3光学フィルタ(図20A:図4に示される光学フィルタに相当)と、広帯域(wide)画像(波長524±3nmから582±3nmの光によって形成される画像)を取得するための第1光学フィルタ(図20B:図2に示される光学フィルタに相当)を示す図である。狭帯域画像と広帯域画像は、図20Bに示されるCの箇所における生体組織の分光特性の変化度合(特性の曲がり:分光特性の特徴)を算出するために用いられる。当該生体組織の分光特性の変化度合は、広帯域画像を狭帯域画像で除算する(広帯域画像/狭帯域画像)ことにより求めることができる。この値は血液濃度、酸素飽和度に影響を受ける変化量であるので、この変化度合いより酸素飽和指標値を求める際は、血液濃度による換算を行う必要がある。なお、変化度合が大きいと酸素飽和度が高く、変化度合が小さいと酸素飽和度は低いという特徴がある。
広帯域画像と狭帯域画像は、上述の変形例1に示すフィルタと撮像素子の配置例(図17)において、第3光学フィルタ(図20A)と第1光学フィルタ(図20B)を用いることにより取得することができる。しかしながら、図17の構成例では、ビームスプリッタ(例えば、50%に分光するビームスプリッタ)によって光量がそれぞれ50%となり、さらに各光学フィルタによって50%になる。つまり、照射される光(100%光量)と、ビームスプリッタおよび各光学フィルタによって光量が減ぜられる光との関係を示す図21からも分かるように、光源から出射される光の量は、各撮像素子に入射される段階では25%程度になってしまう。この場合、狭帯域画像を取得するための波長帯域(546±3nmから570±3nmなので24±6nm分の帯域)は広帯域画像を取得するための波長帯域(524±3nmから582±3nmなので58±6nm分の帯域)に比べて半分以下である。このため、狭帯域画像は広帯域画像に比べて暗い画像となってしまう。このまま上記演算(広帯域画像/狭帯域画像)を実行すると演算精度に影響してしまう。この点、変形例1による構成では2つの撮像素子を用いているので、同じ露光時間で画像を取得する必要はない。そこで、狭帯域画像を撮像する撮像素子の露光時間を、広帯域画像を撮像する撮像素子の露光時間よりも長くすることにより、波長帯域の差による光量差を解消することができる。例えば、狭帯域画像を撮像する撮像素子の露光時間を、広帯域画像を撮像する撮像素子の露光時間の2から2.5倍に設定することができる。なお、狭帯域画像を撮像する撮像素子の露光時間は、例えば初期設定で広帯域画像を撮像する撮像素子の露光時間の2倍にしておき、実際に狭帯域画像と広帯域画像を取得した後に、最適な状態になるように調整してもよい。
(5)変形例5
変形例5は、波長帯域が互いに補完(相補)関係(入れ子の関係ともいう)にある第1光学フィルタ(図2参照)と第2光学フィルタ(図3参照)を用いるときの光学フィルタと2つの撮像素子の配置例を提案する。図22は、変形例5の原理を説明するための図であり、図23は、変形例5による光学素子の構成例を示す図である。
変形例5は、波長帯域が互いに補完(相補)関係(入れ子の関係ともいう)にある第1光学フィルタ(図2参照)と第2光学フィルタ(図3参照)を用いるときの光学フィルタと2つの撮像素子の配置例を提案する。図22は、変形例5の原理を説明するための図であり、図23は、変形例5による光学素子の構成例を示す図である。
光学フィルタ(例えば、第1光学フィルタ(図2参照))は、例えば、薄膜を何十層にも蒸着して(例えば、60層蒸着)所望のフィルタ特性を実現しているが、本発明者は、第1光学フィルタを透過しなかった光はどうなるのか検証した。すると、第1光学フィルタの蒸着膜に吸収されてしまうのかと当初は考えたが、図22に示すように、透過しなかった光は当該第1光学フィルタによって全部反射することが分かった。そこで、本発明者は、ビームスプリッタの分割膜の代わりに所望の光学フィルタ(例えば、第1光学フィルタ(図2))の層を形成することを考案した。
つまり、図23に示すように、光学要素の配置構成は、第1光学フィルタ(図2や図20B)を分割膜として有するビームスプリッタと、ビームスプリッタを透過した光(第1光学フィルタを透過した光)を撮像する第1撮像素子(例えば、CMOSセンサ)と、ビームスプリッタを反射した光(第1光学フィルタを透過した光以外の波長域の光)をフィルタリングする第2光学フィルタ(図3参照:420±3nmから452±3nmの光、502±3nmから524±3nmの光、および582±3nmから630±3nmの光を透過する特性を有する)と、第2光学フィルタを透過した光を撮像する第2撮像素子(例えば、CMOSセンサ)と、を備える。このような構成を採用することにより、ビームスプリッタによって分光して光を50%に減少させることなく、波長域が相互に補完関係にある光を効率的に利用して各演算(例えば、酸素飽和度演算、血管走行画像生成処理、血液透明化処理など)を実行することができるようになる。
(6)なお、変形例1から5では、生体組織からの反射光をビームスプリッタやプリズムなどの光学素子で分けて各撮像素子に入射させているが、これらの光学素子の配置構成は、電子スコープ100の先端部(図1では、撮像素子108が電子スコープ100の先端部に配置されている)ではなく操作部に近い箇所、或いはプロセッサ200の内部に設けることができる。この場合、内視鏡スコープ100の先端からの上記反射光は光ファイバなどでビームスプリッタやプリズムなどの光学素子まで導かれることによる。
<実施形態のまとめ>
(1)以上のように、本実施形態では、光の波長帯域が入れ子をなすようなRGBの光(第1波長帯域(630±3nmから700±3nm)のR、第2波長帯域(524±3nmから582±3nm)のG、第3波長帯域(452±3nmから502±3nm)のB、第4波長帯域(582±3nmから630±3nm)のR、第5波長帯域(502±3nmから524±3nm)のG、および第6波長帯域(420±3nmから452±3nm)のBの光を生体組織に照射して画像を取得し、それを用いて所定の画像処理をすることにより生成された画像を表示するようにしている。ただし第2波長帯域、第3波長帯域、前記第5波長帯域、および前記第6波長帯域は、酸素飽和度によらずに透過率が一定となる等吸収点の波長によって帯域の境界が規定されている。そして、第2波長帯域に対応するG1画像データと、当該G1画像データ以外の第1波長帯域に対応するR1画像データ、第3波長帯域に対応するB1画像データ、第4波長帯域に対応するR2画像データ、第5波長帯域に対応するG2画像データ、および第6波長帯域に対応するB2画像データのうち少なくとも1つの画像データと、を用いて画像処理を行うことにより特殊光画像が生成される。このようにすることにより、特殊光画像の画質を向上させることが可能となる。
(1)以上のように、本実施形態では、光の波長帯域が入れ子をなすようなRGBの光(第1波長帯域(630±3nmから700±3nm)のR、第2波長帯域(524±3nmから582±3nm)のG、第3波長帯域(452±3nmから502±3nm)のB、第4波長帯域(582±3nmから630±3nm)のR、第5波長帯域(502±3nmから524±3nm)のG、および第6波長帯域(420±3nmから452±3nm)のBの光を生体組織に照射して画像を取得し、それを用いて所定の画像処理をすることにより生成された画像を表示するようにしている。ただし第2波長帯域、第3波長帯域、前記第5波長帯域、および前記第6波長帯域は、酸素飽和度によらずに透過率が一定となる等吸収点の波長によって帯域の境界が規定されている。そして、第2波長帯域に対応するG1画像データと、当該G1画像データ以外の第1波長帯域に対応するR1画像データ、第3波長帯域に対応するB1画像データ、第4波長帯域に対応するR2画像データ、第5波長帯域に対応するG2画像データ、および第6波長帯域に対応するB2画像データのうち少なくとも1つの画像データと、を用いて画像処理を行うことにより特殊光画像が生成される。このようにすることにより、特殊光画像の画質を向上させることが可能となる。
具体的には、B2画像データを用いて、生体組織の表面から第1深さの位置(浅い位置)の第1血管画像が生成され、G1画像データを用いて、第1深さよりも深い第2深さの位置(中間深さ位置)の第2血管画像が生成され、R1画像データを用いて、第2深さよりも深い第3深さの位置(最深位置)の第3血管画像が生成される。このように、各取得画像の特徴を活かして画像を生成することにより、様々な用途に対応する画像を生成することが可能となる。
酸素飽和度を求める際、従来はG1画像を波長帯域546±3nmから570±3nmの光を照射して得られる画像を除算した値を用いていたが、本実施形態では、B1画像データ/G1画像データの値を用いている。このようにすることにより、酸素飽和度指標値(テーブル)の解像度を向上させることができるので、精度良く生体組織の酸素飽和度を求めることができるようになる(図13参照)。なお、G1画像データを、B1画像データとG1画像データとR1画像データとの線形結合によって除算することにより、散乱光の影響を除去した相対的ヘモグロビン濃度を算出することができるようになる。
また、生体組織において、ヘモグロビン濃度が第1閾値以上で、かつ酸素飽和度が第2閾値未満である特徴条件を満たす箇所を特定し、当該特徴条件を満たす箇所をそれ以外の箇所と区別した表示形態を採る特徴画像を生成し、当該特徴画像を画面上に表示するようにしてもよい。このようにすることにより、癌細胞が活動している可能性が高い箇所(癌に罹患している可能性が高い箇所)を特定し、その箇所をさらに精査することが可能となるため、より正確に被検者を診断することができるようになる。
さらに、本実施形態による内視鏡システムは、G2画像データをBlue波長領域に割り当て、R2画像データをGreen波長領域に割り当てることにより、生体組織の表面に付着する血液に由来する画像データのレベルを低くして血液を透明化した血液透明化画像を生成することができる。この血液透明化画像を画面上に表示することにより、術者が被検者の生体組織に出血した箇所があった場合でも、視界良好な状態で施術を継続することが可能となる。
なお、本実施形態による内視鏡システムは、R1画像データ、G1画像データ、およびB1画像データを生成する第1撮像素子と、R2画像データ、G2画像データ、およびB2画像データを生成する第2撮像素子と、を少なくとも含むようにしてもよい。
また、本実施形態では、フィルタを用いて各波長帯域の光を生成したが、これに限定されず、フィルタを用いずに、上記各波長帯域の光を出射するレーザ光源装置(LED光源装置)を用いて各波長帯域の画像データ(R1~B2画像データ)を取得するようにしてもよい。
さらに、第3光学フィルタ(図4)によって得られる各波長帯域の光を照射して得られる各RGB画像データをさらに用いて特殊画像を生成するようにしてもよい。このようにすることにより、さらに多種類の観察形態を提供することができるようになる。
さらに、第3光学フィルタ(図4)によって得られる各波長帯域の光を照射して得られる各RGB画像データをさらに用いて特殊画像を生成するようにしてもよい。このようにすることにより、さらに多種類の観察形態を提供することができるようになる。
(2)本実施形態(変形例4)によれば、広帯域光に基づく画像と狭帯域光に基づく画像により、生体組織の分光特性の狭帯域における変化度合(特性の曲り具合)を演算して出力する。この際、狭帯域光と広帯域光との間には光量差があるので(狭帯域光の方が暗い)、2つ設けた撮像素子(CMOSセンサ)の露光時間に差を設けている。つまり、狭帯域光を撮像する撮像素子の露光時間を、広帯域光を撮像する撮像素子の露光時間よりも長く(約2倍から2.5倍程度)設定する。このようにすることにより、狭帯域光と広帯域光との間に存在する光量差による演算誤差を低減することが可能となる。なお、広帯域光は、波長域が524±3nmから582±3nmまでの光であり、狭帯域光は、波長域が546±3nmから570±3nmまでの光である。
(3)本実施形態(変形例5)によれば、光学素子(ビームスプリッタ)において、光分割膜の光分割膜の代わりに光学フィルタ(上記第1光学フィルタ(図2参照))の層を設けている。この場合、照明光を生体組織に照射することによって生じる生体組織からの反射光は、所定波長域組の光である第1波長域光(452±3nmから502±3nmの光、524±3nmから582±3nmの光、および630±3nmから700±3nmの光)が光学フィルタの層で透過する。一方、所定波長域組以外の波長組の光である第2波長域光(400±3nmから452±3nmまでの光、502±3nmから524±3nmの光、および582±3nmから630±3nmの光)を光学フィルタの層で反射する。そして、第1撮像部(CMOSセンサ)が第1波長域光に基づいて、第1画像データを生成し、第2撮像部(別のCMOSセンサ)が第2波長域光に基づいて、第2画像データを生成する。さらに、画像処理部は、第1画像データおよび前記第2画像データに基づいて、所定の画像処理(例えば、酸素飽和度演算、血管走行画像生成処理、血液透明化処理など)を実行する。画像処理結果はモニタ300の表示画面に表示される。
<本開示の特定事項>
(1)特定事項1
白色光を生体組織に照射して画像を取得する通常観察モード、および特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードでの動作が可能な内視鏡システムであって、
第1波長帯域のR、第2波長帯域のG、第3波長帯域のB、第4波長帯域のR、第5波長帯域のG、および第6波長帯域のBの光を少なくとも含む照明光を生体組織に照射する照明部と、
前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光に基づいて画像データを生成する撮像部と、
前記撮像部から前記画像データを取得し、所定の画像処理を行う画像処理部と、
前記画像処理部による前記所定の画像処理によって生成された画像を画面上に表示する表示部と、を備え、
少なくとも前記第2波長帯域、前記第3波長帯域、前記第5波長帯域、および前記第6波長帯域は、酸素飽和度によらずに透過率が一定となる等吸収点の波長によって帯域の境界が規定されており、
前記第2波長帯域は、帯域の境界となる等吸収点以外の等吸収点をその帯域内に含み、 前記第6波長帯域は前記第3波長帯域よりも短波長帯域であり、前記第5波長帯域は前記第2波長帯域よりも短波長帯域であり、前記第4波長帯域は前記第1波長帯域よりも短波長帯域であり、
前記画像データは、前記第1波長帯域のRの光に対応するR1画像データと、前記第2波長帯域のGの光に対応するG1画像データと、前記第3波長帯域のBの光に対応するB1画像データと、前記第4波長帯域のRの光に対応するR2画像データと、前記第5波長帯域のGの光に対応するG2画像データと、前記第6波長帯域のBの光に対応するB2画像データと、を含み、
前記画像処理部は、前記G1画像データと、当該G1画像データ以外の前記R1画像データ、前記B1画像データ、前記R2画像データ、前記G2画像データ、および前記B2画像データのうち少なくとも1つの画像データと、を用いて画像処理を行うことにより特殊光画像を生成する、内視鏡システム。
(1)特定事項1
白色光を生体組織に照射して画像を取得する通常観察モード、および特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードでの動作が可能な内視鏡システムであって、
第1波長帯域のR、第2波長帯域のG、第3波長帯域のB、第4波長帯域のR、第5波長帯域のG、および第6波長帯域のBの光を少なくとも含む照明光を生体組織に照射する照明部と、
前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光に基づいて画像データを生成する撮像部と、
前記撮像部から前記画像データを取得し、所定の画像処理を行う画像処理部と、
前記画像処理部による前記所定の画像処理によって生成された画像を画面上に表示する表示部と、を備え、
少なくとも前記第2波長帯域、前記第3波長帯域、前記第5波長帯域、および前記第6波長帯域は、酸素飽和度によらずに透過率が一定となる等吸収点の波長によって帯域の境界が規定されており、
前記第2波長帯域は、帯域の境界となる等吸収点以外の等吸収点をその帯域内に含み、 前記第6波長帯域は前記第3波長帯域よりも短波長帯域であり、前記第5波長帯域は前記第2波長帯域よりも短波長帯域であり、前記第4波長帯域は前記第1波長帯域よりも短波長帯域であり、
前記画像データは、前記第1波長帯域のRの光に対応するR1画像データと、前記第2波長帯域のGの光に対応するG1画像データと、前記第3波長帯域のBの光に対応するB1画像データと、前記第4波長帯域のRの光に対応するR2画像データと、前記第5波長帯域のGの光に対応するG2画像データと、前記第6波長帯域のBの光に対応するB2画像データと、を含み、
前記画像処理部は、前記G1画像データと、当該G1画像データ以外の前記R1画像データ、前記B1画像データ、前記R2画像データ、前記G2画像データ、および前記B2画像データのうち少なくとも1つの画像データと、を用いて画像処理を行うことにより特殊光画像を生成する、内視鏡システム。
(2)特定事項2
特定事項1において、
前記第1波長帯域は、630±3nmから700±3nmであり、
前記第2波長帯域は、524±3nmから582±3nmであり、
前記第3波長帯域は、452±3nmから502±3nmであり、
前記第4波長帯域は、582±3nmから630±3nmであり、
前記第5波長帯域は、502±3nmから524±3nmであり、
前記第6波長帯域は、420±3nmから452±3nmであり、
452±3nm、502±3nm、524±3nm、および582±3nmは、前記等吸収点の波長である、内視鏡システム。
特定事項1において、
前記第1波長帯域は、630±3nmから700±3nmであり、
前記第2波長帯域は、524±3nmから582±3nmであり、
前記第3波長帯域は、452±3nmから502±3nmであり、
前記第4波長帯域は、582±3nmから630±3nmであり、
前記第5波長帯域は、502±3nmから524±3nmであり、
前記第6波長帯域は、420±3nmから452±3nmであり、
452±3nm、502±3nm、524±3nm、および582±3nmは、前記等吸収点の波長である、内視鏡システム。
(3)特定事項3
特定事項1または2において、
前記画像処理部は、
前記B2画像データを用いて、前記生体組織の表面から第1深さの位置の第1血管画像を生成する処理と、
前記G1画像データを用いて、前記第1深さよりも深い第2深さの位置の第2血管画像を生成する処理と、
前記R1画像データを用いて、前記第2深さよりも深い第3深さの位置の第3血管画像を生成する処理と、
を実行する、内視鏡システム。
特定事項1または2において、
前記画像処理部は、
前記B2画像データを用いて、前記生体組織の表面から第1深さの位置の第1血管画像を生成する処理と、
前記G1画像データを用いて、前記第1深さよりも深い第2深さの位置の第2血管画像を生成する処理と、
前記R1画像データを用いて、前記第2深さよりも深い第3深さの位置の第3血管画像を生成する処理と、
を実行する、内視鏡システム。
(4)特定事項4
特定事項1から3の何れか1項において、
前記画像処理部は、前記G1画像データを少なくとも前記R1画像データで除算することにより血液濃度を示すヘモグロビン濃度を算出し、当該ヘモグロビン濃度の値と前記B1画像データ/前記G1画像データの値とに基づいて、前記生体組織の酸素飽和度を求める、内視鏡システム。
特定事項1から3の何れか1項において、
前記画像処理部は、前記G1画像データを少なくとも前記R1画像データで除算することにより血液濃度を示すヘモグロビン濃度を算出し、当該ヘモグロビン濃度の値と前記B1画像データ/前記G1画像データの値とに基づいて、前記生体組織の酸素飽和度を求める、内視鏡システム。
(5)特定事項5
特定事項4において、
前記画像処理部は、前記生体組織において、前記ヘモグロビン濃度が第1閾値以上で、かつ前記酸素飽和度が第2閾値未満である特徴条件を満たす箇所を特定し、当該特徴条件を満たす箇所をそれ以外の箇所と区別した表示形態を採る特徴画像を生成し、
前記表示部は、前記特徴画像を画面上に表示する、内視鏡システム。
特定事項4において、
前記画像処理部は、前記生体組織において、前記ヘモグロビン濃度が第1閾値以上で、かつ前記酸素飽和度が第2閾値未満である特徴条件を満たす箇所を特定し、当該特徴条件を満たす箇所をそれ以外の箇所と区別した表示形態を採る特徴画像を生成し、
前記表示部は、前記特徴画像を画面上に表示する、内視鏡システム。
(6)特定事項6
特定事項4または5において、
前記画像処理部は、前記G1画像データを、前記B1画像データと前記G1画像データと前記R1画像データとの線形結合によって除算することにより、散乱光の影響を除去した相対的ヘモグロビン濃度を算出し、当該相対的ヘモグロビン濃度を用いて前記酸素飽和度を求める、内視鏡システム。
特定事項4または5において、
前記画像処理部は、前記G1画像データを、前記B1画像データと前記G1画像データと前記R1画像データとの線形結合によって除算することにより、散乱光の影響を除去した相対的ヘモグロビン濃度を算出し、当該相対的ヘモグロビン濃度を用いて前記酸素飽和度を求める、内視鏡システム。
(7)特定事項7
特定事項1から6の何れか1項において、
前記画像処理部は、前記G2画像データをBlue波長領域に割り当て、前記R2画像データをGreen波長領域に割り当てることにより、前記生体組織の表面に付着する血液に由来する画像データのレベルを低くして前記血液を透明化した血液透明化画像を生成し、
前記表示部は、前記血液透明化画像を画面上に表示する、内視鏡システム。
特定事項1から6の何れか1項において、
前記画像処理部は、前記G2画像データをBlue波長領域に割り当て、前記R2画像データをGreen波長領域に割り当てることにより、前記生体組織の表面に付着する血液に由来する画像データのレベルを低くして前記血液を透明化した血液透明化画像を生成し、
前記表示部は、前記血液透明化画像を画面上に表示する、内視鏡システム。
(8)特定事項8
特定事項7において、
前記画像処理部は、さらに、前記G1画像データに所定の減算パラメータを乗算し、前記Blue波長領域に割り当てられる前記G2画像データと、前記Green波長領域に割り当てられる前記R2画像データと、前記減算パラメータを乗算した前記G1画像データと、を線形結合して前記血液透明化画像を生成する、内視鏡システム。
特定事項7において、
前記画像処理部は、さらに、前記G1画像データに所定の減算パラメータを乗算し、前記Blue波長領域に割り当てられる前記G2画像データと、前記Green波長領域に割り当てられる前記R2画像データと、前記減算パラメータを乗算した前記G1画像データと、を線形結合して前記血液透明化画像を生成する、内視鏡システム。
(9)特定事項9
特定事項1から8の何れか1項において、
前記撮像部は、前記R1画像データ、前記G1画像データ、および前記B1画像データを生成する第1撮像素子と、前記R2画像データ、前記G2画像データ、および前記B2画像データを生成する第2撮像素子と、を含む、内視鏡システム。
特定事項1から8の何れか1項において、
前記撮像部は、前記R1画像データ、前記G1画像データ、および前記B1画像データを生成する第1撮像素子と、前記R2画像データ、前記G2画像データ、および前記B2画像データを生成する第2撮像素子と、を含む、内視鏡システム。
(10)特定事項10
白色光を生体組織に照射して画像を取得する通常観察モード、および特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードでの動作が可能な内視鏡システムであって、
照明光を生体組織に照射する照明部と、
前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光を分割し、少なくとも第1反射光および第2反射光を出力する光学素子と、
前記第1反射光のうち第1組の波長域の光を透過させる第1光学フィルタと、
前記第2反射光のうち、前記第1組の一部の波長域を含む第2組の波長域の光を透過させる第2光学フィルタと、
前記第1組の波長域の光に基づいて、所定波長域の光に対応する第1画像データを生成する第1撮像部と、
前記第2組の波長域の光に基づいて、前記所定波長域に含まれ、前記所定域よりも狭い波長域の光に対応する第2画像データを生成する第2撮像部と、
前記第1画像データを前記第2画像データにより除算することにより、前記所定波長域よりも狭い波長域における前記生体組織の分光特性の特徴を演算する画像処理部と、
前記画像処理部による演算結果を出力する出力部と、を備え、
前記第2撮像部の露光時間は、前記第1撮像部の露光時間よりも長く設定されている、内視鏡システム。
白色光を生体組織に照射して画像を取得する通常観察モード、および特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードでの動作が可能な内視鏡システムであって、
照明光を生体組織に照射する照明部と、
前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光を分割し、少なくとも第1反射光および第2反射光を出力する光学素子と、
前記第1反射光のうち第1組の波長域の光を透過させる第1光学フィルタと、
前記第2反射光のうち、前記第1組の一部の波長域を含む第2組の波長域の光を透過させる第2光学フィルタと、
前記第1組の波長域の光に基づいて、所定波長域の光に対応する第1画像データを生成する第1撮像部と、
前記第2組の波長域の光に基づいて、前記所定波長域に含まれ、前記所定域よりも狭い波長域の光に対応する第2画像データを生成する第2撮像部と、
前記第1画像データを前記第2画像データにより除算することにより、前記所定波長域よりも狭い波長域における前記生体組織の分光特性の特徴を演算する画像処理部と、
前記画像処理部による演算結果を出力する出力部と、を備え、
前記第2撮像部の露光時間は、前記第1撮像部の露光時間よりも長く設定されている、内視鏡システム。
(11)特定事項11
特定事項10において、
前記第1画像データは、波長域が524±3nmから582±3nmまでの光に対応する広帯域画像データであり、
前記第2画像データは、波長域が546±3nmから570±3nmまでの光に対応する狭帯域画像データである、内視鏡システム。
特定事項10において、
前記第1画像データは、波長域が524±3nmから582±3nmまでの光に対応する広帯域画像データであり、
前記第2画像データは、波長域が546±3nmから570±3nmまでの光に対応する狭帯域画像データである、内視鏡システム。
(12)特定事項12
特定事項10または11において、
前記画像処理部は、546±3nmから570±3nmまでにおける前記生体組織の分光特性の変化度合を演算する、内視鏡システム。
特定事項10または11において、
前記画像処理部は、546±3nmから570±3nmまでにおける前記生体組織の分光特性の変化度合を演算する、内視鏡システム。
(13)特定事項13
特定事項10から12の何れか1項において、
前記第2撮像部の露光時間は、前記第1撮像部の露光時間よりも2倍以上長く設定されている、内視鏡システム。
特定事項10から12の何れか1項において、
前記第2撮像部の露光時間は、前記第1撮像部の露光時間よりも2倍以上長く設定されている、内視鏡システム。
(14)特定事項14
白色光を生体組織に照射して画像を取得する通常観察モード、および特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードでの動作が可能な内視鏡システムであって、
照明光を生体組織に照射する照明部と、
光分割膜の代わりに光学フィルタの層を有し、前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光における所定波長域組の光である第1波長域光を前記光学フィルタの層で透過し、前記所定波長域組以外の波長組の光である第2波長域光を前記光学フィルタの層で反射し、前記第1波長域光および前記第2波長域光を出力する光学素子と、
前記第1波長域光に基づいて、前記所定波長域組の光に対応する第1画像データを生成する第1撮像部と、
前記第2波長域光に基づいて、前記所定波長域組以外の波長組の光に対応する第2画像データを生成する第2撮像部と、
前記第1画像データおよび前記第2画像データに基づいて、所定の画像処理を実行する画像処理部と、
前記画像処理部による演算結果を出力する出力部と、
を備える、内視鏡システム。
白色光を生体組織に照射して画像を取得する通常観察モード、および特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードでの動作が可能な内視鏡システムであって、
照明光を生体組織に照射する照明部と、
光分割膜の代わりに光学フィルタの層を有し、前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光における所定波長域組の光である第1波長域光を前記光学フィルタの層で透過し、前記所定波長域組以外の波長組の光である第2波長域光を前記光学フィルタの層で反射し、前記第1波長域光および前記第2波長域光を出力する光学素子と、
前記第1波長域光に基づいて、前記所定波長域組の光に対応する第1画像データを生成する第1撮像部と、
前記第2波長域光に基づいて、前記所定波長域組以外の波長組の光に対応する第2画像データを生成する第2撮像部と、
前記第1画像データおよび前記第2画像データに基づいて、所定の画像処理を実行する画像処理部と、
前記画像処理部による演算結果を出力する出力部と、
を備える、内視鏡システム。
(15)特定事項15
請求項14において、
前記第1波長域光と前記第2波長域光とは、波長組に関して相補関係にある光である、内視鏡システム。
請求項14において、
前記第1波長域光と前記第2波長域光とは、波長組に関して相補関係にある光である、内視鏡システム。
(16)特定事項16
特定事項14または15において、
前記光学フィルタは、452±3nmから502±3nmの光、524±3nmから582±3nmの光、および630±3nmから700±3nmの光を透過する特性を有する、内視鏡システム。
特定事項14または15において、
前記光学フィルタは、452±3nmから502±3nmの光、524±3nmから582±3nmの光、および630±3nmから700±3nmの光を透過する特性を有する、内視鏡システム。
(17)特定事項17
特定事項14において、
さらに、前記第2波長域光の一部の光を透過する補正光学フィルタを備え、
前記第2撮像部は、前記補正光学フィルタを透過した光に基づいて、前記第2画像データを生成する、内視鏡システム。
特定事項14において、
さらに、前記第2波長域光の一部の光を透過する補正光学フィルタを備え、
前記第2撮像部は、前記補正光学フィルタを透過した光に基づいて、前記第2画像データを生成する、内視鏡システム。
(18)特定事項18
特定事項17において、
前記補正光学フィルタは、420±3nmから452±3nmの光、502±3nmから524±3nmの光、および582±3nmから630±3nmの光を透過する特性を有する、内視鏡システム。
特定事項17において、
前記補正光学フィルタは、420±3nmから452±3nmの光、502±3nmから524±3nmの光、および582±3nmから630±3nmの光を透過する特性を有する、内視鏡システム。
(19)特定事項19
特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードで内視鏡システムを動作させる方法であって、
照明部が、第1波長帯域のR、第2波長帯域のG、第3波長帯域のB、第4波長帯域のR、第5波長帯域のG、および第6波長帯域のBの光を少なくとも含む照明光を生体組織に照射することと、
撮像部が、前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光に基づいて画像データを生成することと、
画像処理部が、前記撮像部から前記画像データを取得し、所定の画像処理を行うことと、
表示部が、前記画像処理部による前記所定の画像処理によって生成された画像を画面上に表示することと、を含み、
少なくとも前記第2波長帯域、前記第3波長帯域、前記第5波長帯域、および前記第6波長帯域は、酸素飽和度によらずに透過率が一定となる等吸収点の波長によって帯域の境界が規定されており、
前記第2波長帯域は、帯域の境界となる等吸収点以外の等吸収点をその帯域内に含み、 前記第6波長帯域は前記第3波長帯域よりも短波長帯域であり、前記第5波長帯域は前記第2波長帯域よりも短波長帯域であり、前記第4波長帯域は前記第1波長帯域よりも短波長帯域であり、
前記画像データは、前記第1波長帯域のRの光に対応するR1画像データと、前記第2波長帯域のGの光に対応するG1画像データと、前記第3波長帯域のBの光に対応するB1画像データと、前記第4波長帯域のRの光に対応するR2画像データと、前記第5波長帯域のGの光に対応するG2画像データと、前記第6波長帯域のBの光に対応するB2画像データと、を含み、
前記画像データを生成する際に、前記画像処理部は、前記G1画像データと、当該G1画像データ以外の前記R1画像データ、前記B1画像データ、前記R2画像データ、前記G2画像データ、および前記B2画像データのうち少なくとも1つの画像データと、を用いて画像処理を行うことにより特殊光画像を生成する、方法。
特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードで内視鏡システムを動作させる方法であって、
照明部が、第1波長帯域のR、第2波長帯域のG、第3波長帯域のB、第4波長帯域のR、第5波長帯域のG、および第6波長帯域のBの光を少なくとも含む照明光を生体組織に照射することと、
撮像部が、前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光に基づいて画像データを生成することと、
画像処理部が、前記撮像部から前記画像データを取得し、所定の画像処理を行うことと、
表示部が、前記画像処理部による前記所定の画像処理によって生成された画像を画面上に表示することと、を含み、
少なくとも前記第2波長帯域、前記第3波長帯域、前記第5波長帯域、および前記第6波長帯域は、酸素飽和度によらずに透過率が一定となる等吸収点の波長によって帯域の境界が規定されており、
前記第2波長帯域は、帯域の境界となる等吸収点以外の等吸収点をその帯域内に含み、 前記第6波長帯域は前記第3波長帯域よりも短波長帯域であり、前記第5波長帯域は前記第2波長帯域よりも短波長帯域であり、前記第4波長帯域は前記第1波長帯域よりも短波長帯域であり、
前記画像データは、前記第1波長帯域のRの光に対応するR1画像データと、前記第2波長帯域のGの光に対応するG1画像データと、前記第3波長帯域のBの光に対応するB1画像データと、前記第4波長帯域のRの光に対応するR2画像データと、前記第5波長帯域のGの光に対応するG2画像データと、前記第6波長帯域のBの光に対応するB2画像データと、を含み、
前記画像データを生成する際に、前記画像処理部は、前記G1画像データと、当該G1画像データ以外の前記R1画像データ、前記B1画像データ、前記R2画像データ、前記G2画像データ、および前記B2画像データのうち少なくとも1つの画像データと、を用いて画像処理を行うことにより特殊光画像を生成する、方法。
(20)特定事項20
特定事項19において、
前記第1波長帯域は、630±3nmから700±3nmであり、
前記第2波長帯域は、524±3nmから582±3nmであり、
前記第3波長帯域は、452±3nmから502±3nmであり、
前記第4波長帯域は、582±3nmから630±3nmであり、
前記第5波長帯域は、502±3nmから524±3nmであり、
前記第6波長帯域は、420±3nmから452±3nmであり、
452±3nm、502±3nm、524±3nm、および582±3nmは、前記等吸収点の波長である、方法。
特定事項19において、
前記第1波長帯域は、630±3nmから700±3nmであり、
前記第2波長帯域は、524±3nmから582±3nmであり、
前記第3波長帯域は、452±3nmから502±3nmであり、
前記第4波長帯域は、582±3nmから630±3nmであり、
前記第5波長帯域は、502±3nmから524±3nmであり、
前記第6波長帯域は、420±3nmから452±3nmであり、
452±3nm、502±3nm、524±3nm、および582±3nmは、前記等吸収点の波長である、方法。
(21)特定事項21
特定事項19または20において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記B2画像データを用いて、前記生体組織の表面から第1深さの位置の第1血管画像を生成することと、
前記画像処理部が、前記G1画像データを用いて、前記第1深さよりも深い第2深さの位置の第2血管画像を生成することと、
前記画像処理部が、前記R1画像データを用いて、前記第2深さよりも深い第3深さの位置の第3血管画像を生成することと、
を含む、方法。
特定事項19または20において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記B2画像データを用いて、前記生体組織の表面から第1深さの位置の第1血管画像を生成することと、
前記画像処理部が、前記G1画像データを用いて、前記第1深さよりも深い第2深さの位置の第2血管画像を生成することと、
前記画像処理部が、前記R1画像データを用いて、前記第2深さよりも深い第3深さの位置の第3血管画像を生成することと、
を含む、方法。
(22)特定事項22
特定事項19から21の何れか1項において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記G1画像データを少なくとも前記R1画像データで除算することにより血液濃度を示すヘモグロビン濃度を算出することと、
前記画像処理部が、前記ヘモグロビン濃度の値と前記B1画像データ/前記G1画像データの値とに基づいて、前記生体組織の酸素飽和度を求めることと、
を含む、方法。
特定事項19から21の何れか1項において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記G1画像データを少なくとも前記R1画像データで除算することにより血液濃度を示すヘモグロビン濃度を算出することと、
前記画像処理部が、前記ヘモグロビン濃度の値と前記B1画像データ/前記G1画像データの値とに基づいて、前記生体組織の酸素飽和度を求めることと、
を含む、方法。
(23)特定事項23
特定事項22において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記生体組織において、前記ヘモグロビン濃度が第1閾値以上で、かつ前記酸素飽和度が第2閾値未満である特徴条件を満たす箇所を特定することと、
前記画像処理部が、前記特徴条件を満たす箇所をそれ以外の箇所と区別した表示形態を採る特徴画像を生成することと、を含み、
前記表示部は、前記特徴画像を画面上に表示する、方法。
特定事項22において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記生体組織において、前記ヘモグロビン濃度が第1閾値以上で、かつ前記酸素飽和度が第2閾値未満である特徴条件を満たす箇所を特定することと、
前記画像処理部が、前記特徴条件を満たす箇所をそれ以外の箇所と区別した表示形態を採る特徴画像を生成することと、を含み、
前記表示部は、前記特徴画像を画面上に表示する、方法。
(24)特定事項24
特定事項22または23において、
前記画像処理部は、前記G1画像データを、前記B1画像データと前記G1画像データと前記R1画像データとの線形結合によって除算することにより、散乱光の影響を除去した相対的ヘモグロビン濃度を算出し、当該相対的ヘモグロビン濃度を用いて前記酸素飽和度を求める、方法。
特定事項22または23において、
前記画像処理部は、前記G1画像データを、前記B1画像データと前記G1画像データと前記R1画像データとの線形結合によって除算することにより、散乱光の影響を除去した相対的ヘモグロビン濃度を算出し、当該相対的ヘモグロビン濃度を用いて前記酸素飽和度を求める、方法。
(25)特定事項25
特定事項19から24の何れか1項において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記G2画像データをBlue波長領域に割り当て、前記R2画像データをGreen波長領域に割り当てることにより、前記生体組織の表面に付着する血液に由来する画像データのレベルを低くして前記血液を透明化した血液透明化画像を生成することを含み、
前記表示部は、前記血液透明化画像を画面上に表示する、方法。
特定事項19から24の何れか1項において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記G2画像データをBlue波長領域に割り当て、前記R2画像データをGreen波長領域に割り当てることにより、前記生体組織の表面に付着する血液に由来する画像データのレベルを低くして前記血液を透明化した血液透明化画像を生成することを含み、
前記表示部は、前記血液透明化画像を画面上に表示する、方法。
(26)特定事項26
特定事項25において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記G1画像データに所定の減算パラメータを乗算し、前記Blue波長領域に割り当てられる前記G2画像データと、前記Green波長領域に割り当てられる前記R2画像データと、前記減算パラメータを乗算した前記G1画像データと、を線形結合して前記血液透明化画像を生成する、方法。
特定事項25において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記G1画像データに所定の減算パラメータを乗算し、前記Blue波長領域に割り当てられる前記G2画像データと、前記Green波長領域に割り当てられる前記R2画像データと、前記減算パラメータを乗算した前記G1画像データと、を線形結合して前記血液透明化画像を生成する、方法。
(27)特定事項27
特定事項19から26の何れか1項において、
前記撮像部は、第1撮像素子と、第2撮像素子とを含み、
前記第1撮像素子が、前記R1画像データ、前記G1画像データ、および前記B1画像データを生成し、前記第2撮像素子が、前記R2画像データ、前記G2画像データ、および前記B2画像データを生成する、方法。
特定事項19から26の何れか1項において、
前記撮像部は、第1撮像素子と、第2撮像素子とを含み、
前記第1撮像素子が、前記R1画像データ、前記G1画像データ、および前記B1画像データを生成し、前記第2撮像素子が、前記R2画像データ、前記G2画像データ、および前記B2画像データを生成する、方法。
1 内視鏡システム
100 電子スコープ
108 固体撮像素子
110 ドライバ信号処理部
200 プロセッサ
202 システムコントローラ
204 タイミングコントローラ
208 ランプ
220 画像処理部
230 分析処理部
260 光学フィルタ装置
262 光学フィルタ
264 フィルタ駆動部
300 モニタ
2301 画像取得部
2302 補正演算部
2303 血管走行画像生成部
2304 特徴領域特定処理部
2306 表示処理部
2307 内部メモリ
100 電子スコープ
108 固体撮像素子
110 ドライバ信号処理部
200 プロセッサ
202 システムコントローラ
204 タイミングコントローラ
208 ランプ
220 画像処理部
230 分析処理部
260 光学フィルタ装置
262 光学フィルタ
264 フィルタ駆動部
300 モニタ
2301 画像取得部
2302 補正演算部
2303 血管走行画像生成部
2304 特徴領域特定処理部
2306 表示処理部
2307 内部メモリ
Claims (27)
- 白色光を生体組織に照射して画像を取得する通常観察モード、および特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードでの動作が可能な内視鏡システムであって、
第1波長帯域のR、第2波長帯域のG、第3波長帯域のB、第4波長帯域のR、第5波長帯域のG、および第6波長帯域のBの光を少なくとも含む照明光を生体組織に照射する照明部と、
前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光に基づいて画像データを生成する撮像部と、
前記撮像部から前記画像データを取得し、所定の画像処理を行う画像処理部と、
前記画像処理部による前記所定の画像処理によって生成された画像を画面上に表示する表示部と、を備え、
少なくとも前記第2波長帯域、前記第3波長帯域、前記第5波長帯域、および前記第6波長帯域は、酸素飽和度によらずに透過率が一定となる等吸収点の波長によって帯域の境界が規定されており、
前記第2波長帯域は、帯域の境界となる等吸収点以外の等吸収点をその帯域内に含み、 前記第6波長帯域は前記第3波長帯域よりも短波長帯域であり、前記第5波長帯域は前記第2波長帯域よりも短波長帯域であり、前記第4波長帯域は前記第1波長帯域よりも短波長帯域であり、
前記画像データは、前記第1波長帯域のRの光に対応するR1画像データと、前記第2波長帯域のGの光に対応するG1画像データと、前記第3波長帯域のBの光に対応するB1画像データと、前記第4波長帯域のRの光に対応するR2画像データと、前記第5波長帯域のGの光に対応するG2画像データと、前記第6波長帯域のBの光に対応するB2画像データと、を含み、
前記画像処理部は、前記G1画像データと、当該G1画像データ以外の前記R1画像データ、前記B1画像データ、前記R2画像データ、前記G2画像データ、および前記B2画像データのうち少なくとも1つの画像データと、を用いて画像処理を行うことにより特殊光画像を生成する、内視鏡システム。 - 請求項1において、
前記第1波長帯域は、630±3nmから700±3nmであり、
前記第2波長帯域は、524±3nmから582±3nmであり、
前記第3波長帯域は、452±3nmから502±3nmであり、
前記第4波長帯域は、582±3nmから630±3nmであり、
前記第5波長帯域は、502±3nmから524±3nmであり、
前記第6波長帯域は、420±3nmから452±3nmであり、
452±3nm、502±3nm、524±3nm、および582±3nmは、前記等吸収点の波長である、内視鏡システム。 - 請求項1または2において、
前記画像処理部は、
前記B2画像データを用いて、前記生体組織の表面から第1深さの位置の第1血管画像を生成する処理と、
前記G1画像データを用いて、前記第1深さよりも深い第2深さの位置の第2血管画像を生成する処理と、
前記R1画像データを用いて、前記第2深さよりも深い第3深さの位置の第3血管画像を生成する処理と、
を実行する、内視鏡システム。 - 請求項1から3の何れか1項において、
前記画像処理部は、前記G1画像データを少なくとも前記R1画像データで除算することにより血液濃度を示すヘモグロビン濃度を算出し、当該ヘモグロビン濃度の値と前記B1画像データ/前記G1画像データの値とに基づいて、前記生体組織の酸素飽和度を求める、内視鏡システム。 - 請求項4において、
前記画像処理部は、前記生体組織において、前記ヘモグロビン濃度が第1閾値以上で、かつ前記酸素飽和度が第2閾値未満である特徴条件を満たす箇所を特定し、当該特徴条件を満たす箇所をそれ以外の箇所と区別した表示形態を採る特徴画像を生成し、
前記表示部は、前記特徴画像を画面上に表示する、内視鏡システム。 - 請求項4または5において、
前記画像処理部は、前記G1画像データを、前記B1画像データと前記G1画像データと前記R1画像データとの線形結合によって除算することにより、散乱光の影響を除去した相対的ヘモグロビン濃度を算出し、当該相対的ヘモグロビン濃度を用いて前記酸素飽和度を求める、内視鏡システム。 - 請求項1から6の何れか1項において、
前記画像処理部は、前記G2画像データをBlue波長領域に割り当て、前記R2画像データをGreen波長領域に割り当てることにより、前記生体組織の表面に付着する血液に由来する画像データのレベルを低くして前記血液を透明化した血液透明化画像を生成し、
前記表示部は、前記血液透明化画像を画面上に表示する、内視鏡システム。 - 請求項7において、
前記画像処理部は、さらに、前記G1画像データに所定の減算パラメータを乗算し、前記Blue波長領域に割り当てられる前記G2画像データと、前記Green波長領域に割り当てられる前記R2画像データと、前記減算パラメータを乗算した前記G1画像データと、を線形結合して前記血液透明化画像を生成する、内視鏡システム。 - 請求項1から8の何れか1項において、
前記撮像部は、前記R1画像データ、前記G1画像データ、および前記B1画像データを生成する第1撮像素子と、前記R2画像データ、前記G2画像データ、および前記B2画像データを生成する第2撮像素子と、を含む、内視鏡システム。 - 白色光を生体組織に照射して画像を取得する通常観察モード、および特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードでの動作が可能な内視鏡システムであって、
照明光を生体組織に照射する照明部と、
前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光を分割し、少なくとも第1反射光および第2反射光を出力する光学素子と、
前記第1反射光のうち第1組の波長域の光を透過させる第1光学フィルタと、
前記第2反射光のうち、前記第1組の一部の波長域を含む第2組の波長域の光を透過させる第2光学フィルタと、
前記第1組の波長域の光に基づいて、所定波長域の光に対応する第1画像データを生成する第1撮像部と、
前記第2組の波長域の光に基づいて、前記所定波長域に含まれ、前記所定域よりも狭い波長域の光に対応する第2画像データを生成する第2撮像部と、
前記第1画像データを前記第2画像データにより除算することにより、前記所定波長域よりも狭い波長域における前記生体組織の分光特性の特徴を演算する画像処理部と、
前記画像処理部による演算結果を出力する出力部と、を備え、
前記第2撮像部の露光時間は、前記第1撮像部の露光時間よりも長く設定されている、内視鏡システム。 - 請求項10において、
前記第1画像データは、波長域が524±3nmから582±3nmまでの光に対応する広帯域画像データであり、
前記第2画像データは、波長域が546±3nmから570±3nmまでの光に対応する狭帯域画像データである、内視鏡システム。 - 請求項10または11において、
前記画像処理部は、546±3nmから570±3nmまでにおける前記生体組織の分光特性の変化度合を演算する、内視鏡システム。 - 請求項10から12の何れか1項において、
前記第2撮像部の露光時間は、前記第1撮像部の露光時間よりも2倍以上長く設定されている、内視鏡システム。 - 白色光を生体組織に照射して画像を取得する通常観察モード、および特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードでの動作が可能な内視鏡システムであって、
照明光を生体組織に照射する照明部と、
光分割膜の代わりに光学フィルタの層を有し、前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光における所定波長域組の光である第1波長域光を前記光学フィルタの層で透過し、前記所定波長域組以外の波長組の光である第2波長域光を前記光学フィルタの層で反射し、前記第1波長域光および前記第2波長域光を出力する光学素子と、
前記第1波長域光に基づいて、前記所定波長域組の光に対応する第1画像データを生成する第1撮像部と、
前記第2波長域光に基づいて、前記所定波長域組以外の波長組の光に対応する第2画像データを生成する第2撮像部と、
前記第1画像データおよび前記第2画像データに基づいて、所定の画像処理を実行する画像処理部と、
前記画像処理部による演算結果を出力する出力部と、
を備える、内視鏡システム。 - 請求項14において、
前記第1波長域光と前記第2波長域光とは、波長組に関して相補関係にある光である、内視鏡システム。 - 請求項14または15において、
前記光学フィルタは、452±3nmから502±3nmの光、524±3nmから582±3nmの光、および630±3nmから700±3nmの光を透過する特性を有する、内視鏡システム。 - 請求項14において、
さらに、前記第2波長域光の一部の光を透過する補正光学フィルタを備え、
前記第2撮像部は、前記補正光学フィルタを透過した光に基づいて、前記第2画像データを生成する、内視鏡システム。 - 請求項17において、
前記補正光学フィルタは、420±3nmから452±3nmの光、502±3nmから524±3nmの光、および582±3nmから630±3nmの光を透過する特性を有する、内視鏡システム。 - 特定波長帯の光を生体組織に照射して画像を取得する特殊観察モードで内視鏡システムを動作させる方法であって、
照明部が、第1波長帯域のR、第2波長帯域のG、第3波長帯域のB、第4波長帯域のR、第5波長帯域のG、および第6波長帯域のBの光を少なくとも含む照明光を生体組織に照射することと、
撮像部が、前記照明光を前記生体組織に照射することによって生じる前記生体組織からの反射光に基づいて画像データを生成することと、
画像処理部が、前記撮像部から前記画像データを取得し、所定の画像処理を行うことと、
表示部が、前記画像処理部による前記所定の画像処理によって生成された画像を画面上に表示することと、を含み、
少なくとも前記第2波長帯域、前記第3波長帯域、前記第5波長帯域、および前記第6波長帯域は、酸素飽和度によらずに透過率が一定となる等吸収点の波長によって帯域の境界が規定されており、
前記第2波長帯域は、帯域の境界となる等吸収点以外の等吸収点をその帯域内に含み、 前記第6波長帯域は前記第3波長帯域よりも短波長帯域であり、前記第5波長帯域は前記第2波長帯域よりも短波長帯域であり、前記第4波長帯域は前記第1波長帯域よりも短波長帯域であり、
前記画像データは、前記第1波長帯域のRの光に対応するR1画像データと、前記第2波長帯域のGの光に対応するG1画像データと、前記第3波長帯域のBの光に対応するB1画像データと、前記第4波長帯域のRの光に対応するR2画像データと、前記第5波長帯域のGの光に対応するG2画像データと、前記第6波長帯域のBの光に対応するB2画像データと、を含み、
前記画像データを生成する際に、前記画像処理部は、前記G1画像データと、当該G1画像データ以外の前記R1画像データ、前記B1画像データ、前記R2画像データ、前記G2画像データ、および前記B2画像データのうち少なくとも1つの画像データと、を用いて画像処理を行うことにより特殊光画像を生成する、方法。 - 請求項19において、
前記第1波長帯域は、630±3nmから700±3nmであり、
前記第2波長帯域は、524±3nmから582±3nmであり、
前記第3波長帯域は、452±3nmから502±3nmであり、
前記第4波長帯域は、582±3nmから630±3nmであり、
前記第5波長帯域は、502±3nmから524±3nmであり、
前記第6波長帯域は、420nmから450nmであり、
452±3nm、502±3nm、524±3nm、および582±3nmは、前記等吸収点の波長である、方法。 - 請求項19または20において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記B2画像データを用いて、前記生体組織の表面から第1深さの位置の第1血管画像を生成することと、
前記画像処理部が、前記G1画像データを用いて、前記第1深さよりも深い第2深さの位置の第2血管画像を生成することと、
前記画像処理部が、前記R1画像データを用いて、前記第2深さよりも深い第3深さの位置の第3血管画像を生成することと、
を含む、方法。 - 請求項19から21の何れか1項において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記G1画像データを少なくとも前記R1画像データで除算することにより血液濃度を示すヘモグロビン濃度を算出することと、
前記画像処理部が、前記ヘモグロビン濃度の値と前記B1画像データ/前記G1画像データの値とに基づいて、前記生体組織の酸素飽和度を求めることと、
を含む、方法。 - 請求項22において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記生体組織において、前記ヘモグロビン濃度が第1閾値以上で、かつ前記酸素飽和度が第2閾値未満である特徴条件を満たす箇所を特定することと、
前記画像処理部が、前記特徴条件を満たす箇所をそれ以外の箇所と区別した表示形態を採る特徴画像を生成することと、を含み、
前記表示部は、前記特徴画像を画面上に表示する、方法。 - 請求項22または23において、
前記画像処理部は、前記G1画像データを、前記B1画像データと前記G1画像データと前記R1画像データとの線形結合によって除算することにより、散乱光の影響を除去した相対的ヘモグロビン濃度を算出し、当該相対的ヘモグロビン濃度を用いて前記酸素飽和度を求める、方法。 - 請求項19から24の何れか1項において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記G2画像データをBlue波長領域に割り当て、前記R2画像データをGreen波長領域に割り当てることにより、前記生体組織の表面に付着する血液に由来する画像データのレベルを低くして前記血液を透明化した血液透明化画像を生成することを含み、
前記表示部は、前記血液透明化画像を画面上に表示する、方法。 - 請求項25において、
前記画像処理部が前記所定の画像処理をすることは、
前記画像処理部が、前記G1画像データに所定の減算パラメータを乗算し、前記Blue波長領域に割り当てられる前記G2画像データと、前記Green波長領域に割り当てられる前記R2画像データと、前記減算パラメータを乗算した前記G1画像データと、を線形結合して前記血液透明化画像を生成する、方法。 - 請求項19から26の何れか1項において、
前記撮像部は、第1撮像素子と、第2撮像素子とを含み、
前記第1撮像素子が、前記R1画像データ、前記G1画像データ、および前記B1画像データを生成し、前記第2撮像素子が、前記R2画像データ、前記G2画像データ、および前記B2画像データを生成する、方法。
Priority Applications (6)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE112019004271.8T DE112019004271T5 (de) | 2018-08-31 | 2019-08-30 | Endoskopsystem und Verfahren zum Bedienen des Endoskopsystems |
| US17/048,425 US11885954B2 (en) | 2018-08-31 | 2019-08-30 | Endoscope system |
| JP2020539619A JP7287969B2 (ja) | 2018-08-31 | 2019-08-30 | 内視鏡システム、および内視鏡システム作動方法 |
| CN201980026603.XA CN111989023B (zh) | 2018-08-31 | 2019-08-30 | 内窥镜系统及使内窥镜系统工作的方法 |
| CN202410165370.4A CN117918771A (zh) | 2018-08-31 | 2019-08-30 | 内窥镜系统及使内窥镜系统工作的方法 |
| US18/534,200 US20240111145A1 (en) | 2018-08-31 | 2023-12-08 | Endoscope system |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018-163667 | 2018-08-31 | ||
| JP2018163667 | 2018-08-31 |
Related Child Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US17/048,425 A-371-Of-International US11885954B2 (en) | 2018-08-31 | 2019-08-30 | Endoscope system |
| US18/534,200 Division US20240111145A1 (en) | 2018-08-31 | 2023-12-08 | Endoscope system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2020045619A1 true WO2020045619A1 (ja) | 2020-03-05 |
Family
ID=69643644
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2019/034087 Ceased WO2020045619A1 (ja) | 2018-08-31 | 2019-08-30 | 内視鏡システム、および内視鏡システムを動作させる方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (2) | US11885954B2 (ja) |
| JP (2) | JP7287969B2 (ja) |
| CN (2) | CN117918771A (ja) |
| DE (1) | DE112019004271T5 (ja) |
| WO (1) | WO2020045619A1 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2023276158A1 (ja) * | 2021-07-02 | 2023-01-05 | ||
| WO2024057990A1 (ja) * | 2022-09-16 | 2024-03-21 | ソニーグループ株式会社 | 撮像装置及び医療用観察システム |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018142658A1 (ja) * | 2017-02-01 | 2018-08-09 | オリンパス株式会社 | 画像処理装置、画像処理装置の作動方法、及び画像処理装置の作動プログラム |
| CN114469008A (zh) * | 2022-03-09 | 2022-05-13 | 浙江大学 | 基于血管近红外成像的血管穿刺难易智能分级装置 |
| US20240231071A9 (en) * | 2022-10-21 | 2024-07-11 | Karl Storz Imaging, Inc. | Imaging Device Including Three Image Sensors Enabling Multiple Imaging Modes and Associated Imaging Systems |
| US20240231072A9 (en) * | 2022-10-21 | 2024-07-11 | Karl Storz Imaging, Inc. | Imaging Device Including Two Image Sensors Enabling Multiple Imaging Modes and Associated Imaging Systems |
Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005507731A (ja) * | 2001-11-09 | 2005-03-24 | カーディオ−オプティクス, インコーポレイテッド | 心臓カテーテル法のダイレクトリアルタイムイメージングガイダンス |
| JP2011125404A (ja) * | 2009-12-15 | 2011-06-30 | Olympus Corp | 光制御装置、制御装置、光学スコープ及び光走査型光学装置 |
| JP2011135983A (ja) * | 2009-12-28 | 2011-07-14 | Olympus Corp | 画像処理装置、電子機器、プログラム及び画像処理方法 |
| JP2011200330A (ja) * | 2010-03-24 | 2011-10-13 | Olympus Corp | 蛍光内視鏡装置 |
| JP2012016545A (ja) * | 2010-07-09 | 2012-01-26 | Fujifilm Corp | 内視鏡装置 |
| JP2013063097A (ja) * | 2011-09-15 | 2013-04-11 | Fujifilm Corp | 内視鏡システム及び光源装置 |
| JP2014061152A (ja) * | 2012-09-21 | 2014-04-10 | Fujifilm Corp | 内視鏡システム及び内視鏡用光源装置並びに内視鏡画像の作成方法 |
| WO2016151672A1 (ja) * | 2015-03-20 | 2016-09-29 | オリンパス株式会社 | 生体観察装置 |
| WO2017051455A1 (ja) * | 2015-09-24 | 2017-03-30 | オリンパス株式会社 | 内視鏡装置 |
| WO2017051779A1 (ja) * | 2015-09-24 | 2017-03-30 | Hoya株式会社 | 分析装置 |
| JP2017148392A (ja) * | 2016-02-26 | 2017-08-31 | Hoya株式会社 | 計算システム |
| JP2018000616A (ja) * | 2016-07-04 | 2018-01-11 | Hoya株式会社 | 分析装置 |
| JP2018027272A (ja) * | 2016-08-19 | 2018-02-22 | ソニー株式会社 | 撮像システム |
Family Cites Families (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS533012U (ja) | 1976-06-25 | 1978-01-12 | ||
| JP2810718B2 (ja) | 1989-05-09 | 1998-10-15 | オリンパス光学工業株式会社 | 内視鏡装置 |
| US5986271A (en) * | 1997-07-03 | 1999-11-16 | Lazarev; Victor | Fluorescence imaging system |
| JP4321697B2 (ja) * | 2000-08-02 | 2009-08-26 | 富士フイルム株式会社 | 蛍光画像表示方法および装置 |
| US7123756B2 (en) * | 2001-04-27 | 2006-10-17 | Fuji Photo Film Co., Ltd. | Method and apparatus for standardized fluorescence image generation |
| JP3731814B2 (ja) * | 2001-05-07 | 2006-01-05 | 富士写真フイルム株式会社 | 蛍光画像表示装置 |
| JP5395725B2 (ja) * | 2010-04-05 | 2014-01-22 | 富士フイルム株式会社 | 電子内視鏡システム |
| JP5303012B2 (ja) | 2010-12-15 | 2013-10-02 | 富士フイルム株式会社 | 内視鏡システム、内視鏡システムのプロセッサ装置及び内視鏡システムの作動方法 |
| JP5274591B2 (ja) * | 2011-01-27 | 2013-08-28 | 富士フイルム株式会社 | 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法 |
| JP5704998B2 (ja) * | 2011-04-06 | 2015-04-22 | キヤノン株式会社 | 光音響装置およびその制御方法 |
| JP5816511B2 (ja) * | 2011-10-04 | 2015-11-18 | オリンパス株式会社 | 画像処理装置、内視鏡装置及び画像処理装置の作動方法 |
| JP5623470B2 (ja) * | 2012-07-06 | 2014-11-12 | 富士フイルム株式会社 | 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡用制御プログラム |
| WO2014139020A1 (en) * | 2013-03-15 | 2014-09-18 | Synaptive Medical (Barbados) Inc. | Surgical imaging systems |
| US10722155B2 (en) * | 2013-05-30 | 2020-07-28 | Hoya Corporation | Method and device for generating image showing concentration distribution of biological substances in biological tissue |
| JP6203092B2 (ja) | 2014-03-18 | 2017-09-27 | オリンパス株式会社 | 生体観察システム |
| JP6284451B2 (ja) * | 2014-07-17 | 2018-02-28 | Hoya株式会社 | 内視鏡装置 |
| JP6204314B2 (ja) * | 2014-09-03 | 2017-09-27 | Hoya株式会社 | 電子内視鏡システム |
| WO2016147436A1 (ja) * | 2015-03-17 | 2016-09-22 | オリンパス株式会社 | 生体観察システム |
| JP2016192985A (ja) * | 2015-03-31 | 2016-11-17 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
| JP6234621B2 (ja) * | 2015-09-18 | 2017-11-22 | オリンパス株式会社 | 内視鏡装置 |
| WO2018083888A1 (ja) * | 2016-11-01 | 2018-05-11 | オリンパス株式会社 | 画像処理装置 |
| US11096565B2 (en) * | 2019-06-20 | 2021-08-24 | Cilag Gmbh International | Driving light emissions according to a jitter specification in a hyperspectral, fluorescence, and laser mapping imaging system |
-
2019
- 2019-08-30 WO PCT/JP2019/034087 patent/WO2020045619A1/ja not_active Ceased
- 2019-08-30 CN CN202410165370.4A patent/CN117918771A/zh active Pending
- 2019-08-30 JP JP2020539619A patent/JP7287969B2/ja active Active
- 2019-08-30 US US17/048,425 patent/US11885954B2/en active Active
- 2019-08-30 DE DE112019004271.8T patent/DE112019004271T5/de active Pending
- 2019-08-30 CN CN201980026603.XA patent/CN111989023B/zh active Active
-
2023
- 2023-05-25 JP JP2023085873A patent/JP2023099754A/ja active Pending
- 2023-12-08 US US18/534,200 patent/US20240111145A1/en active Pending
Patent Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005507731A (ja) * | 2001-11-09 | 2005-03-24 | カーディオ−オプティクス, インコーポレイテッド | 心臓カテーテル法のダイレクトリアルタイムイメージングガイダンス |
| JP2011125404A (ja) * | 2009-12-15 | 2011-06-30 | Olympus Corp | 光制御装置、制御装置、光学スコープ及び光走査型光学装置 |
| JP2011135983A (ja) * | 2009-12-28 | 2011-07-14 | Olympus Corp | 画像処理装置、電子機器、プログラム及び画像処理方法 |
| JP2011200330A (ja) * | 2010-03-24 | 2011-10-13 | Olympus Corp | 蛍光内視鏡装置 |
| JP2012016545A (ja) * | 2010-07-09 | 2012-01-26 | Fujifilm Corp | 内視鏡装置 |
| JP2013063097A (ja) * | 2011-09-15 | 2013-04-11 | Fujifilm Corp | 内視鏡システム及び光源装置 |
| JP2014061152A (ja) * | 2012-09-21 | 2014-04-10 | Fujifilm Corp | 内視鏡システム及び内視鏡用光源装置並びに内視鏡画像の作成方法 |
| WO2016151672A1 (ja) * | 2015-03-20 | 2016-09-29 | オリンパス株式会社 | 生体観察装置 |
| WO2017051455A1 (ja) * | 2015-09-24 | 2017-03-30 | オリンパス株式会社 | 内視鏡装置 |
| WO2017051779A1 (ja) * | 2015-09-24 | 2017-03-30 | Hoya株式会社 | 分析装置 |
| JP2017148392A (ja) * | 2016-02-26 | 2017-08-31 | Hoya株式会社 | 計算システム |
| JP2018000616A (ja) * | 2016-07-04 | 2018-01-11 | Hoya株式会社 | 分析装置 |
| JP2018027272A (ja) * | 2016-08-19 | 2018-02-22 | ソニー株式会社 | 撮像システム |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2023276158A1 (ja) * | 2021-07-02 | 2023-01-05 | ||
| WO2023276158A1 (ja) * | 2021-07-02 | 2023-01-05 | オリンパスメディカルシステムズ株式会社 | 内視鏡プロセッサ、内視鏡装置及び診断用画像表示方法 |
| JP7559240B2 (ja) | 2021-07-02 | 2024-10-01 | オリンパスメディカルシステムズ株式会社 | 内視鏡プロセッサ、内視鏡装置、診断用画像表示方法及び診断用画像処理プログラム |
| WO2024057990A1 (ja) * | 2022-09-16 | 2024-03-21 | ソニーグループ株式会社 | 撮像装置及び医療用観察システム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20240111145A1 (en) | 2024-04-04 |
| JP7287969B2 (ja) | 2023-06-06 |
| CN117918771A (zh) | 2024-04-26 |
| US11885954B2 (en) | 2024-01-30 |
| US20210228068A1 (en) | 2021-07-29 |
| CN111989023B (zh) | 2024-02-02 |
| DE112019004271T5 (de) | 2021-05-27 |
| JP2023099754A (ja) | 2023-07-13 |
| CN111989023A (zh) | 2020-11-24 |
| JPWO2020045619A1 (ja) | 2021-03-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7287969B2 (ja) | 内視鏡システム、および内視鏡システム作動方法 | |
| JP6204314B2 (ja) | 電子内視鏡システム | |
| JP5466182B2 (ja) | 内視鏡システムおよび内視鏡システムの作動方法 | |
| JP5616304B2 (ja) | 電子内視鏡システム及び電子内視鏡システムの作動方法 | |
| JP5923099B2 (ja) | 診断システム | |
| JP2017148392A (ja) | 計算システム | |
| JP5752423B2 (ja) | 分光計測システムおよび分光計測システムの作動方法 | |
| JPWO2012132571A1 (ja) | 診断システム | |
| JP5649947B2 (ja) | 光計測システムおよび光計測システムの作動方法 | |
| JP2014230647A (ja) | 表示装置、表示方法および表示プログラム | |
| US20030216626A1 (en) | Fluorescence judging method and apparatus | |
| JPWO2018043728A1 (ja) | 内視鏡システム及び特徴量算出方法 | |
| JP6284451B2 (ja) | 内視鏡装置 | |
| JP5639464B2 (ja) | 光計測システムおよび光計測システムの作動方法 | |
| WO2018070474A1 (ja) | 内視鏡システム | |
| WO2015025595A1 (ja) | 内視鏡システム及び作動方法 | |
| JP6650919B2 (ja) | 診断システム及び情報処理装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19855426 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2020539619 Country of ref document: JP Kind code of ref document: A |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 19855426 Country of ref document: EP Kind code of ref document: A1 |