[go: up one dir, main page]

WO2016203572A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2016203572A1
WO2016203572A1 PCT/JP2015/067452 JP2015067452W WO2016203572A1 WO 2016203572 A1 WO2016203572 A1 WO 2016203572A1 JP 2015067452 W JP2015067452 W JP 2015067452W WO 2016203572 A1 WO2016203572 A1 WO 2016203572A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
light
processing unit
region
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2015/067452
Other languages
English (en)
French (fr)
Inventor
祐輔 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017524202A priority Critical patent/JP6484336B2/ja
Priority to DE112015006505.9T priority patent/DE112015006505T5/de
Priority to PCT/JP2015/067452 priority patent/WO2016203572A1/ja
Priority to CN201580080849.7A priority patent/CN107708518A/zh
Publication of WO2016203572A1 publication Critical patent/WO2016203572A1/ja
Priority to US15/801,849 priority patent/US20180116520A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • A61B5/0086Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters using infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres

Definitions

  • the present invention relates to an imaging apparatus.
  • Endoscope systems capable of special light observation using infrared light in addition to normal observation using visible light are widely used.
  • this endoscope system it is possible to treat a lesion found by normal observation or special light observation with a treatment tool.
  • excitation light is irradiated to a fluorescent substance called indocyanine green (ICG), and fluorescence from a lesion is detected.
  • ICG is administered into the body of the subject to be tested in advance.
  • ICG is excited in the infrared region by excitation light and emits fluorescence.
  • the administered ICG is accumulated in a lesion such as cancer. Since intense fluorescence is generated from the lesion, the examiner can determine the presence or absence of the lesion based on the captured fluorescence image.
  • a subject is irradiated with light including visible light and infrared light.
  • the wavelength band of the infrared light irradiated to the subject does not include the fluorescence wavelength band but includes the excitation light wavelength band.
  • Light reflected by the subject and fluorescence (infrared fluorescence) generated from the subject are imaged via a dichroic mirror or dichroic prism built in the camera head. Since the dividing means for dividing visible light and fluorescence is provided, normal observation using visible light and special light observation using infrared light can be performed simultaneously. Further, fluorescence, red light, green light, and blue light are imaged by different image sensors via a dichroic mirror or a dichroic prism. For this reason, a high quality image can be obtained.
  • FIG. 9 shows a configuration of an endoscope apparatus 1001 similar to the configuration disclosed in Patent Document 1.
  • the endoscope apparatus 1001 includes a light source unit 1010, an endoscope scope unit 1020, a camera head 1030, a processor 1040, and a monitor 1050.
  • FIG. 9 shows a schematic configuration of a light source unit 1010, an endoscope scope unit 1020, and a camera head 1030.
  • the light source unit 1010 includes a light source 1100, a band pass filter 1101, and a condenser lens 1102.
  • the light source 1100 emits light having a wavelength from the visible light wavelength band to the infrared light wavelength band.
  • the wavelength band of infrared light includes the wavelength band of excitation light and the wavelength band of fluorescence.
  • the fluorescence wavelength band is a band having a longer wavelength in the infrared wavelength band than that of the excitation light.
  • the band pass filter 1101 is provided in the illumination light path of the light source 1100.
  • the band pass filter 1101 transmits only visible light and excitation light.
  • the condenser lens 1102 condenses the light that has passed through the band pass filter 1101.
  • the wavelength band of the infrared light emitted from the light source 1100 only needs to include at least the wavelength band of the excitation light.
  • FIG. 10 shows the transmission characteristics of the bandpass filter 1101.
  • the horizontal axis of the graph shown in FIG. 10 is the wavelength, and the vertical axis is the transmittance.
  • the band pass filter 1101 transmits light in a wavelength band having a wavelength of about 370 nm to about 800 nm.
  • the band pass filter 1101 blocks light in a wavelength band having a wavelength of less than about 370 nm and light in a wavelength band having a wavelength of about 800 nm or more.
  • the wavelength band of light transmitted by the band pass filter 1101 includes the wavelength band of visible light and the wavelength band of excitation light.
  • the wavelength band of the excitation light is a band having a wavelength of about 750 nm to about 780 nm.
  • the wavelength band of light blocked by the bandpass filter 1101 includes the wavelength band of fluorescence.
  • the wavelength band of fluorescence is a band with a wavelength of about 800 nm to about 900 nm.
  • the endoscope scope unit 1020 includes a light guide 1200, an illumination lens 1201, an objective lens 1202, and an image guide 1203.
  • Light from the light source 1100 enters the light guide 1200 via the band pass filter 1101 and the condenser lens 1102.
  • the light guide 1200 transmits light from the light source 1100 to the distal end portion of the endoscope scope unit 1020.
  • the light transmitted by the light guide 1200 is applied to the subject 1060 by the illumination lens 1201.
  • An objective lens 1202 is provided adjacent to the illumination lens 1201 at the distal end of the endoscope scope unit 1020. Light reflected by the subject 1060 and fluorescence generated from the subject 1060 enter the objective lens 1202. The light reflected by the subject 1060 includes visible light and excitation light. That is, light including reflected light in the visible light wavelength band from the subject 1060, reflected light in the wavelength band of the excitation light, and fluorescence emitted from the subject 1060 is incident on the objective lens 1202. The objective lens 1202 forms an image of the above light.
  • the tip surface of the image guide 1203 is disposed at the image forming position of the objective lens 1202.
  • the image guide 1203 transmits an optical image formed on its front end surface to the rear end surface.
  • the camera head 1030 includes an imaging lens 1300, a dichroic mirror 1301, an excitation light cut filter 1302, an image sensor 1303, a dichroic prism 1304, an image sensor 1305, an image sensor 1306, and an image sensor 1307.
  • the imaging lens 1300 is disposed so as to face the rear end surface of the image guide 1203.
  • the imaging lens 1300 focuses the optical image transmitted by the image guide 1203 on the image sensor 1303, the image sensor 1305, the image sensor 1306, and the image sensor 1307.
  • a dichroic mirror 1301 is disposed in the optical path from the imaging lens 1300 to the imaging position of the imaging lens 1300.
  • the light that has passed through the imaging lens 1300 enters the dichroic mirror 1301.
  • the dichroic mirror 1301 transmits visible light and reflects light other than visible light.
  • FIG. 11 shows the characteristics of reflection and transmission of the dichroic mirror 1301.
  • the horizontal axis of the graph shown in FIG. 11 is the wavelength, and the vertical axis is the transmittance.
  • the dichroic mirror 1301 transmits light in a wavelength band whose wavelength is less than about 700 nm.
  • the dichroic mirror 1301 reflects light in a wavelength band having a wavelength of about 700 nm or more.
  • the wavelength band of light transmitted by the dichroic mirror 1301 includes the wavelength band of visible light.
  • the wavelength band of light reflected by the dichroic mirror 1301 includes the wavelength band of infrared light.
  • an optical image of the visible light component is formed.
  • an optical image of an infrared light component is formed at the imaging position of the light reflected by the dichroic mirror 1301.
  • the light incident on the excitation light cut filter 1302 includes infrared light. Infrared light includes excitation light and fluorescence.
  • the excitation light cut filter 1302 blocks excitation light and transmits fluorescence.
  • FIG. 12 shows the transmission characteristics of the excitation light cut filter 1302. The horizontal axis of the graph shown in FIG. 12 is the wavelength, and the vertical axis is the transmittance.
  • the excitation light cut filter 1302 blocks light in a wavelength band whose wavelength is less than about 800 nm.
  • the excitation light cut filter 1302 transmits light in a wavelength band having a wavelength of about 800 nm or more.
  • the wavelength band of light blocked by the excitation light cut filter 1302 includes the wavelength band of excitation light.
  • the wavelength band of light transmitted by the excitation light cut filter 1302 includes the wavelength band of fluorescence.
  • the image sensor 1303 generates an IR signal based on fluorescence.
  • FIG. 13 shows the characteristics of ICG administered to the subject 1060.
  • the horizontal axis of the graph shown in FIG. 13 is the wavelength, and the vertical axis is the intensity.
  • FIG. 13 shows the characteristics of the excitation light that excites ICG and the characteristics of the fluorescence emitted by ICG.
  • the peak wavelength of excitation light is about 770 nm, and the peak wavelength of fluorescence is about 820 nm. Therefore, when the subject 1060 is irradiated with excitation light having a wavelength of about 750 nm to about 780 nm, fluorescence having a wavelength of about 800 nm to about 900 nm is generated from the subject 1060. By detecting fluorescence generated from the subject 1060, the presence or absence of cancer can be detected.
  • the band-pass filter 1101 transmits excitation light having a wavelength of about 750 nm to about 780 nm and blocks fluorescence having a wavelength of about 800 nm to about 900 nm.
  • the excitation light cut filter 1302 blocks excitation light having a wavelength of about 750 nm to about 780 nm.
  • the light in the visible wavelength band that has passed through the dichroic mirror 1301 enters the dichroic prism 1304.
  • the dichroic prism 1304 divides light in the visible wavelength band into light in the red wavelength band (red light), light in the green wavelength band (green light), and light in the blue wavelength band (blue light).
  • the red light that has passed through the dichroic prism 1304 enters the image sensor 1305.
  • the image sensor 1305 generates an R signal based on red light.
  • Green light that has passed through the dichroic prism 1304 enters the image sensor 1306.
  • the image sensor 1306 generates a G signal based on green light.
  • the blue light that has passed through the dichroic prism 1304 enters the image sensor 1307.
  • the image sensor 1307 generates a B signal based on blue light.
  • the processor 1040 generates a visible light image signal from the R signal, the G signal, and the B signal, and generates a fluorescent image signal from the IR signal.
  • the monitor 1050 displays a visible light image based on the visible light image signal and a fluorescent image based on the fluorescent image signal. For example, the monitor 1050 displays the visible light image and the fluorescence image obtained at the same time side by side. Alternatively, the monitor 1050 displays the visible light image and the fluorescent image obtained at the same time in an overlapping manner.
  • the image sensor 1303 can detect only the fluorescence without reflecting the reflected light in the wavelength band of the excitation light from the subject 1060 out of the light reflected by the dichroic mirror 1301.
  • the excitation light cut filter 1302 is disposed in front of the image sensor 1303.
  • the image sensor 1303 detects the light in the fluorescence band and the remaining light in the wavelength band of the excitation light that could not be blocked by the excitation light cut filter 1302.
  • FIG. 14 shows an outline of the energy distribution of light incident on the image sensor 1303.
  • the horizontal axis of the graph shown in FIG. 14 is the wavelength, and the vertical axis is the incident energy.
  • the wavelength band of light incident on the image sensor 1303 includes a wavelength band of excitation light having a wavelength of about 700 nm to about 800 nm and a fluorescent band of wavelength about 800 nm to about 900 nm. That is, fluorescence emitted from the subject 1060 and a part of the wavelength band of the excitation light that cannot be blocked by the excitation light cut filter 1302 enter the image sensor 1303.
  • the fluorescence generated from the subject 1060 is weaker than the excitation light. For this reason, when a part of light in the wavelength band of the excitation light that cannot be blocked by the excitation light cut filter 1302 enters the image sensor 1303, the signal value of the IR signal generated by the first pixel of the image sensor 1303 May be larger than the signal value of the IR signal generated by the second pixel of the image sensor 1303.
  • the first pixel is a pixel on which light from a subject that does not emit fluorescence and has a high excitation light reflectivity is incident.
  • the second pixel is a pixel that emits fluorescence and receives light from a subject with low excitation light reflectance.
  • the signal value of the IR signal generated by the pixel of the image sensor 1303 to which light from the region of the subject 1060 that does not emit fluorescence enters may be large.
  • the region of the subject 1060 that does not emit fluorescence may be displayed brightly.
  • the processor 1040 can calculate an IR signal based only on fluorescence by subtracting an offset component based on excitation light from the IR signal generated in each pixel of the image sensor 1303.
  • the excitation light transmitted through the excitation light cut filter 1302 does not uniformly enter the light receiving surface of the image sensor 1303. That is, the signal component based on the excitation light generated in each pixel of the image sensor 1303 is not uniform. As a result, it is difficult for the processor 1040 to calculate an IR signal based only on fluorescence from an IR signal based on excitation light and fluorescence.
  • An object of the present invention is to provide an imaging apparatus capable of generating a fluorescent image signal for displaying a fluorescent image in which a fluorescent region shines more clearly.
  • the imaging device includes an imaging unit and a signal processing unit.
  • the imaging unit generates a first image signal based on visible light from the subject, and generates a second image signal based on excitation light and fluorescence from the subject.
  • the signal processing unit generates a fluorescence image signal corresponding to the fluorescence based on the first image signal and the second image signal.
  • the signal processing unit determines a region of interest in the subject based on the first image signal.
  • the signal processing unit determines a fluorescent region based on the second image signal corresponding to the region of interest, and the fluorescent region generates the fluorescence in the subject.
  • the signal processing unit performs enhancement processing of the second image signal corresponding to the fluorescent region.
  • the signal processing unit adds or multiplies a predetermined value only to a signal value of the second image signal corresponding to the fluorescent region, to thereby multiply the signal value. Emphasis processing may be performed.
  • the signal processing unit adds a value corresponding to the signal value only to the signal value of the second image signal corresponding to the fluorescent region.
  • the enhancement process may be performed by multiplication.
  • the signal processing unit is a region of each pixel corresponding to a correlation between a signal value of each pixel of the first image signal and a reference value.
  • a determination coefficient may be calculated.
  • the reference value corresponds to a value expected as a signal value of the first image signal corresponding to the attention area.
  • the signal processing unit may determine the region of interest based on the region determination coefficient.
  • the signal processing unit includes a signal value of each pixel of the second image signal subjected to the enhancement process and a region determination coefficient of each pixel. And may be multiplied.
  • the imaging unit may include a dichroic mirror, a visible light imaging unit, an excitation light cut filter, and a fluorescence imaging unit.
  • the dichroic mirror divides the first light from the subject into second light and third light.
  • the first light includes the visible light, the excitation light, and the fluorescence.
  • the second light includes the visible light.
  • the third light includes the excitation light and the fluorescence.
  • the visible light imaging unit receives the second light and generates the first image signal.
  • the transmittance of the fluorescence is higher than the transmittance of the excitation light, and the third light is incident thereon.
  • the fluorescence imaging unit receives the third light transmitted through the excitation light cut filter and generates the second image signal.
  • the visible light imaging unit and the fluorescence imaging unit may be connected to the signal processing unit.
  • the signal processing unit may include a memory and a region of interest determination unit.
  • Subject characteristic information indicating the characteristics of the subject is recorded in the memory.
  • the subject characteristic information is generated from the first image signal of the subject.
  • the attention area determination unit determines the attention area based on the subject characteristic information recorded in the memory and the first image signal.
  • the signal processing unit may calculate the saturation and the hue of each pixel from the signal value of each pixel of the first image signal. Good.
  • the signal processing unit may determine the region of interest based on the saturation and the hue of each pixel.
  • the signal processing unit determines a region of interest in the subject based on the first image signal.
  • the signal processing unit determines the fluorescent region based on the second image signal corresponding to the attention region.
  • the signal processing unit performs enhancement processing of the second image signal corresponding to the fluorescent region. For this reason, the imaging device can generate a fluorescence image signal for displaying a fluorescence image in which the fluorescence region shines more clearly.
  • ICG indocyanine green
  • FIG. 1 shows a configuration of an endoscope apparatus 1a according to the first embodiment of the present invention.
  • the endoscope apparatus 1 a includes a light source unit 10, an endoscope scope unit 20, a camera head 30 a (imaging unit), a signal processing unit 40, and a display unit 50.
  • FIG. 1 shows a schematic configuration of the light source unit 10, the endoscope scope unit 20, and the camera head 30a.
  • the light source unit 10 includes a light source 100, a band pass filter 101, and a condenser lens 102.
  • the light source 100 emits light having a wavelength from a visible light wavelength band to an infrared light wavelength band.
  • the wavelength band of visible light includes a red wavelength band, a green wavelength band, and a blue wavelength band.
  • the red wavelength band is a band having a longer wavelength than the green wavelength band.
  • the green wavelength band is a band having a longer wavelength than the blue wavelength band.
  • the wavelength band of infrared light is a band having a longer wavelength than the red wavelength band.
  • the wavelength band of infrared light includes the wavelength band of excitation light and the wavelength band of fluorescence.
  • the fluorescence wavelength band is a band having a longer wavelength in the infrared wavelength band than that of the excitation light. That is, the wavelength of infrared light is longer than the wavelength of red light. The wavelength of red light is longer than that of green light. The wavelength of green light is longer than the wavelength of blue light.
  • the wavelength band of the infrared light emitted from the light source 100 only needs to include at least the wavelength band of the excitation light.
  • the band pass filter 101 is provided in the illumination optical path of the light source 100.
  • the band pass filter 101 transmits only visible light and excitation light.
  • the condenser lens 102 condenses the light transmitted through the band pass filter 101.
  • the transmission characteristics of the bandpass filter 101 are the same as the transmission characteristics shown in FIG.
  • the band pass filter 101 transmits light in a wavelength band having a wavelength of about 370 nm to about 800 nm.
  • the band pass filter 101 blocks light in a wavelength band having a wavelength of less than about 370 nm and light in a wavelength band having a wavelength of about 800 nm or more.
  • the wavelength band of light transmitted by the bandpass filter 101 includes the wavelength band of visible light and the wavelength band of excitation light.
  • the wavelength band of the excitation light is a band having a wavelength of about 750 nm to about 780 nm.
  • the wavelength band of light blocked by the bandpass filter 101 includes the wavelength band of fluorescence.
  • the wavelength band of fluorescence is a band with a wavelength of about 800 nm to about 900 nm.
  • the endoscope scope unit 20 includes a light guide 200, an illumination lens 201, an objective lens 202, and an image guide 203.
  • Light from the light source 100 enters the light guide 200 through the bandpass filter 101 and the condenser lens 102.
  • the light guide 200 transmits light from the light source 100 to the distal end portion of the endoscope scope unit 20.
  • the light transmitted by the light guide 200 is applied to the subject 60 by the illumination lens 201.
  • An objective lens 202 is provided adjacent to the illumination lens 201 at the distal end of the endoscope scope unit 20.
  • Light reflected by the subject 60 and fluorescence generated from the subject 60 enter the objective lens 202.
  • the light reflected by the subject 60 includes visible light and excitation light. That is, light including reflected light in the visible light wavelength band from the subject 60, reflected light in the wavelength band of the excitation light, and fluorescence emitted from the subject 60 is incident on the objective lens 202.
  • the objective lens 202 images the above light.
  • the tip surface of the image guide 203 is disposed at the image forming position of the objective lens 202.
  • the image guide 203 transmits an optical image formed on its front end surface to the rear end surface.
  • the camera head 30a includes an imaging lens 300, a dichroic mirror 301, an excitation light cut filter 302, an image sensor 303 (fluorescence imaging unit), a dichroic prism 304, an image sensor 305 (visible light imaging unit), and an image.
  • a sensor 306 (visible light imaging unit) and an image sensor 307 (visible light imaging unit) are included.
  • the imaging lens 300 is disposed so as to face the rear end surface of the image guide 203.
  • the imaging lens 300 forms an optical image transmitted by the image guide 203 on the image sensor 303, the image sensor 305, the image sensor 306, and the image sensor 307.
  • the first light from the subject 60 includes second light and third light.
  • the second light includes visible light.
  • Visible light includes red light, green light, and blue light.
  • the third light includes excitation light and fluorescence. The wavelength of fluorescence is longer than the wavelength of excitation light.
  • a dichroic mirror 301 is disposed in the optical path from the imaging lens 300 to the imaging position of the imaging lens 300.
  • the first light that has passed through the imaging lens 300 that is, the first light from the subject 60 enters the dichroic mirror 301.
  • the dichroic mirror 301 transmits visible light and reflects light other than visible light.
  • the reflection and transmission characteristics of the dichroic mirror 301 are the same as the reflection and transmission characteristics of the dichroic mirror 1301 shown in FIG.
  • the dichroic mirror 301 transmits light in a wavelength band whose wavelength is less than about 700 nm.
  • the dichroic mirror 301 reflects light in a wavelength band having a wavelength of about 700 nm or more.
  • the wavelength band of light transmitted by the dichroic mirror 301 includes the wavelength band of visible light.
  • the wavelength band of light reflected by the dichroic mirror 301 includes the wavelength band of infrared light. That is, the dichroic mirror 301 transmits the second light and reflects the third light. Thus, the dichroic mirror 301 divides the first light from the subject 60 into the second light and the third light.
  • an optical image of the visible light component is formed.
  • an optical image of an infrared light component is formed at the imaging position of the light reflected by the dichroic mirror 301.
  • the light incident on the excitation light cut filter 302 includes infrared light. Infrared light includes excitation light and fluorescence.
  • the excitation light cut filter 302 blocks excitation light and transmits fluorescence.
  • the transmission characteristics of the excitation light cut filter 302 are the same as the transmission characteristics of the excitation light cut filter 1302 shown in FIG.
  • the excitation light cut filter 302 blocks light in a wavelength band whose wavelength is less than about 800 nm.
  • the excitation light cut filter 302 transmits light in a wavelength band having a wavelength of about 800 nm or more.
  • the wavelength band of light blocked by the excitation light cut filter 302 includes the wavelength band of excitation light.
  • the wavelength band of light transmitted by the excitation light cut filter 302 includes the wavelength band of fluorescence.
  • the cutoff characteristic of the excitation light cut filter 302 with respect to the excitation light is not perfect.
  • the excitation light cut filter 302 blocks part of the light in the wavelength band of the excitation light and transmits the remaining light and fluorescence in the wavelength band of the excitation light.
  • the image sensor 303 generates an IR signal (second image signal) based on the excitation light and fluorescence transmitted through the excitation light cut filter 302.
  • the image sensor 305 generates an R signal (first image signal) based on red light.
  • the image sensor 306 generates a G signal (first image signal) based on green light.
  • the image sensor 307 generates a B signal (first image signal) based on blue light.
  • the R signal includes signal values (pixel values) of a plurality of pixels arranged in the image sensor 305.
  • the G signal includes signal values (pixel values) of a plurality of pixels arranged in the image sensor 306.
  • the B signal includes signal values (pixel values) of a plurality of pixels arranged in the image sensor 307.
  • the IR signal includes a signal value (pixel value) for each of a plurality of pixels arranged in the image sensor 303.
  • the camera head 30a includes the dichroic mirror 301, the excitation light cut filter 302, the image sensor 305 (visible light imaging unit), the image sensor 306 (visible light imaging unit), and the image sensor. 307 (visible light imaging unit) and an image sensor 303 (fluorescence imaging unit).
  • the dichroic mirror 301 divides the first light from the subject 60 into second light and third light.
  • the first light includes visible light, excitation light, and fluorescence.
  • the second light includes visible light.
  • the third light includes excitation light and fluorescence.
  • the second light is incident on the image sensor 305, the image sensor 306, and the image sensor 307.
  • the image sensor 305, the image sensor 306, and the image sensor 307 generate a signal (first image signal) based on visible light.
  • the fluorescence transmittance of the excitation light cut filter 302 is higher than the transmittance of the excitation light of the excitation light cut filter 302.
  • the third light enters the excitation light cut filter 302.
  • the third light transmitted through the excitation light cut filter 302 enters the image sensor 303.
  • the image sensor 303 generates an IR signal (second image signal) based on excitation light and fluorescence.
  • the image sensor 305, the image sensor 306, the image sensor 307, and the image sensor 303 are connected to the signal processing unit 40.
  • the signal processing unit 40 generates a visible light image signal from the R signal, the G signal, and the B signal.
  • the visible light image signal is a signal for displaying a visible light image.
  • the signal processing unit 40 generates a fluorescence image signal from at least one of the R signal, the G signal, and the B signal, and the IR signal.
  • the fluorescence image signal is a signal for displaying a fluorescence image.
  • the display unit 50 includes a monitor 500.
  • the monitor 500 displays a visible light image based on the visible light image signal and a fluorescent image based on the fluorescent image signal.
  • the monitor 500 displays the visible light image and the fluorescent image obtained at the same time side by side.
  • the monitor 500 displays the visible light image and the fluorescent image obtained at the same time in an overlapping manner.
  • the endoscope apparatus 1a includes the camera head 30a (imaging unit) and the signal processing unit 40.
  • the camera head 30a generates a first image signal (R signal, G signal, and B signal) based on visible light from the subject 60.
  • the camera head 30a generates a second image signal (IR signal) based on excitation light and fluorescence from the subject 60.
  • the signal processing unit 40 generates a fluorescence image signal corresponding to fluorescence based on the first image signal and the second image signal.
  • the signal processing unit 40 determines a region of interest in the subject 60 based on the first image signal.
  • the signal processing unit 40 determines the fluorescent region based on the second image signal corresponding to the region of interest.
  • the fluorescent region generates fluorescence in the subject 60.
  • the signal processing unit 40 performs enhancement processing of the second image signal corresponding to the fluorescent region. For this reason, the endoscope apparatus 1a can generate a fluorescent image signal for displaying a fluorescent image in which the fluorescent region shines more clearly.
  • the signal processing unit 40 includes a memory 400, an RGB signal processing unit 401, a region of interest determination unit 402, a fluorescence region determination unit 403, and an IR signal processing unit 404.
  • the memory 400 is a volatile or non-volatile recording medium.
  • the RGB signal processing unit 401, the attention region determination unit 402, the fluorescence region determination unit 403, and the IR signal processing unit 404 are implemented as a processor.
  • the RGB signal processing unit 401, the attention region determination unit 402, the fluorescence region determination unit 403, and the IR signal processing unit 404 are implemented as hardware such as an application specific integrated circuit (ASIC).
  • ASIC application specific integrated circuit
  • Subject characteristic information indicating the characteristics of the subject 60 is recorded in the memory 400. That is, the memory 400 stores subject characteristic information.
  • the subject characteristic information is generated from the first image signal (R signal, G signal, and B signal) of the subject 60.
  • the subject characteristic information is RGB information indicating the spectral reflection characteristics of the subject 60 with respect to visible light.
  • the RGB signal processing unit 401 generates RGB information of each pixel from the first image signal (R signal, G signal, and B signal).
  • the RGB information generated by the RGB signal processing unit 401 is output to the attention area determination unit 402.
  • the attention area determination unit 402 determines the attention area in the subject 60 based on the first image signal (R signal, G signal, and B signal). That is, the attention area determination unit 402 determines an attention area in the subject 60 based on the subject characteristic information (RGB information) recorded in the memory 400 and the RGB information generated by the RGB signal processing unit 401.
  • the attention area information indicating the attention area is output to the fluorescence area determination unit 403.
  • the attention area information includes pixel position information corresponding to the attention area.
  • the fluorescent region determination unit 403 determines the fluorescent region based on the second image signal (IR signal) corresponding to the region of interest. That is, the fluorescent region determination unit 403 determines the fluorescent region based on the second image signal of the pixel indicated by the attention region information. Fluorescence area information indicating the fluorescence area is output to the IR signal processing unit 404.
  • the fluorescent region information includes pixel position information corresponding to the fluorescent region.
  • the IR signal processing unit 404 performs enhancement processing of the second image signal (IR signal) corresponding to the fluorescent region. That is, the IR signal processing unit 404 performs enhancement processing on the second image signal of the pixel indicated by the fluorescent region information.
  • the IR signal processing unit 404 uses the second image signal so that the signal value of the pixel corresponding to the fluorescent region in the second image signal is larger than the signal value of the pixel corresponding to the region other than the fluorescent region. Perform enhancement processing.
  • the subject 60 that is the object of observation by the endoscope apparatus 1a is a human organ.
  • the subject 60 is a large intestine, a small intestine, a stomach, and a liver.
  • ICG is injected into a subject's vein
  • the administered ICG flows through blood vessels and lymphatic vessels. Therefore, attention areas in fluorescence observation using ICG are blood vessels and lymphatic vessels.
  • the spectral reflection characteristics of visible light in regions of interest such as blood vessels and lymphatic vessels are different from the spectral reflection characteristics of visible light in other regions (for example, fat) in the observation target. For this reason, the attention area of the imaged subject 60 can be detected by analyzing the R signal, the G signal, and the B signal.
  • RGB information is a ratio of signal values of R signal, G signal, and B signal. That is, the RGB information includes the ratio of the signal value between the R signal and the G signal and the ratio of the signal value between the R signal and the B signal.
  • the ratio of the signal values of the R signal and the G signal in the attention area is in the range of X1 to X2.
  • X2 is larger than X1.
  • the ratio of the signal values of the R signal and the B signal in the attention area is in the range from Y1 to Y2.
  • Y2 is larger than Y1.
  • the range from X1 to X2 and the range from Y1 to Y2 are recorded in the memory 400 as RGB information.
  • RGB information may be saturation and hue.
  • Saturation is an index representing the vividness of a color.
  • the saturation of achromatic colors black, white, and gray) is zero. As the color becomes brighter, the saturation increases. In other words, the saturation of brighter colors is large.
  • the hue is an index representing the color aspect such as red, yellow, green, blue, and purple. The hue value is different for each color aspect.
  • the RGB signal can be converted into pixel values (hue, saturation, and luminance) in the HIS color space defined by three elements of hue (H), saturation (S), and luminance (I). Each range of saturation and hue is recorded in the memory 400.
  • the R signal output from the image sensor 305, the G signal output from the image sensor 306, the B signal output from the image sensor 307, and the IR signal output from the image sensor 303 are input to the signal processing unit 40. Is done.
  • the R signal, the G signal, and the B signal are input to the RGB signal processing unit 401.
  • the IR signal is input to the fluorescence region determination unit 403.
  • the pixels of the image sensor 305, the image sensor 306, the image sensor 307, and the image sensor 303 correspond to each other. For example, the image sensor 305, the image sensor 306, the image sensor 307, and the image sensor 303 have the same number of pixels.
  • the signal processing unit 40 (RGB signal processing unit 401) generates RGB information of each pixel from the R signal, the G signal, and the B signal. When generating the RGB information, the signal processing unit 40 (RGB signal processing unit 401) performs the following processing.
  • the signal processing unit 40 (RGB signal processing unit 401) generates RGB information of the pixel from the R signal, G signal, and B signal of the corresponding pixel.
  • the RGB information is the ratio of the signal values of the R signal, the G signal, and the B signal
  • the signal processing unit 40 determines the ratio of the signal values of the R signal and the G signal and the R signal and B The ratio of the signal value to the signal is calculated.
  • the signal processing unit 40 (RGB signal processing unit 401) outputs RGB information including the calculated ratio to the attention area determination unit 402.
  • the signal processing unit 40 determines each pixel from the signal value of each pixel of the first image signal (R signal, G signal, and B signal). To calculate the saturation and hue.
  • the signal processing unit 40 (RGB signal processing unit 401) outputs RGB information including the calculated saturation and hue to the attention area determination unit 402.
  • the signal processing unit 40 (RGB signal processing unit 401) generates a visible light image signal from the R signal, the G signal, and the B signal.
  • the signal processing unit 40 may perform image processing such as interpolation processing on at least one of the R signal, the G signal, and the B signal.
  • the signal processing unit 40 (RGB signal processing unit 401) outputs a visible light image signal to the monitor 500.
  • RGB information generated by the signal processing unit 40 may be recorded in the memory 400.
  • a subject 60 including a known attention area is imaged, and an R signal, a G signal, and a B signal are generated.
  • a visible light image based on the visible light image signal of the subject 60 including the known attention area is displayed on the monitor 500. Based on this visible light image, a region of interest is designated by the observer.
  • the signal processing unit 40 (RGB signal processing unit 401) generates RGB information from the R signal, G signal, and B signal corresponding to the region of interest designated by the observer.
  • the signal processing unit 40 calculates the ratio of the signal value of each pixel between the R signal and the G signal in the region of interest and the ratio of the signal value of each pixel between the R signal and the B signal. .
  • the minimum value X1 and the maximum value X2 of the signal value ratio of each pixel of the R signal and G signal in the attention area are recorded in the memory 400 as RGB information.
  • the minimum value Y1 and the maximum value Y2 of the signal value ratio of each pixel of the B signal and the G signal in the attention area are recorded in the memory 400 as RGB information.
  • the signal processing unit 40 calculates the saturation and hue of each pixel in the region of interest. Each range of saturation and hue in the region of interest is recorded in the memory 400 as RGB information.
  • the signal processing unit 40 (the attention area determination unit 402) is based on the subject characteristic information (RGB information) recorded in the memory 400 and the first image signal (R signal, G signal, and B signal). The attention area at is determined.
  • the signal processing unit 40 region of interest determination unit 402 performs the following processing.
  • the signal processing unit 40 (attention area determination unit 402) reads RGB information from the memory 400.
  • the signal processing unit 40 (attention area determination unit 402) compares the RGB information recorded in the memory 400 with the RGB information generated by the RGB signal processing unit 401.
  • the signal processing unit 40 (attention area determination unit 402) determines an attention area in the subject 60 based on the comparison result.
  • FIG. 2 shows the concept of determination of the attention area.
  • the imaging area S ⁇ b> 1 is any one of the image sensor 305, the image sensor 306, and the image sensor 307.
  • an image of the subject 60 based on any one of red light, green light, and blue light is formed.
  • the subject 60 includes an attention area 61.
  • the signal processing unit 40 (the attention area determination unit 402) compares the RGB information recorded in the memory 400 and the RGB information generated by the RGB signal processing unit 401 for each pixel. Accordingly, the signal processing unit 40 (attention area determination unit 402) determines whether or not each pixel is included in the attention area 61.
  • the signal processing unit 40 (attention area determination unit 402) records the ratio calculated by the RGB signal processing unit 401 in the memory 400. It is determined whether or not it is included in the range of the ratio. For example, the signal processing unit 40 (attention area determination unit 402) determines that the signal value ratio Prg between the R signal and the G signal calculated by the RGB signal processing unit 401 is the R signal and the G signal recorded in the memory 400. It is determined whether it is included in the range of the signal value ratio.
  • the range of the signal value ratio between the R signal and the G signal is X1 to X2.
  • the signal processing unit 40 determines that the ratio Prb between the R signal and the B signal calculated by the RGB signal processing unit 401 is the R signal and the B signal recorded in the memory 400. And whether it is included in the range of the signal value ratio.
  • the range of the signal value ratio between the R signal and the B signal is Y1 to Y2.
  • the signal processing unit 40 determines that the pixel to be determined is included in the attention area. .
  • the signal processing unit 40 determines that the pixel to be determined is not included in the attention area. Even when the ratio Prb is less than X1 or more than X2, the signal processing unit 40 (attention area determination unit 402) determines that the pixel to be determined is not included in the attention area.
  • the signal processing unit 40 determines the saturation and hue of each pixel of the first image signal (R signal, G signal, and B signal). Based on the above, the attention area is determined. That is, the signal processing unit 40 (the attention area determination unit 402) determines whether or not the saturation Ps calculated by the RGB signal processing unit 401 is included in the range of the saturation Psm recorded in the memory 400. Similarly, the signal processing unit 40 (region of interest determination unit 402) determines whether or not the hue Ph calculated by the RGB signal processing unit 401 is included in the range of the hue Phm recorded in the memory 400.
  • the signal processing unit 40 determines that the pixel to be determined is included in the attention area. judge.
  • the signal processing unit 40 determines that the pixel to be determined is not included in the attention area.
  • the signal processing unit 40 determines that the pixel to be determined is not included in the attention area.
  • the signal processing unit 40 (attention area determination section 402) generates attention area information based on the determination result of the attention area.
  • the attention area information includes position information of pixels determined to be included in the attention area.
  • the signal processing unit 40 (attention region determination unit 402) outputs the attention region information to the fluorescence region determination unit 403.
  • the signal processing unit 40 determines the fluorescence region based on the signal value of each pixel of the second image signal (IR signal) corresponding to the region of interest. When determining the fluorescent region, the signal processing unit 40 (fluorescent region determining unit 403) performs the following processing.
  • the signal processing unit 40 compares the signal value of the IR signal of each pixel indicated by the attention region information with the reference value ⁇ .
  • the signal processing unit 40 determines the fluorescence region in the attention region of the subject 60 based on the comparison result.
  • the imaging area S2 is an imaging area of the image sensor 303.
  • an image of the subject 60 based on excitation light and fluorescence is formed.
  • the subject 60 includes an attention area 61.
  • the signal processing unit 40 determines a region where the ICG emits light in the attention region 61 and a region where the ICG does not emit light in the attention region 61.
  • the administered ICG is accumulated and fluorescence is generated.
  • the signal value of the IR signal is larger in the lesion area than in the non-lesion area. That is, the IR signal corresponding to a region that is a lesion in the region of interest includes a signal component based on fluorescence and a part of the excitation light. For this reason, the signal value of the IR signal corresponding to the region that is the lesion is large.
  • an IR signal corresponding to a region that is not a lesion in the region of interest includes a signal component based on only a part of the excitation light. For this reason, the signal value of the IR signal corresponding to the non-lesion area is small.
  • the signal processing unit 40 compares the signal value of the IR signal with the reference value ⁇ for each pixel in the region of interest. Thereby, the signal processing unit 40 (fluorescence region determination unit 403) determines whether or not each pixel in the region of interest is included in the fluorescence region.
  • the reference value ⁇ is a signal value based on the excitation light transmitted through the excitation light cut filter 302, that is, a signal value based on the leakage component of the excitation light.
  • the signal processing unit 40 determines that the pixel to be determined is included in the fluorescence area.
  • the signal processing unit 40 determines that the pixel to be determined is not included in the fluorescence region.
  • the reference value ⁇ is determined as follows.
  • a subject 60 including a known region of interest is imaged, and an R signal, a G signal, and a B signal are generated. Further, a visible light image based on the visible light image signal of the subject 60 including the known attention area is displayed on the monitor 500. Based on this visible light image, a region of interest is designated by the observer.
  • the signal processing unit 40 calculates the reflectance of the excitation light from the R signal, the G signal, and the B signal corresponding to the region of interest specified by the observer.
  • the signal processing unit 40 calculates the reflectance of the excitation light in the region of interest for each type of subject 60. For example, the types of the subject 60 are the large intestine, the small intestine, the stomach, and the liver.
  • the excitation light reflectance for each type of subject 60 is recorded in the memory 400.
  • the signal processing unit 40 reads the reflectance of the excitation light corresponding to the type of the subject 60 from the memory 400.
  • the signal processing unit 40 calculates the reflected light intensity of the excitation light in the region of interest based on the intensity of the light source 100 and the reflectance of the excitation light.
  • the calculated reflected light intensity is the reference value ⁇ .
  • the signal processing unit 40 may determine the fluorescence region by comparing the IR signal of each pixel in the region of interest. For example, when the value obtained by subtracting the signal value of the IR signal of the second pixel in the region of interest from the signal value of the IR signal of the first pixel in the region of interest is equal to or greater than the reference value ⁇ , the signal processing unit 40 (fluorescence region The determination unit 403) determines that the first pixel is included in the fluorescent region.
  • the signal processing unit 40 determines that the first pixel is not included in the fluorescent region.
  • the second pixel is a pixel having the smallest IR signal value in the region of interest.
  • the reference value ⁇ is a signal value of the lowest level of the IR signal detected by light emission of ICG administered into the body.
  • the reference value ⁇ is determined based on the type of the subject 60, the excitation light intensity of the light source 100, and the concentration of ICG administered into the body.
  • the reference value ⁇ is determined based on information when the subject 60 including the known attention area is imaged, and the determined reference value ⁇ is recorded in the memory 400.
  • the signal processing unit 40 (fluorescence region determination unit 403) generates fluorescence region information based on the determination result of the fluorescence region.
  • the fluorescent region information includes position information of pixels determined to be included in the fluorescent region.
  • the signal processing unit 40 (fluorescence region determination unit 403) outputs the fluorescence region information to the IR signal processing unit 404.
  • the signal processing unit 40 determines the fluorescence region based on the IR signal of only the region of interest. Thereby, the signal processing unit 40 (fluorescence region determination unit 403) can determine the fluorescence region with high accuracy.
  • the signal processing unit 40 performs enhancement processing of the signal value of each pixel of the second image signal (IR signal) corresponding to the fluorescent region. Thereby, the signal processing unit 40 (IR signal processing unit 404) generates a fluorescence image signal.
  • the signal processing unit 40 performs the following processing.
  • the signal processing unit 40 performs enhancement processing by adding a predetermined value only to the signal value of the IR signal corresponding to the fluorescent region. That is, the signal processing unit 40 (IR signal processing unit 404) adds the predetermined value ⁇ only to the signal value of each pixel of the IR signal corresponding to the fluorescent region.
  • the predetermined value ⁇ is set so as to be larger than 0 and the maximum value of the IR signal after addition is smaller than the saturation signal value.
  • the predetermined value ⁇ may be larger than the signal value of the lowest level IR signal detected when the ICG administered into the body emits light.
  • the IR signal corresponding to the fluorescent region is more emphasized.
  • the signal processing unit 40 may perform enhancement processing by adding a value corresponding to the signal value only to the signal value of the IR signal corresponding to the fluorescent region. That is, the signal processing unit 40 (IR signal processing unit 404) may perform enhancement processing by adding a different value according to the signal value only to the signal value of each pixel of the IR signal corresponding to the fluorescent region. Good.
  • the value to be added is larger than 0 and smaller than the maximum value (saturated signal value) of the IR signal.
  • the signal processing unit 40 adds a larger value to the signal value of a larger IR signal.
  • the signal processing unit 40 may perform the enhancement process by multiplying only the signal value of the IR signal corresponding to the fluorescent region by a predetermined value. That is, the signal processing unit 40 (IR signal processing unit 404) adds the predetermined value ⁇ a only to the signal value of each pixel of the IR signal corresponding to the fluorescent region.
  • the predetermined value ⁇ a is set to be larger than 1 and the maximum value of the IR signal after multiplication is smaller than the saturation signal value.
  • the signal processing unit 40 may perform enhancement processing by multiplying only the signal value of the IR signal corresponding to the fluorescent region by a value corresponding to the signal value. That is, the signal processing unit 40 (IR signal processing unit 404) may perform the enhancement process by multiplying only the signal value of each pixel of the IR signal corresponding to the fluorescent region by a different value according to the signal value. Good.
  • the value to be multiplied is set to be larger than 1 and the maximum value of the IR signal after multiplication is smaller than the saturation signal value.
  • the signal processing unit 40 multiplies the signal value of the larger IR signal by a larger value.
  • the signal value of the IR signal after multiplication and the signal value of the IR signal corresponding to the region other than the fluorescent region And the difference becomes larger. For this reason, the IR signal corresponding to the fluorescent region is more emphasized.
  • the signal value of the larger IR signal By multiplying the signal value of the larger IR signal by a larger value, the difference in the intensity of the IR signal in the fluorescent region becomes larger.
  • the signal processing unit 40 performs enhancement processing of the second image signal (IR signal) corresponding to the fluorescent region, and the second image signal (IR signal) corresponding to the region other than the fluorescent region. ) Reduction processing may be performed. During the reduction process, the signal processing unit 40 (IR signal processing unit 404) performs the following processing.
  • the signal processing unit 40 performs a reduction process by subtracting a predetermined value from only the signal value of the IR signal corresponding to the region other than the fluorescent region. That is, the signal processing unit 40 (IR signal processing unit 404) subtracts the predetermined value ⁇ b from only the signal value of each pixel of the IR signal corresponding to the region other than the fluorescent region.
  • the predetermined value ⁇ b is larger than 0 and smaller than the maximum signal value of the IR signal based on the excitation light component shown in FIG.
  • the signal processing unit 40 may perform the reduction process by multiplying only the signal value of the IR signal corresponding to the region other than the fluorescent region by a value smaller than 1. That is, the signal processing unit 40 (IR signal processing unit 404) may perform the reduction process by multiplying only the signal value of each pixel of the IR signal corresponding to the fluorescent region by a value smaller than 1.
  • the value to be multiplied may be either a constant or a value that differs depending on the signal value of the IR signal.
  • the signal processing unit 40 (IR signal processing unit 404) outputs a fluorescence image signal to the monitor 500.
  • the fluorescent image signal includes an IR signal corresponding to a region other than the fluorescent region and an IR signal subjected to enhancement processing corresponding to the fluorescent region.
  • the imaging device includes a light source unit 10, an endoscope scope unit 20, an imaging lens 300, a dichroic mirror 301, an excitation light cut filter 302, a dichroic prism 304, and a display unit 50. It is not necessary to have a configuration corresponding to at least one of the above.
  • the signal processing unit 40 determines a region of interest in the subject 60 based on the R signal, the G signal, and the B signal.
  • the signal processing unit 40 determines the fluorescent region based on the IR signal corresponding to the region of interest.
  • the signal processing unit 40 performs enhancement processing of the IR signal corresponding to the fluorescent region. For this reason, the endoscope apparatus 1a can generate a fluorescent image signal for displaying a fluorescent image in which the fluorescent region shines more clearly.
  • the signal processing unit 40 performs addition or multiplication only on the signal value of the IR signal corresponding to the fluorescent region. As a result, the fluorescent region becomes more conspicuous in the fluorescent image than the other regions.
  • the endoscope apparatus 1a acquires the R signal, the G signal, the B signal, and the IR signal separately. For this reason, the endoscope apparatus 1a can acquire a visible light image and a fluorescence image with high resolution. Further, the endoscope apparatus 1a can simultaneously perform imaging of visible light and imaging of infrared light.
  • the signal processing unit 40 determines a region of interest based on the saturation and hue of each pixel of the R signal, the G signal, and the B signal. Thereby, the attention area can be determined from the saturation and the hue.
  • the signal processing unit 40 (the attention area determination unit 402) is an area of each pixel corresponding to the correlation between the signal value of each pixel of the first image signal (R signal, G signal, and B signal) and the reference value. A determination coefficient is calculated.
  • the reference value corresponds to a value expected as the signal value of the first image signal corresponding to the attention area.
  • the signal processing unit 40 (attention area determination section 402) determines an attention area based on the area determination coefficient calculated for each pixel.
  • the area determination coefficient indicates the likelihood of the attention area in each pixel.
  • the signal processing unit 40 (attention area determination section 402) determines the possibility that each pixel belongs to the attention area based on the area determination coefficient. Thereby, the signal processing unit 40 (attention area determination unit 402) can determine the attention area according to the probability of the attention area.
  • the signal processing unit 40 (region of interest determination unit 402) multiplies the signal value of each pixel of the second image signal (IR signal) subjected to the enhancement processing by the region determination coefficient of each pixel.
  • the area determination coefficient of each pixel when each pixel of the first image signal is included in the attention area is larger than the area determination coefficient of each pixel when each pixel of the first image signal is not included in the attention area. . Therefore, by multiplying the signal value of the second image signal by the region determination coefficient, the ratio of the signal value of the pixel included in the target region and the fluorescent region to the signal value of the pixel not included in the target region. Becomes larger. As a result, in the fluorescent image, the fluorescent region becomes more conspicuous than other regions.
  • the signal processing unit 40 When calculating the region determination coefficient, the signal processing unit 40 (attention region determination unit 402) performs the following processing.
  • the signal processing unit 40 (attention area determination unit 402) reads a reference value from the memory 400.
  • the signal processing unit 40 (attention area determination unit 402) compares the reference value recorded in the memory 400 with the RGB information generated by the RGB signal processing unit 401.
  • the signal processing unit 40 (the attention area determination unit 402) calculates the degree of correlation based on the comparison result.
  • the signal processing unit 40 (attention area determination unit 402) calculates an area determination coefficient based on the calculated degree of correlation.
  • the RGB information generated by the RGB signal processing unit 401 includes the signal value ratio X3 of the R signal and the G signal of each pixel.
  • the ratio Y3 of the signal value of the R signal and B signal of each pixel are the signal value ratio X5 between the R signal and the G signal in the attention area and the signal value ratio Y5 between the R signal and the B signal in the attention area.
  • the ratio of the signal values of the R signal and the G signal in the attention area is in the range of X1 to X2.
  • X5 is a representative value in the range of X1 to X2.
  • the ratio of the signal values of the B signal and the G signal in the attention area is in the range from Y1 to Y2.
  • Y5 is a representative value in the range from Y1 to Y2.
  • the signal processing unit 40 compares the combination of the ratio X3 and the ratio Y3 of each pixel with the combination of the ratios X5 and Y5 which are reference values, and calculates the degree of correlation. For example, the signal processing unit 40 (the attention area determination unit 402) calculates the Euclidean distance between (X3, Y3) and (X5, Y5). The calculated Euclidean distance indicates the degree of correlation between the signal value of each pixel of the R signal, the G signal, and the B signal and the reference value. When the Euclidean distance is small, the degree of correlation is high. When the Euclidean distance is large, the degree of correlation is low.
  • the signal processing unit 40 calculates an area determination coefficient for each pixel based on the degree of correlation of each pixel.
  • the region determination coefficient of each pixel is a value from 0 to 1.
  • the degree of correlation is high, that is, when there is a high possibility that each pixel is included in the region of interest, the region determination coefficient is close to 1.
  • the degree of correlation is low, that is, when there is a high possibility that each pixel is not included in the attention area, the area determination coefficient is close to zero. That is, the area determination coefficient has a weight corresponding to the degree of correlation.
  • the signal processing unit 40 (region of interest determination unit 402) compares the region determination coefficient of each pixel with the reference value ⁇ .
  • the reference value ⁇ is a value larger than 0 and smaller than 1. Accordingly, the signal processing unit 40 (attention area determination unit 402) determines whether or not each pixel is included in the attention area.
  • the signal processing unit 40 determines that the determination target pixel is included in the attention region.
  • the signal processing unit 40 determines that the pixel to be determined is not included in the attention region.
  • the ratio X5 and the ratio Y5 that are reference values are determined as follows.
  • the signal processing unit 40 RGB signal processing unit 401 can acquire a representative spectral distribution of visible light reflected from the region of interest and incident on the image sensor.
  • the known information includes the spectral distribution of light emitted from the light source 100, the spectral transmittance depending on the optical system of the endoscope apparatus 1a, and the spectral reflection characteristics of the region of interest.
  • the signal processing unit 40 calculates a representative ratio X5 and a ratio Y5 in the region of interest based on a representative spectral distribution of visible light.
  • the calculated ratio X5 and ratio Y5 are recorded in the memory 400.
  • the signal processing unit 40 displays a representative ratio in the attention area based on the R signal, the G signal, and the B signal generated when the subject 60 including the known attention area is imaged.
  • X5 and ratio Y5 may be calculated.
  • the reference value ⁇ is determined as follows.
  • the ratio X5 and the ratio Y5 are representative values in the attention area.
  • the ratio X3 and the ratio X5 of the signal values of the R signal and the G signal in the attention area are not necessarily the same due to noise generated in the image sensor and unevenness of the light emitted from the light source 100.
  • the ratio Y3 and the ratio Y5 of the signal values of the R signal and the B signal in the attention area are not necessarily the same. That is, the ratio X3 and the ratio Y3 detected in the attention area have variations. Even when the ratio X3 and the ratio Y3 in the attention area vary, the reference value ⁇ is determined so that most of the pixels corresponding to the attention area are determined to be the attention area.
  • the signal processing unit 40 performs each pixel in the attention area based on the R signal, the G signal, and the B signal generated when the subject 60 including the known attention area is imaged.
  • the ratio X3 and the ratio Y3 are calculated.
  • the signal processing unit 40 calculates the degree of correlation between the ratio X3 and ratio Y3 of each pixel in the region of interest and the ratio X5 and ratio Y5 that are reference values.
  • the signal processing unit 40 determines the reference value ⁇ based on the distribution of the correlation degree of each pixel.
  • the signal processing unit 40 determines a combination of saturation and hue of each pixel and a combination of saturation and hue that are reference values. Compare and calculate the degree of correlation. The calculation of the region determination coefficient based on the degree of correlation and the determination of the attention region based on the region determination coefficient are the same as the above-described processes.
  • the signal processing unit 40 determines the fluorescence region by a method similar to the method in the first embodiment.
  • the signal processing unit 40 (fluorescence region determination unit 403) generates fluorescence region information based on the determination result of the fluorescence region.
  • the fluorescent region information includes position information of pixels determined to be included in the fluorescent region.
  • the signal processing unit 40 (fluorescence region determination unit 403) outputs the fluorescence region information and the region determination coefficient of each pixel to the IR signal processing unit 404.
  • the signal processing unit 40 performs the enhancement processing in the first embodiment on the second image signal (IR signal). That is, the signal processing unit 40 (IR signal processing unit 404) performs enhancement processing by adding or multiplying a predetermined value only to the signal value of the IR signal corresponding to the fluorescent region.
  • the signal processing unit 40 may perform enhancement processing by adding or multiplying only the signal value of the IR signal corresponding to the fluorescent region by a value corresponding to the signal value.
  • the signal processing unit 40 (IR signal processing unit 404) performs the following processing.
  • the signal processing unit 40 (the attention area determination unit 402) multiplies the signal value of each pixel of the IR signal subjected to the enhancement process by the area determination coefficient of each pixel.
  • the signal value of the IR signal corresponding to the same pixel is multiplied by the region determination coefficient.
  • the region determination coefficient of each pixel is a value from 0 to 1.
  • the area determination coefficient is close to 1.
  • the area determination coefficient is close to zero.
  • the ratio Pr1 between the signal value Sir1 of the IR signal of the pixel P1 corresponding to the region of interest and the fluorescent region and the signal value Sir2 of the IR signal of the pixel P2 corresponding to the region other than the region of interest is expressed by Expression (1).
  • the Pr1 Sir1 / Sir2 (1)
  • the area determination coefficient of the pixel P1 is a1, and the area determination coefficient of the pixel P2 is a2.
  • the signal value of the IR signal is multiplied by the region determination coefficient
  • the ratio Pr2 to the value Sir2 ′ is expressed by the formula (2).
  • the area determination coefficient a1 is larger than the area determination coefficient a2.
  • the ratio Pr2 is larger than the ratio Pr1. That is, by multiplying the signal value of the IR signal by the region determination coefficient, the fluorescent region becomes more conspicuous in the fluorescent image than other regions.
  • the signal processing unit 40 (IR signal processing unit 404) outputs a fluorescence image signal to the monitor 500.
  • the fluorescent image signal includes an IR signal corresponding to a region other than the fluorescent region, and an IR signal corresponding to the fluorescent region and subjected to enhancement processing and multiplication of the region determination coefficient.
  • the signal processing unit 40 may perform enhancement processing and reduction processing in the first embodiment.
  • the multiplication of the signal value of each pixel of the IR signal and the area determination coefficient of each pixel is not essential.
  • the operation of the endoscope apparatus 1a in the second embodiment is the same as the operation of the endoscope apparatus 1a in the first embodiment.
  • the endoscope apparatus 1a can generate a fluorescence image signal for displaying a fluorescence image in which the fluorescence region shines more clearly.
  • the signal processing unit 40 calculates a region determination coefficient of each pixel according to the correlation between the signal value of each pixel of the R signal, the G signal, and the B signal and the reference value.
  • the signal processing unit 40 determines the region of interest based on the region determination coefficient. Thereby, the signal processing unit 40 can determine the attention area according to the probability of the attention area.
  • the signal processing unit 40 multiplies the signal value of each pixel of the IR signal subjected to the enhancement process by the area determination coefficient of each pixel. Thereby, the endoscope apparatus 1a can generate a fluorescence image signal for displaying a fluorescence image in which the fluorescence region shines more clearly.
  • FIG. 5 shows a configuration of an endoscope apparatus 1b according to a first modification of the first embodiment and the second embodiment of the present invention.
  • the endoscope apparatus 1 b includes a light source unit 10, an endoscope scope unit 20, a camera head 30 b (imaging unit), a signal processing unit 40, and a display unit 50.
  • FIG. 5 shows a schematic configuration of the light source unit 10, the endoscope scope unit 20, and the camera head 30b.
  • the configuration shown in FIG. 5 will be described while referring to differences from the configuration shown in FIG.
  • the camera head 30b includes an imaging lens 300, an excitation light cut filter 308, and an image sensor 309 (visible light imaging unit and fluorescence imaging unit).
  • the imaging lens 300 is the same as the imaging lens 300 shown in FIG.
  • the first light that has passed through the imaging lens 300 that is, the first light from the subject 60 enters the excitation light cut filter 308.
  • the light incident on the excitation light cut filter 308 includes visible light and infrared light. Visible light includes red light, green light, and blue light. Infrared light includes excitation light and fluorescence.
  • the excitation light cut filter 308 blocks excitation light and transmits fluorescence and visible light.
  • FIG. 6 shows the transmission characteristics of the excitation light cut filter 308.
  • the horizontal axis of the graph shown in FIG. 6 is the wavelength, and the vertical axis is the transmittance.
  • the excitation light cut filter 308 blocks light in a wavelength band having a wavelength of about 700 nm to about 800 nm.
  • the excitation light cut filter 308 transmits light in a wavelength band having a wavelength of less than about 700 nm and light in a wavelength band having a wavelength of about 800 nm or more.
  • the wavelength band of light blocked by the excitation light cut filter 308 includes the wavelength band of excitation light.
  • the wavelength band of light transmitted by the excitation light cut filter 308 includes a visible light wavelength band and a fluorescent wavelength band.
  • the cutoff characteristic of the excitation light cut filter 308 with respect to the excitation light is not perfect.
  • the excitation light cut filter 308 blocks a part of the wavelength band of the excitation light and transmits the remaining light, fluorescence, and visible light in the wavelength band of the excitation light.
  • the image sensor 309 outputs an R signal (first image signal) based on red light, a G signal (first image signal) based on green light, and a B signal (first image signal) based on blue light. Generate. Further, the image sensor 309 generates an IR signal (second image signal) based on excitation light and fluorescence.
  • FIG. 7 shows a pixel array of the image sensor 309.
  • the image sensor 309 includes a plurality of pixels 309R, a plurality of pixels 309G, a plurality of pixels 309B, and a plurality of pixels 309IR.
  • the plurality of pixels 309R, the plurality of pixels 309G, the plurality of pixels 309B, and the plurality of pixels 309IR are arranged in a matrix.
  • reference numerals of one pixel 309R, one pixel 309G, one pixel 309B, and one pixel 309IR are shown as representatives.
  • One pixel 309R, one pixel 309G, one pixel 309B, and one pixel 309IR constitute a unit array.
  • a plurality of unit arrays are periodically arranged in a two-dimensional manner.
  • a filter that transmits red light is disposed on the surface of the plurality of pixels 309R.
  • a filter that transmits green light is disposed on the surface of the plurality of pixels 309G.
  • a filter that transmits blue light is disposed on the surface of the plurality of pixels 309B.
  • Filters that transmit fluorescence are arranged on the surfaces of the plurality of pixels 309IR.
  • the plurality of pixels 309R generates an R signal based on red light.
  • the plurality of pixels 309G generate a G signal based on green light.
  • the plurality of pixels 309IR generates an IR signal based on fluorescence. Therefore, the plurality of pixels 309R, the plurality of pixels 309G, and the plurality of pixels 309B constitute a visible light imaging unit.
  • the plurality of pixels 309IR form a fluorescence imaging unit.
  • FIG. 8 shows a configuration of an endoscope apparatus 1c according to a second modification of the first embodiment and the second embodiment of the present invention.
  • the endoscope apparatus 1c includes a light source unit 10c, an endoscope scope unit 20, a camera head 30c (imaging unit), a signal processing unit 40, and a display unit 50.
  • FIG. 8 shows a schematic configuration of the light source unit 10c, the endoscope scope unit 20, and the camera head 30c.
  • the light source unit 10 c includes a light source 100, a band pass filter 101, a condenser lens 102, a band limiting filter 103, and an RGB rotation filter 104.
  • the light source 100 is the same as the light source 100 shown in FIG.
  • the bandpass filter 101 is the same as the bandpass filter 101 shown in FIG.
  • the condenser lens 102 is the same as the condenser lens 102 shown in FIG.
  • the band limiting filter 103 includes a first filter and a second filter.
  • the first filter transmits only visible light.
  • the second filter transmits only excitation light.
  • the band limiting filter 103 is a rotary filter.
  • One of the first filter and the second filter is disposed in the optical path. When imaging visible light, the first filter is disposed in the optical path.
  • the band limiting filter 103 transmits visible light. When imaging fluorescence, the second filter is disposed in the optical path.
  • the band limiting filter 103 transmits the excitation light.
  • the light that has passed through the band limiting filter 103 is incident on the RGB rotation filter 104.
  • the RGB rotation filter 104 includes a third filter, a fourth filter, and a fifth filter.
  • the third filter blocks green light and blue light and transmits red light and excitation light.
  • the fourth filter blocks red light and blue light and transmits green light and excitation light.
  • the fifth filter blocks red light and green light and transmits blue light and excitation light.
  • the RGB rotation filter 104 is a rotary filter.
  • a third filter, a fourth filter, and a fifth filter are sequentially arranged in the optical path. When imaging visible light, the RGB rotation filter 104 sequentially transmits red light, green light, and blue light. When imaging fluorescence, the RGB rotation filter 104 transmits excitation light.
  • the camera head 30c includes an imaging lens 300, an excitation light cut filter 308, and an image sensor 310 (visible light imaging unit and fluorescence imaging unit).
  • the imaging lens 300 is the same as the imaging lens 300 shown in FIG.
  • the excitation light cut filter 308 is the same as the excitation light cut filter 308 shown in FIG.
  • the image sensor 310 has sensitivity to visible light and fluorescence. When imaging visible light, red light, green light, and blue light sequentially pass through the excitation light cut filter 308. The image sensor 310 sequentially generates an R signal based on red light, a G signal based on green light, and a B signal based on blue light. When imaging fluorescence, excitation light and fluorescence are transmitted through the excitation light cut filter 308. The image sensor 310 generates an IR signal based on excitation light and fluorescence.
  • the image sensor 310 can generate the R signal, the G signal, the B signal, and the IR signal at different timings.
  • the imaging apparatus can generate a fluorescent image signal for displaying a fluorescent image in which the fluorescent region shines more clearly.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)

Abstract

撮像装置は、撮像部と、信号処理部とを有する。前記撮像部は、被写体からの可視光に基づく第1の画像信号を生成し、かつ前記被写体からの励起光と蛍光とに基づく第2の画像信号を生成する。前記信号処理部は、前記第1の画像信号と前記第2の画像信号とに基づいて、前記蛍光に対応する蛍光画像信号を生成する。前記信号処理部は、前記第1の画像信号に基づいて、前記被写体における注目領域を判定する。前記信号処理部は、前記注目領域に対応する前記第2の画像信号に基づいて、蛍光領域を判定し、前記蛍光領域は、前記被写体において前記蛍光を発生する。前記信号処理部は、前記蛍光領域に対応する前記第2の画像信号の強調処理を行う。

Description

撮像装置
 本発明は、撮像装置に関する。
 可視光を用いた通常観察に加えて、赤外光を用いた特殊光観察が可能な内視鏡システムが広く利用されている。この内視鏡システムでは、通常観察または特殊光観察により発見された病変部を処置具で治療することが可能である。
 例えば、特許文献1に開示された内視鏡システムでは、励起光が、インドシアニングリーン(ICG)という蛍光物質に照射され、病変部からの蛍光が検出される。ICGは、予め検査対象者の体内に投与される。ICGは、励起光によって赤外領域で励起され、蛍光を発する。投与されたICGは、癌などの病変部に集積される。病変部から強い蛍光が発生するため、検査者は撮像された蛍光画像に基づいて病変部の有無を判断することができる。
 特許文献1に開示された内視鏡システムでは、可視光と赤外光とを含む光が被写体に照射される。被写体に照射される赤外光の波長帯域は、蛍光の波長帯域を含まず、かつ励起光の波長帯域を含む。被写体によって反射された光と、被写体から発生した蛍光(赤外蛍光)とが、カメラヘッド内に内蔵されたダイクロイックミラーまたはダイクロイックプリズムを介して撮像される。可視光と蛍光とを分割する分割手段が設けられているため、可視光を用いる通常観察と、赤外光を用いる特殊光観察とを同時に行うことができる。また、ダイクロイックミラーまたはダイクロイックプリズムを介して、蛍光と、赤色光と、緑色光と、青色光とがそれぞれ異なるイメージセンサにより撮像される。このため、高画質な画像を得ることができる。
 図9は、特許文献1に開示された構成と同様の内視鏡装置1001の構成を示している。図9に示すように、内視鏡装置1001は、光源部1010と、内視鏡スコープ部1020と、カメラヘッド1030と、プロセッサ1040と、モニタ1050とを有する。図9では、光源部1010と、内視鏡スコープ部1020と、カメラヘッド1030との概略構成が示されている。
 光源部1010は、光源1100と、バンドパスフィルタ1101と、コンデンサレンズ1102とを有する。光源1100は、可視光の波長帯域から赤外光の波長帯域までの波長の光を発する。赤外光の波長帯域は、励起光の波長帯域と蛍光の波長帯域とを含む。蛍光の波長帯域は、赤外光の波長帯域において励起光の波長帯域よりも波長が長い帯域である。バンドパスフィルタ1101は、光源1100の照明光路中に設けられている。バンドパスフィルタ1101は、可視光と励起光とのみを透過させる。コンデンサレンズ1102は、バンドパスフィルタ1101を透過した光を集光する。光源1100が発する赤外光の波長帯域は、少なくとも励起光の波長帯域を含んでいればよい。
 図10は、バンドパスフィルタ1101の透過特性を示している。図10に示すグラフの横軸は波長であり、縦軸は透過率である。バンドパスフィルタ1101は、波長が約370nmから約800nmである波長帯域の光を透過させる。また、バンドパスフィルタ1101は、波長が約370nm未満である波長帯域の光と、波長が約800nm以上である波長帯域の光とを遮断する。バンドパスフィルタ1101が透過させる光の波長帯域は、可視光の波長帯域と励起光の波長帯域とを含む。励起光の波長帯域は、波長が約750nmから約780nmの帯域である。バンドパスフィルタ1101が遮断する光の波長帯域は、蛍光の波長帯域を含む。蛍光の波長帯域は、波長が約800nmから約900nmの帯域である。
 内視鏡スコープ部1020は、ライトガイド1200と、照明レンズ1201と、対物レンズ1202と、イメージガイド1203とを有する。光源1100からの光は、バンドパスフィルタ1101とコンデンサレンズ1102とを介して、ライトガイド1200に入射する。ライトガイド1200は、光源1100からの光を内視鏡スコープ部1020の先端部に伝送する。ライトガイド1200によって伝送された光は、照明レンズ1201により被写体1060に照射される。
 内視鏡スコープ部1020の先端部において、照明レンズ1201に隣接して対物レンズ1202が設けられている。被写体1060によって反射された光と、被写体1060から発生した蛍光とが対物レンズ1202に入射する。被写体1060によって反射された光は、可視光と励起光とを含む。つまり、被写体1060からの可視光の波長帯域の反射光と、励起光の波長帯域の反射光と、被写体1060から発光した蛍光とを含む光が対物レンズ1202に入射する。対物レンズ1202は、上記の光を結像する。
 対物レンズ1202の結像位置にはイメージガイド1203の先端面が配置されている。イメージガイド1203は、その先端面に結像された光学像を後端面に伝送する。
 カメラヘッド1030は、結像レンズ1300と、ダイクロイックミラー1301と、励起光カットフィルタ1302と、イメージセンサ1303と、ダイクロイックプリズム1304と、イメージセンサ1305と、イメージセンサ1306と、イメージセンサ1307とを有する。結像レンズ1300は、イメージガイド1203の後端面に対向するように配置されている。結像レンズ1300は、イメージガイド1203により伝送された光学像をイメージセンサ1303と、イメージセンサ1305と、イメージセンサ1306と、イメージセンサ1307とに結像する。
 結像レンズ1300から結像レンズ1300の結像位置までの光路にダイクロイックミラー1301が配置されている。結像レンズ1300を通過した光は、ダイクロイックミラー1301に入射する。ダイクロイックミラー1301は、可視光を透過させ、可視光以外の光を反射する。図11は、ダイクロイックミラー1301の反射と透過との特性を示している。図11に示すグラフの横軸は波長であり、縦軸は透過率である。ダイクロイックミラー1301は、波長が約700nm未満である波長帯域の光を透過させる。また、ダイクロイックミラー1301は、波長が約700nm以上である波長帯域の光を反射する。ダイクロイックミラー1301が透過させる光の波長帯域は、可視光の波長帯域を含む。また、ダイクロイックミラー1301が反射する光の波長帯域は、赤外光の波長帯域を含む。
 ダイクロイックミラー1301を透過した光の結像位置では、可視光成分の光学像が結像される。一方、ダイクロイックミラー1301により反射された光の結像位置には、赤外光成分の光学像が結像される。
 ダイクロイックミラー1301により反射された光は、励起光カットフィルタ1302に入射する。励起光カットフィルタ1302に入射する光は、赤外光を含む。赤外光は、励起光と蛍光とを含む。励起光カットフィルタ1302は、励起光を遮断し、蛍光を透過させる。図12は、励起光カットフィルタ1302の透過特性を示している。図12に示すグラフの横軸は波長であり、縦軸は透過率である。励起光カットフィルタ1302は、波長が約800nm未満である波長帯域の光を遮断する。また、励起光カットフィルタ1302は、波長が約800nm以上である波長帯域の光を透過させる。励起光カットフィルタ1302が遮断する光の波長帯域は、励起光の波長帯域を含む。励起光カットフィルタ1302が透過させる光の波長帯域は、蛍光の波長帯域を含む。
 励起光カットフィルタ1302を透過した蛍光はイメージセンサ1303に入射する。イメージセンサ1303は、蛍光に基づくIR信号を生成する。
 図13は、被写体1060に投与されるICGの特性を示している。図13に示すグラフの横軸は波長であり、縦軸は強度である。図13では、ICGを励起する励起光の特性と、ICGが発する蛍光の特性とが示されている。励起光のピーク波長は約770nmであり、蛍光のピーク波長は約820nmである。したがって、波長が約750nmから約780nmである励起光が被写体1060に照射された場合、波長が約800nmから約900nmである蛍光が被写体1060から発生する。被写体1060から発生した蛍光を検出することにより、癌の有無を検出することができる。図10に示すように、バンドパスフィルタ1101は、波長が約750nmから約780nmである励起光を透過させ、波長が約800nmから約900nmである蛍光を遮断する。また、図12に示すように、励起光カットフィルタ1302は、波長が約750nmから約780nmである励起光を遮断する。
 ダイクロイックミラー1301を透過した、可視光の波長帯域の光は、ダイクロイックプリズム1304に入射する。ダイクロイックプリズム1304は、可視光の波長帯域の光を、赤波長帯域の光(赤色光)と、緑波長帯域の光(緑色光)と、青波長帯域の光(青色光)とに分割する。ダイクロイックプリズム1304を通過した赤色光はイメージセンサ1305に入射する。イメージセンサ1305は、赤色光に基づくR信号を生成する。ダイクロイックプリズム1304を通過した緑色光はイメージセンサ1306に入射する。イメージセンサ1306は、緑色光に基づくG信号を生成する。ダイクロイックプリズム1304を通過した青色光はイメージセンサ1307に入射する。イメージセンサ1307は、青色光に基づくB信号を生成する。
 プロセッサ1040は、R信号と、G信号と、B信号とから可視光画像信号を生成し、IR信号から蛍光画像信号を生成する。モニタ1050は、可視光画像信号に基づく可視光画像と、蛍光画像信号に基づく蛍光画像とを表示する。例えば、モニタ1050は、同じ時刻で取得された可視光画像と蛍光画像とを並べて表示する。あるいは、モニタ1050は、同じ時刻で取得された可視光画像と蛍光画像とを重ねて表示する。
日本国特開平10-201707号公報
 図9に示す内視鏡装置1001では、イメージセンサ1303が、ダイクロイックミラー1301により反射された光のうち、被写体1060からの励起光の波長帯域の反射光を検出せず、かつ蛍光のみを検出できるように、イメージセンサ1303の前に励起光カットフィルタ1302が配置されている。しかし、励起光の波長帯域の光を完全に遮断できる励起光カットフィルタ1302の製造が難しい。このため、イメージセンサ1303は、蛍光帯域の光と、励起光カットフィルタ1302が遮断できなかった、励起光の波長帯域の残りの光とを検出する。
 図14は、イメージセンサ1303に入射する光のエネルギー分布の概略を示している。図14に示すグラフの横軸は波長であり、縦軸は入射エネルギーである。図14に示すように、イメージセンサ1303に入射する光の波長帯域は、波長が約700nmから約800nmの励起光の波長帯域と、波長が約800nmから約900nmの蛍光帯域とを含む。つまり、被写体1060から発せられた蛍光と、励起光カットフィルタ1302が遮断できなかった、励起光の波長帯域の一部の光とがイメージセンサ1303に入射する。
 被写体1060から発生する蛍光は、励起光に比べて微弱である。このため、励起光カットフィルタ1302が遮断できなかった、励起光の波長帯域の一部の光がイメージセンサ1303に入射する場合、イメージセンサ1303の第1の画素で生成されるIR信号の信号値がイメージセンサ1303の第2の画素で生成されるIR信号の信号値よりも大きい場合がある。第1の画素は、蛍光を発してなく、かつ励起光の反射率が高い被写体からの光が入射する画素である。第2の画素は、蛍光を発し、かつ励起光の反射率が低い被写体からの光が入射する画素である。このため、蛍光を発していない被写体1060の領域からの光が入射するイメージセンサ1303の画素で生成されたIR信号の信号値が大きい場合がある。この結果、蛍光画像において、蛍光を発していない被写体1060の領域が明るく表示される場合がある。
 励起光カットフィルタ1302を透過した励起光がイメージセンサ1303の受光面に一様に入射する場合、イメージセンサ1303の各画素において生成される、励起光に基づく信号成分は一様である。このため、プロセッサ1040は、イメージセンサ1303の各画素において生成されたIR信号から励起光に基づくオフセット成分を差し引くことにより、蛍光のみに基づくIR信号を算出することができる。
 しかし、イメージセンサ1303の撮像領域では、複数の異なる被写体が存在し、かつ励起光の波長帯域における各被写体の反射率が異なる。このため、励起光カットフィルタ1302を透過した励起光は、イメージセンサ1303の受光面に一様に入射しない。つまり、イメージセンサ1303の各画素において生成される、励起光に基づく信号成分は一様でない。この結果、プロセッサ1040は、励起光と蛍光とに基づくIR信号から、蛍光のみに基づくIR信号を算出することが難しい。
 以上の事情から、蛍光を観察する内視鏡装置において、蛍光を発する蛍光領域がより鮮明に光る蛍光画像を生成することが難しい。
 本発明は、蛍光領域がより鮮明に光る蛍光画像を表示するための蛍光画像信号を生成することができる撮像装置を提供することを目的とする。
 本発明の第1の態様によれば、撮像装置は、撮像部と、信号処理部とを有する。前記撮像部は、被写体からの可視光に基づく第1の画像信号を生成し、かつ前記被写体からの励起光と蛍光とに基づく第2の画像信号を生成する。前記信号処理部は、前記第1の画像信号と前記第2の画像信号とに基づいて、前記蛍光に対応する蛍光画像信号を生成する。前記信号処理部は、前記第1の画像信号に基づいて、前記被写体における注目領域を判定する。前記信号処理部は、前記注目領域に対応する前記第2の画像信号に基づいて、蛍光領域を判定し、前記蛍光領域は、前記被写体において前記蛍光を発生する。前記信号処理部は、前記蛍光領域に対応する前記第2の画像信号の強調処理を行う。
 本発明の第2の態様によれば、第1の態様において、前記信号処理部は、前記蛍光領域に対応する前記第2の画像信号の信号値のみに所定値を加算または乗算することにより前記強調処理を行ってもよい。
 本発明の第3の態様によれば、第1の態様において、前記信号処理部は、前記蛍光領域に対応する前記第2の画像信号の信号値のみに、前記信号値に応じた値を加算または乗算することにより前記強調処理を行ってもよい。
 本発明の第4の態様によれば、第1の態様において、前記信号処理部は、前記第1の画像信号の各画素の信号値と、基準値との相関度に応じた各画素の領域判定係数を算出してもよい。前記基準値は、前記注目領域に対応する前記第1の画像信号の信号値として期待される値に対応する。前記信号処理部は、前記領域判定係数に基づいて、前記注目領域を判定してもよい。
 本発明の第5の態様によれば、第4の態様において、前記信号処理部は、前記強調処理が行われた前記第2の画像信号の各画素の信号値と前記各画素の領域判定係数とを乗算してもよい。
 本発明の第6の態様によれば、第1の態様において、前記撮像部はダイクロイックミラーと、可視光撮像部と、励起光カットフィルタと、蛍光撮像部とを有してもよい。前記ダイクロイックミラーは、前記被写体からの第1の光を第2の光と第3の光とに分割する。前記第1の光は前記可視光と前記励起光と前記蛍光とを含む。前記第2の光は前記可視光を含む。前記第3の光は前記励起光と前記蛍光とを含む。前記可視光撮像部は、前記第2の光が入射し、かつ前記第1の画像信号を生成する。前記励起光カットフィルタは、前記蛍光の透過率が前記励起光の透過率よりも高く、かつ前記第3の光が入射する。前記蛍光撮像部は、前記励起光カットフィルタを透過した前記第3の光が入射し、かつ前記第2の画像信号を生成する。前記可視光撮像部と前記蛍光撮像部とは、前記信号処理部に接続されてもよい。
 本発明の第7の態様によれば、第1の態様において、前記信号処理部は、メモリと、注目領域判定部とを有してもよい。前記被写体の特性を示す被写体特性情報が前記メモリに記録される。前記被写体特性情報は前記被写体の前記第1の画像信号から生成される。前記注目領域判定部は、前記メモリに記録された前記被写体特性情報と前記第1の画像信号とに基づいて、前記注目領域を判定する。
 本発明の第8の態様によれば、第1の態様において、前記信号処理部は、前記第1の画像信号の各画素の信号値から前記各画素の彩度と色相とを算出してもよい。前記信号処理部は、前記各画素の前記彩度と前記色相とに基づいて、前記注目領域を判定してもよい。
 上記の各態様によれば、信号処理部は、第1の画像信号に基づいて、被写体における注目領域を判定する。信号処理部は、注目領域に対応する第2の画像信号に基づいて、蛍光領域を判定する。信号処理部は、蛍光領域に対応する第2の画像信号の強調処理を行う。このため、撮像装置は、蛍光領域がより鮮明に光る蛍光画像を表示するための蛍光画像信号を生成することができる。
本発明の第1の実施形態の内視鏡装置の構成を示すブロック図である。 本発明の第1の実施形態における注目領域の判定の概念を示す参考図である。 本発明の第1の実施形態における蛍光領域の判定の概念を示す参考図である。 本発明の第1の実施形態における蛍光領域の判定の概念を示す参考図である。 本発明の第1の実施形態と第2の実施形態との第1の変形例の内視鏡装置の構成を示すブロック図である。 本発明の第1の実施形態と第2の実施形態との第1の変形例の励起光カットフィルタの特性を示すグラフである。 本発明の第1の実施形態と第2の実施形態との第1の変形例のイメージセンサの画素配列を示す参考図である。 本発明の第1の実施形態と第2の実施形態との第2の変形例の内視鏡装置の構成を示すブロック図である。 従来技術の内視鏡装置の構成を示すブロック図である。 バンドパスフィルタの特性を示すグラフである。 ダイクロイックミラーの特性を示すグラフである。 励起光カットフィルタの特性を示すグラフである。 インドシアニングリーン(ICG)の特性を示すグラフである。 イメージセンサに入射する光のエネルギー分布を示すグラフである。
 図面を参照し、本発明の実施形態を説明する。以下の各実施形態では、撮像装置の一例である内視鏡装置について説明する。本発明は、撮像機能を有する装置、システム、およびモジュール等に適用可能である。
 (第1の実施形態)
 図1は、本発明の第1の実施形態の内視鏡装置1aの構成を示している。図1に示すように、内視鏡装置1aは、光源部10と、内視鏡スコープ部20と、カメラヘッド30a(撮像部)と、信号処理部40と、表示部50とを有する。図1では、光源部10と、内視鏡スコープ部20と、カメラヘッド30aとの概略構成が示されている。
 光源部10は、光源100と、バンドパスフィルタ101と、コンデンサレンズ102とを有する。光源100は、可視光の波長帯域から赤外光の波長帯域までの波長の光を発する。可視光の波長帯域は、赤波長帯域と、緑波長帯域と、青波長帯域とを含む。赤波長帯域は、緑波長帯域よりも波長が長い帯域である。緑波長帯域は、青波長帯域よりも波長が長い帯域である。赤外光の波長帯域は、赤波長帯域よりも波長が長い帯域である。赤外光の波長帯域は、励起光の波長帯域と蛍光の波長帯域とを含む。蛍光の波長帯域は、赤外光の波長帯域において励起光の波長帯域よりも波長が長い帯域である。つまり、赤外光の波長は赤色光の波長よりも長い。赤色光の波長は緑色光の波長よりも長い。緑色光の波長は青色光の波長よりも長い。光源100が発する赤外光の波長帯域は、少なくとも励起光の波長帯域を含んでいればよい。
 バンドパスフィルタ101は、光源100の照明光路中に設けられている。バンドパスフィルタ101は、可視光と励起光とのみを透過させる。コンデンサレンズ102は、バンドパスフィルタ101を透過した光を集光する。
 バンドパスフィルタ101の透過特性は、図10に示す透過特性と同様である。バンドパスフィルタ101は、波長が約370nmから約800nmである波長帯域の光を透過させる。また、バンドパスフィルタ101は、波長が約370nm未満である波長帯域の光と、波長が約800nm以上である波長帯域の光とを遮断する。バンドパスフィルタ101が透過させる光の波長帯域は、可視光の波長帯域と励起光の波長帯域とを含む。励起光の波長帯域は、波長が約750nmから約780nmの帯域である。バンドパスフィルタ101が遮断する光の波長帯域は、蛍光の波長帯域を含む。蛍光の波長帯域は、波長が約800nmから約900nmの帯域である。
 内視鏡スコープ部20は、ライトガイド200と、照明レンズ201と、対物レンズ202と、イメージガイド203とを有する。光源100からの光は、バンドパスフィルタ101とコンデンサレンズ102とを介して、ライトガイド200に入射する。ライトガイド200は、光源100からの光を内視鏡スコープ部20の先端部に伝送する。ライトガイド200によって伝送された光は、照明レンズ201により被写体60に照射される。
 内視鏡スコープ部20の先端部において、照明レンズ201に隣接して対物レンズ202が設けられている。被写体60によって反射された光と、被写体60から発生した蛍光とが対物レンズ202に入射する。被写体60によって反射された光は、可視光と励起光とを含む。つまり、被写体60からの可視光の波長帯域の反射光と、励起光の波長帯域の反射光と、被写体60から発光した蛍光とを含む光が対物レンズ202に入射する。対物レンズ202は、上記の光を結像する。
 対物レンズ202の結像位置にはイメージガイド203の先端面が配置されている。イメージガイド203は、その先端面に結像された光学像を後端面に伝送する。
 カメラヘッド30aは、結像レンズ300と、ダイクロイックミラー301と、励起光カットフィルタ302と、イメージセンサ303(蛍光撮像部)と、ダイクロイックプリズム304と、イメージセンサ305(可視光撮像部)と、イメージセンサ306(可視光撮像部)と、イメージセンサ307(可視光撮像部)とを有する。結像レンズ300は、イメージガイド203の後端面に対向するように配置されている。結像レンズ300は、イメージガイド203により伝送された光学像をイメージセンサ303と、イメージセンサ305と、イメージセンサ306と、イメージセンサ307とに結像する。
 被写体60からの第1の光は、第2の光と第3の光とを含む。第2の光は、可視光を含む。可視光は、赤色光と緑色光と青色光とを含む。第3の光は、励起光と蛍光とを含む。蛍光の波長は励起光の波長よりも長い。
 結像レンズ300から結像レンズ300の結像位置までの光路にダイクロイックミラー301が配置されている。結像レンズ300を通過した第1の光、つまり被写体60からの第1の光はダイクロイックミラー301に入射する。ダイクロイックミラー301は、可視光を透過させ、可視光以外の光を反射する。ダイクロイックミラー301の反射と透過との特性は、図11に示すダイクロイックミラー1301の反射と透過との特性と同様である。ダイクロイックミラー301は、波長が約700nm未満である波長帯域の光を透過させる。また、ダイクロイックミラー301は、波長が約700nm以上である波長帯域の光を反射する。ダイクロイックミラー301が透過させる光の波長帯域は、可視光の波長帯域を含む。また、ダイクロイックミラー301が反射する光の波長帯域は、赤外光の波長帯域を含む。つまり、ダイクロイックミラー301は、第2の光を透過させ、かつ第3の光を反射する。これによって、ダイクロイックミラー301は、被写体60からの第1の光を第2の光と第3の光とに分割する。
 ダイクロイックミラー301を透過した光の結像位置では、可視光成分の光学像が結像される。一方、ダイクロイックミラー301により反射された光の結像位置には、赤外光成分の光学像が結像される。
 ダイクロイックミラー301により反射された第3の光は、励起光カットフィルタ302に入射する。励起光カットフィルタ302に入射する光は、赤外光を含む。赤外光は、励起光と蛍光とを含む。励起光カットフィルタ302は、励起光を遮断し、蛍光を透過させる。励起光カットフィルタ302の透過特性は、図12に示す励起光カットフィルタ1302の透過特性と同様である。励起光カットフィルタ302は、波長が約800nm未満である波長帯域の光を遮断する。また、励起光カットフィルタ302は、波長が約800nm以上である波長帯域の光を透過させる。励起光カットフィルタ302が遮断する光の波長帯域は、励起光の波長帯域を含む。励起光カットフィルタ302が透過させる光の波長帯域は、蛍光の波長帯域を含む。励起光に対する励起光カットフィルタ302の遮断特性は完全ではない。励起光カットフィルタ302は、励起光の波長帯域の光の一部を遮断し、励起光の波長帯域の残りの光と蛍光とを透過させる。
 励起光カットフィルタ302を透過した励起光の波長帯域の一部の光と蛍光とはイメージセンサ303に入射する。イメージセンサ303は、励起光カットフィルタ302を透過した励起光と蛍光とに基づくIR信号(第2の画像信号)を生成する。
 ダイクロイックミラー301を透過した第2の光は、ダイクロイックプリズム304に入射する。ダイクロイックプリズム304は、第2の光を、赤波長帯域の光(赤色光)と、緑波長帯域の光(緑色光)と、青波長帯域の光(青色光)とに分割する。ダイクロイックプリズム304を通過した赤色光はイメージセンサ305に入射する。イメージセンサ305は、赤色光に基づくR信号(第1の画像信号)を生成する。ダイクロイックプリズム304を通過した緑色光はイメージセンサ306に入射する。イメージセンサ306は、緑色光に基づくG信号(第1の画像信号)を生成する。ダイクロイックプリズム304を通過した青色光はイメージセンサ307に入射する。イメージセンサ307は、青色光に基づくB信号(第1の画像信号)を生成する。
 R信号は、イメージセンサ305に配置された複数の画素の信号値(画素値)を含む。G信号は、イメージセンサ306に配置された複数の画素の信号値(画素値)を含む。B信号は、イメージセンサ307に配置された複数の画素の信号値(画素値)を含む。IR信号は、イメージセンサ303に配置された複数の画素毎の信号値(画素値)を含む。
 上記のように、カメラヘッド30a(撮像部)は、ダイクロイックミラー301と、励起光カットフィルタ302と、イメージセンサ305(可視光撮像部)と、イメージセンサ306(可視光撮像部)と、イメージセンサ307(可視光撮像部)と、イメージセンサ303(蛍光撮像部)とを有する。ダイクロイックミラー301は、被写体60からの第1の光を第2の光と第3の光とに分割する。第1の光は、可視光と励起光と蛍光とを含む。第2の光は、可視光を含む。第3の光は、励起光と蛍光とを含む。第2の光がイメージセンサ305とイメージセンサ306とイメージセンサ307とに入射する。イメージセンサ305とイメージセンサ306とイメージセンサ307とは、可視光に基づく信号(第1の画像信号)を生成する。励起光カットフィルタ302の蛍光の透過率は、励起光カットフィルタ302の励起光の透過率よりも高い。第3の光が励起光カットフィルタ302に入射する。励起光カットフィルタ302を透過した第3の光がイメージセンサ303に入射する。イメージセンサ303は、励起光と蛍光とに基づくIR信号(第2の画像信号)を生成する。イメージセンサ305とイメージセンサ306とイメージセンサ307とイメージセンサ303とは、信号処理部40に接続されている。
 信号処理部40は、R信号と、G信号と、B信号とから可視光画像信号を生成する。可視光画像信号は、可視光画像を表示するための信号である。また、信号処理部40は、R信号と、G信号と、B信号との少なくとも1つと、IR信号とから蛍光画像信号を生成する。蛍光画像信号は、蛍光画像を表示するための信号である。
 表示部50は、モニタ500を有する。モニタ500は、可視光画像信号に基づく可視光画像と、蛍光画像信号に基づく蛍光画像とを表示する。例えば、モニタ500は、同じ時刻で取得された可視光画像と蛍光画像とを並べて表示する。あるいは、モニタ500は、同じ時刻で取得された可視光画像と蛍光画像とを重ねて表示する。
 上記のように、内視鏡装置1a(撮像装置)は、カメラヘッド30a(撮像部)と、信号処理部40とを有する。カメラヘッド30aは、被写体60からの可視光に基づく第1の画像信号(R信号、G信号、およびB信号)を生成する。カメラヘッド30aは、被写体60からの励起光と蛍光とに基づく第2の画像信号(IR信号)を生成する。信号処理部40は、第1の画像信号と第2の画像信号とに基づいて、蛍光に対応する蛍光画像信号を生成する。信号処理部40は、第1の画像信号に基づいて、被写体60における注目領域を判定する。信号処理部40は、注目領域に対応する第2の画像信号に基づいて、蛍光領域を判定する。蛍光領域は、被写体60において蛍光を発生する。信号処理部40は、蛍光領域に対応する第2の画像信号の強調処理を行う。このため、内視鏡装置1aは、蛍光領域がより鮮明に光る蛍光画像を表示するための蛍光画像信号を生成することができる。
 信号処理部40の詳細な構成を説明する。信号処理部40は、メモリ400と、RGB信号処理部401と、注目領域判定部402と、蛍光領域判定部403と、IR信号処理部404とを有する。例えば、メモリ400は、揮発性または不揮発性の記録媒体である。例えば、RGB信号処理部401と、注目領域判定部402と、蛍光領域判定部403と、IR信号処理部404とは、プロセッサとして実装される。あるいは、RGB信号処理部401と、注目領域判定部402と、蛍光領域判定部403と、IR信号処理部404とは、特定用途向け集積回路(ASIC)等のハードウェアとして実装される。
 被写体60の特性を示す被写体特性情報がメモリ400に記録される。つまり、メモリ400は、被写体特性情報を記憶する。被写体特性情報は、被写体60の第1の画像信号(R信号、G信号、およびB信号)から生成される。例えば、被写体特性情報は、可視光に対する被写体60の分光反射特性を示すRGB情報である。
 RGB信号処理部401は、第1の画像信号(R信号、G信号、およびB信号)から、各画素のRGB情報を生成する。RGB信号処理部401によって生成されたRGB情報は、注目領域判定部402に出力される。
 注目領域判定部402は、第1の画像信号(R信号、G信号、およびB信号)に基づいて、被写体60における注目領域を判定する。つまり、注目領域判定部402は、メモリ400に記録された被写体特性情報(RGB情報)と、RGB信号処理部401によって生成されたRGB情報とに基づいて、被写体60における注目領域を判定する。注目領域を示す注目領域情報が蛍光領域判定部403に出力される。注目領域情報は、注目領域に対応する画素の位置情報を含む。
 蛍光領域判定部403は、注目領域に対応する第2の画像信号(IR信号)に基づいて、蛍光領域を判定する。つまり、蛍光領域判定部403は、注目領域情報が示す画素の第2の画像信号に基づいて、蛍光領域を判定する。蛍光領域を示す蛍光領域情報がIR信号処理部404に出力される。蛍光領域情報は、蛍光領域に対応する画素の位置情報を含む。
 IR信号処理部404は、蛍光領域に対応する第2の画像信号(IR信号)の強調処理を行う。つまり、IR信号処理部404は、蛍光領域情報が示す画素の第2の画像信号の強調処理を行う。IR信号処理部404は、第2の画像信号において、蛍光領域に対応する画素の信号値が、蛍光領域以外の領域に対応する画素の信号値よりも大きくなるように、第2の画像信号の強調処理を行う。
 メモリ400に記録される被写体特性情報であるRGB情報の詳細を説明する。例えば、内視鏡装置1aによる観察の対象である被写体60は、人体の器官である。例えば、被写体60は、大腸、小腸、胃、および肝臓である。ICGが被験者の静脈に注射された後、投与されたICGは、血管とリンパ管とを流れる。したがって、ICGを使用する蛍光観察における注目領域は、血管およびリンパ管である。血管およびリンパ管などの注目領域における可視光の分光反射特性は、観察対象における他の領域(例えば、脂肪など)における可視光の分光反射特性と異なる。このため、R信号とG信号とB信号とを解析することにより、撮像された被写体60の注目領域を検出することができる。
 例えば、RGB情報は、R信号とG信号とB信号との信号値の比率である。つまり、RGB情報は、R信号とG信号との信号値の比率と、R信号とB信号との信号値の比率とを含む。例えば、注目領域におけるR信号とG信号との信号値の比率は、X1からX2の範囲である。X2は、X1よりも大きい。例えば、注目領域におけるR信号とB信号との信号値の比率は、Y1からY2の範囲である。Y2は、Y1よりも大きい。X1からX2の範囲と、Y1からY2の範囲とがRGB情報としてメモリ400に記録される。
 RGB情報は、彩度と色相とであってもよい。彩度は、色の鮮やかさを表す指標である。無彩色(黒、白、および灰色)の彩度は0である。色が鮮やかになるにつれて彩度は大きくなる。つまり、より鮮やかな色の彩度は大きい。色相は、赤、黄、緑、青、および紫などの色の様相を表す指標である。色の様相毎に色相の数値が異なる。RGB信号を、色相(H)、彩度(S)、および輝度(I)の3要素で定義されるHIS色空間の画素値(色相、彩度、および輝度)に変換することができる。彩度と色相とのそれぞれの範囲がメモリ400に記録される。
 信号処理部40の詳細な動作を説明する。イメージセンサ305から出力されたR信号と、イメージセンサ306から出力されたG信号と、イメージセンサ307から出力されたB信号と、イメージセンサ303から出力されたIR信号とが信号処理部40に入力される。R信号とG信号とB信号とは、RGB信号処理部401に入力される。IR信号は、蛍光領域判定部403に入力される。イメージセンサ305と、イメージセンサ306と、イメージセンサ307と、イメージセンサ303との各画素は、互いに対応している。例えば、イメージセンサ305と、イメージセンサ306と、イメージセンサ307と、イメージセンサ303との各画素数は同一である。
 信号処理部40(RGB信号処理部401)は、R信号とG信号とB信号とから、各画素のRGB情報を生成する。RGB情報の生成の際、信号処理部40(RGB信号処理部401)は、以下の処理を行う。信号処理部40(RGB信号処理部401)は、互いに対応する画素のR信号とG信号とB信号とから、その画素のRGB情報を生成する。RGB情報がR信号とG信号とB信号との信号値の比率である場合、信号処理部40(RGB信号処理部401)は、R信号とG信号との信号値の比率およびR信号とB信号との信号値の比率を算出する。信号処理部40(RGB信号処理部401)は、算出された比率を含むRGB情報を注目領域判定部402に出力する。
 RGB情報が彩度と色相とである場合、信号処理部40(RGB信号処理部401)は、第1の画像信号(R信号、G信号、およびB信号)の各画素の信号値から各画素の彩度と色相とを算出する。信号処理部40(RGB信号処理部401)は、算出された彩度と色相とを含むRGB情報を注目領域判定部402に出力する。
 さらに、信号処理部40(RGB信号処理部401)は、R信号とG信号とB信号とから可視光画像信号を生成する。信号処理部40(RGB信号処理部401)は、R信号とG信号とB信号との少なくとも1つに対して、補間処理等の画像処理を行ってもよい。信号処理部40(RGB信号処理部401)は、可視光画像信号をモニタ500に出力する。
 信号処理部40(RGB信号処理部401)によって生成されたRGB情報がメモリ400に記録されてもよい。例えば、既知の注目領域を含む被写体60が撮像され、かつR信号とG信号とB信号とが生成される。さらに、既知の注目領域を含む被写体60の可視光画像信号に基づく可視光画像がモニタ500に表示される。この可視光画像に基づいて、観察者によって注目領域が指定される。信号処理部40(RGB信号処理部401)は、観察者によって指定された注目領域に対応するR信号とG信号とB信号とからRGB情報を生成する。
 例えば、信号処理部40(RGB信号処理部401)は、注目領域におけるR信号とG信号との各画素の信号値の比率およびR信号とB信号との各画素の信号値の比率を算出する。注目領域におけるR信号とG信号との各画素の信号値の比率の最小値X1と最大値X2とがRGB情報としてメモリ400に記録される。また、注目領域におけるB信号とG信号との各画素の信号値の比率の最小値Y1と最大値Y2とがRGB情報としてメモリ400に記録される。
 あるいは、信号処理部40(RGB信号処理部401)は、注目領域における各画素の彩度と色相とを算出する。注目領域における彩度と色相とのそれぞれの範囲がRGB情報としてメモリ400に記録される。
 信号処理部40(注目領域判定部402)は、メモリ400に記録された被写体特性情報(RGB情報)と第1の画像信号(R信号、G信号、およびB信号)とに基づいて、被写体60における注目領域を判定する。注目領域の判定の際、信号処理部40(注目領域判定部402)は、以下の処理を行う。信号処理部40(注目領域判定部402)は、メモリ400からRGB情報を読み出す。信号処理部40(注目領域判定部402)は、メモリ400に記録されたRGB情報と、RGB信号処理部401によって生成されたRGB情報とを比較する。信号処理部40(注目領域判定部402)は、比較結果に基づいて、被写体60における注目領域を判定する。
 図2は、注目領域の判定の概念を示している。撮像領域S1は、イメージセンサ305と、イメージセンサ306と、イメージセンサ307とのいずれか1つの撮像領域である。撮像領域S1において、赤色光と緑色光と青色光とのいずれか1つに基づく被写体60の像が結像される。被写体60は、注目領域61を含む。信号処理部40(注目領域判定部402)は、メモリ400に記録されたRGB情報と、RGB信号処理部401によって生成されたRGB情報とを画素毎に比較する。これによって、信号処理部40(注目領域判定部402)は、各画素が注目領域61に含まれるか否かを判定する。
 RGB情報がR信号とG信号とB信号との信号値の比率である場合、信号処理部40(注目領域判定部402)は、RGB信号処理部401によって算出された比率が、メモリ400に記録された比率の範囲に含まれるか否かを判定する。例えば、信号処理部40(注目領域判定部402)は、RGB信号処理部401によって算出されたR信号とG信号との信号値の比率Prgが、メモリ400に記録されたR信号とG信号との信号値の比率の範囲に含まれるか否かを判定する。R信号とG信号との信号値の比率の範囲は、X1からX2である。
 同様に、信号処理部40(注目領域判定部402)は、RGB信号処理部401によって算出されたR信号とB信号との信号値の比率Prbが、メモリ400に記録されたR信号とB信号との信号値の比率の範囲に含まれるか否かを判定する。R信号とB信号との信号値の比率の範囲は、Y1からY2である。比率PrgがX1以上かつX2未満であり、かつ比率PrbがY1以上かつY2未満である場合、信号処理部40(注目領域判定部402)は、判定対象の画素が注目領域に含まれると判定する。比率PrgがX1未満またはX2以上である場合、信号処理部40(注目領域判定部402)は、判定対象の画素が注目領域に含まれないと判定する。比率PrbがX1未満またはX2以上である場合も、信号処理部40(注目領域判定部402)は、判定対象の画素が注目領域に含まれないと判定する。
 RGB情報が彩度と色相とである場合、信号処理部40(注目領域判定部402)は、第1の画像信号(R信号、G信号、およびB信号)の各画素の彩度と色相とに基づいて、注目領域を判定する。つまり、信号処理部40(注目領域判定部402)は、RGB信号処理部401によって算出された彩度Psが、メモリ400に記録された彩度Psmの範囲に含まれるか否かを判定する。同様に、信号処理部40(注目領域判定部402)は、RGB信号処理部401によって算出された色相Phが、メモリ400に記録された色相Phmの範囲に含まれるか否かを判定する。
 彩度Psが彩度Psmの範囲に含まれ、かつ色相Phが色相Phmの範囲に含まれる場合、信号処理部40(注目領域判定部402)は、判定対象の画素が注目領域に含まれると判定する。彩度Psが彩度Psmの範囲に含まれない場合、信号処理部40(注目領域判定部402)は、判定対象の画素が注目領域に含まれないと判定する。色相Phが色相Phmの範囲に含まれない場合も、信号処理部40(注目領域判定部402)は、判定対象の画素が注目領域に含まれないと判定する。
 信号処理部40(注目領域判定部402)は、注目領域の判定結果に基づいて、注目領域情報を生成する。注目領域情報は、注目領域に含まれると判定された画素の位置情報を含む。信号処理部40(注目領域判定部402)は、注目領域情報を蛍光領域判定部403に出力する。
 信号処理部40(蛍光領域判定部403)は、注目領域に対応する第2の画像信号(IR信号)の各画素の信号値に基づいて、蛍光領域を判定する。蛍光領域の判定の際、信号処理部40(蛍光領域判定部403)は、以下の処理を行う。信号処理部40(蛍光領域判定部403)は、注目領域情報が示す各画素のIR信号の信号値と基準値αとを比較する。信号処理部40(蛍光領域判定部403)は、比較結果に基づいて、被写体60の注目領域における蛍光領域を判定する。
 図3と図4とは、蛍光領域の判定の概念を示している。撮像領域S2は、イメージセンサ303の撮像領域である。撮像領域S2において、励起光と蛍光とに基づく被写体60の像が結像される。被写体60は、注目領域61を含む。
 ICGは、血管およびリンパ管を流れる。しかし、ICGは、必ずしも被写体60内の全ての血管およびリンパ管を流れるとは限らない。このため、信号処理部40(蛍光領域判定部403)は、注目領域61の中でICGが発光している領域と、注目領域61の中でICGが発光していない領域とを判定する。
 病巣の領域では、投与したICGが集積され、かつ蛍光が発生する。このため、病巣の領域では、病巣でない領域と比較して、IR信号の信号値が大きい。つまり、注目領域において病巣である領域に対応するIR信号は、蛍光と一部の励起光とに基づく信号成分を含む。このため、病巣である領域に対応するIR信号の信号値は大きい。一方、注目領域において病巣でない領域に対応するIR信号は、一部の励起光のみに基づく信号成分を含む。このため、病巣でない領域に対応するIR信号の信号値は小さい。
 信号処理部40(蛍光領域判定部403)は、IR信号の信号値と基準値αとを注目領域における画素毎に比較する。これによって、信号処理部40(蛍光領域判定部403)は、注目領域における各画素が蛍光領域に含まれるか否かを判定する。基準値αは、励起光カットフィルタ302を透過した励起光に基づく信号値、すなわち励起光の漏れ成分に基づく信号値である。
 注目領域における画素のIR信号の信号値が基準値α以上である場合、信号処理部40(蛍光領域判定部403)は、判定対象の画素が蛍光領域に含まれると判定する。注目領域における画素のIR信号の信号値が基準値α未満である場合、信号処理部40(蛍光領域判定部403)は、判定対象の画素が蛍光領域に含まれないと判定する。
 例えば、基準値αは、以下のように決定される。既知の注目領域を含む被写体60が撮像され、かつR信号とG信号とB信号とが生成される。さらに、既知の注目領域を含む被写体60の可視光画像信号に基づく可視光画像がモニタ500に表示される。この可視光画像に基づいて、観察者によって注目領域が指定される。信号処理部40(RGB信号処理部401)は、観察者によって指定された注目領域に対応するR信号とG信号とB信号とから励起光の反射率を算出する。信号処理部40(RGB信号処理部401)は、被写体60の種類毎に、注目領域における励起光の反射率を算出する。例えば、被写体60の種類は、大腸、小腸、胃、および肝臓である。被写体60の種類毎の励起光の反射率がメモリ400に記録される。
 観察対象の被写体60が観察される場合、信号処理部40(RGB信号処理部401)は、被写体60の種類に対応する励起光の反射率をメモリ400から読み出す。信号処理部40(RGB信号処理部401)は、光源100の強度と励起光の反射率とに基づいて、注目領域における励起光の反射光強度を算出する。算出された反射光強度が基準値αである。
 信号処理部40(蛍光領域判定部403)は、注目領域における各画素のIR信号を比較することにより、蛍光領域を判定してもよい。例えば、注目領域における第1の画素のIR信号の信号値から、注目領域における第2の画素のIR信号の信号値を差し引いた値が基準値β以上である場合、信号処理部40(蛍光領域判定部403)は、第1の画素が蛍光領域に含まれると判定する。注目領域における第1の画素のIR信号の信号値から、注目領域における第2の画素のIR信号の信号値を差し引いた値が基準値β未満である場合、信号処理部40(蛍光領域判定部403)は、第1の画素が蛍光領域に含まれないと判定する。例えば、第2の画素は、注目領域においてIR信号の信号値が最も小さい画素である。
 例えば、基準値βは、体内に投与されたICGの発光により検出されるIR信号の最低レベルの信号値である。基準値βは、被写体60の種類と、光源100の励起光強度と、体内に投与されるICGの濃度とに基づいて決定される。既知の注目領域を含む被写体60が撮像されたときの情報に基づいて基準値βが決定され、かつ決定された基準値βはメモリ400に記録される。
 信号処理部40(蛍光領域判定部403)は、蛍光領域の判定結果に基づいて、蛍光領域情報を生成する。蛍光領域情報は、蛍光領域に含まれると判定された画素の位置情報を含む。信号処理部40(蛍光領域判定部403)は、蛍光領域情報をIR信号処理部404に出力する。
 前述したように、蛍光を発してなく、かつ励起光の反射率が高い被写体からの光が入射する画素で生成されたIR信号の信号値が大きい場合がある。被写体において撮像された領域の全体に対応するIR信号に基づいて蛍光領域が判定される場合、注目領域以外の領域において、IR信号の信号値が大きい画素が蛍光領域として誤って判定される可能性がある。しかし、信号処理部40(蛍光領域判定部403)は、注目領域のみのIR信号に基づいて蛍光領域を判定する。これによって、信号処理部40(蛍光領域判定部403)は、蛍光領域を高精度に判定することができる。
 信号処理部40(IR信号処理部404)は、蛍光領域に対応する第2の画像信号(IR信号)の各画素の信号値の強調処理を行う。これによって、信号処理部40(IR信号処理部404)は、蛍光画像信号を生成する。強調処理の際、信号処理部40(IR信号処理部404)は、以下の処理を行う。信号処理部40(IR信号処理部404)は、蛍光領域に対応するIR信号の信号値のみに所定値を加算することにより強調処理を行う。つまり、信号処理部40(IR信号処理部404)は、蛍光領域に対応するIR信号の各画素の信号値のみに所定値γを加算する。所定値γは、0よりも大きく、かつ加算後のIR信号の最大値が飽和信号値よりも小さい値となるように設定される。所定値γは、体内に投与されたICGが発光することにより検出される最低レベルのIR信号の信号値よりも大きくてもよい。
 蛍光領域に対応するIR信号の信号値のみに所定値γが加算されることにより、加算後のIR信号の信号値と、蛍光領域以外の領域に対応するIR信号の信号値との差が大きくなる。このため、蛍光領域に対応するIR信号がより強調される。
 信号処理部40(IR信号処理部404)は、蛍光領域に対応するIR信号の信号値のみに、その信号値に応じた値を加算することにより強調処理を行ってもよい。つまり、信号処理部40(IR信号処理部404)は、蛍光領域に対応するIR信号の各画素の信号値のみに、その信号値に応じて異なる値を加算することにより強調処理を行ってもよい。加算される値は、0よりも大きく、かつIR信号の最大値(飽和信号値)よりも小さい。信号処理部40(IR信号処理部404)は、より大きなIR信号の信号値に対して、より大きな値を加算する。
 蛍光領域に対応するIR信号の信号値のみに、その信号値に応じた値が加算されることにより、加算後のIR信号の信号値と、蛍光領域以外の領域に対応するIR信号の信号値との差が大きくなる。このため、蛍光領域に対応するIR信号がより強調される。より大きなIR信号の信号値に対して、より大きな値が加算されることにより、蛍光領域におけるIR信号の強度の違いがより大きくなる。
 信号処理部40(IR信号処理部404)は、蛍光領域に対応するIR信号の信号値のみに所定値を乗算することにより強調処理を行ってもよい。つまり、信号処理部40(IR信号処理部404)は、蛍光領域に対応するIR信号の各画素の信号値のみに所定値γaを加算する。所定値γaは、1よりも大きく、かつ乗算後のIR信号の最大値が飽和信号値よりも小さい値となるように設定される。
 蛍光領域に対応するIR信号の信号値のみに所定値γaが乗算されることにより、加算後のIR信号の信号値と、蛍光領域以外の領域に対応するIR信号の信号値との差が大きくなる。このため、蛍光領域に対応するIR信号がより強調される。
 信号処理部40(IR信号処理部404)は、蛍光領域に対応するIR信号の信号値のみに、その信号値に応じた値を乗算することにより強調処理を行ってもよい。つまり、信号処理部40(IR信号処理部404)は、蛍光領域に対応するIR信号の各画素の信号値のみに、その信号値に応じて異なる値を乗算することにより強調処理を行ってもよい。乗算される値は、1よりも大きく、かつ乗算後のIR信号の最大値が飽和信号値よりも小さい値となるように設定される。信号処理部40(IR信号処理部404)は、より大きいIR信号の信号値に対して、より大きい値を乗算する。
 蛍光領域に対応するIR信号の信号値のみに、その信号値に応じた値が乗算されることにより、乗算後のIR信号の信号値と、蛍光領域以外の領域に対応するIR信号の信号値との差が大きくなる。このため、蛍光領域に対応するIR信号がより強調される。より大きなIR信号の信号値に対して、より大きな値が乗算されることにより、蛍光領域におけるIR信号の強度の違いがより大きくなる。
 信号処理部40(IR信号処理部404)は、蛍光領域に対応する第2の画像信号(IR信号)の強調処理を行い、かつ蛍光領域以外の領域に対応する第2の画像信号(IR信号)の低減処理を行ってもよい。低減処理の際、信号処理部40(IR信号処理部404)は、以下の処理を行う。信号処理部40(IR信号処理部404)は、蛍光領域以外の領域に対応するIR信号の信号値のみから所定値を減算することにより低減処理を行う。つまり、信号処理部40(IR信号処理部404)は、蛍光領域以外の領域に対応するIR信号の各画素の信号値のみから所定値γbを減算する。所定値γbは、0よりも大きく、かつ図14に示す励起光の成分に基づくIR信号の最大信号値よりも小さい。
 蛍光領域以外の領域に対応するIR信号の信号値のみから所定値γbが減算されることにより、減算後のIR信号の信号値と、蛍光領域に対応するIR信号の信号値との差が大きくなる。これによって、蛍光領域以外の領域に対応するIR信号がより低減される。
 信号処理部40(IR信号処理部404)は、蛍光領域以外の領域に対応するIR信号の信号値のみに、1よりも小さい値を乗算することにより低減処理を行ってもよい。つまり、信号処理部40(IR信号処理部404)は、蛍光領域に対応するIR信号の各画素の信号値のみに、1よりも小さい値を乗算することにより低減処理を行ってもよい。乗算される値は、定数と、IR信号の信号値に応じて異なる値とのどちらであってもよい。
 蛍光領域以外の領域に対応するIR信号の信号値のみに、1よりも小さい値が乗算されることにより、乗算後のIR信号の信号値と、蛍光領域に対応するIR信号の信号値との差が大きくなる。これによって、蛍光領域以外の領域に対応するIR信号がより低減される。
 信号処理部40(IR信号処理部404)は、蛍光画像信号をモニタ500に出力する。蛍光画像信号は、蛍光領域以外の領域に対応するIR信号と、蛍光領域に対応し強調処理が行われたIR信号とを含む。
 本発明の各態様の撮像装置は、光源部10と、内視鏡スコープ部20と、結像レンズ300と、ダイクロイックミラー301と、励起光カットフィルタ302と、ダイクロイックプリズム304と、表示部50との少なくとも1つに対応する構成を有していなくてもよい。
 第1の実施形態では、信号処理部40は、R信号とG信号とB信号とに基づいて、被写体60における注目領域を判定する。信号処理部40は、注目領域に対応するIR信号に基づいて、蛍光領域を判定する。信号処理部40は、蛍光領域に対応するIR信号の強調処理を行う。このため、内視鏡装置1aは、蛍光領域がより鮮明に光る蛍光画像を表示するための蛍光画像信号を生成することができる。
 信号処理部40は、蛍光領域に対応するIR信号の信号値のみに対する加算または乗算を行う。これによって、蛍光画像において、蛍光領域が他の領域と比較してより目立つようになる。
 内視鏡装置1aは、R信号とG信号とB信号とIR信号とを別々に取得する。このため、内視鏡装置1aは、解像度が高い可視光画像と蛍光画像とを取得することができる。また、内視鏡装置1aは、可視光の撮像と赤外光の撮像とを同時に行うことができる。
 信号処理部40は、R信号とG信号とB信号との各画素の彩度と色相とに基づいて、注目領域を判定する。これによって、彩度と色相とから注目領域を判定することができる。
 (第2の実施形態)
 図1に示す内視鏡装置1aを使用して、本発明の第2の実施形態を説明する。以下では、第1の実施形態と異なる点を説明する。
 信号処理部40(注目領域判定部402)は、第1の画像信号(R信号、G信号、およびB信号)の各画素の信号値と、基準値との相関度に応じた各画素の領域判定係数を算出する。基準値は、注目領域に対応する第1の画像信号の信号値として期待される値に対応する。信号処理部40(注目領域判定部402)は、各画素で算出された領域判定係数に基づいて、注目領域を判定する。
 領域判定係数は、各画素における注目領域の確からしさを示す。信号処理部40(注目領域判定部402)は、領域判定係数に基づいて、各画素が注目領域に属する可能性を判定する。これによって、信号処理部40(注目領域判定部402)は、注目領域の確からしさに応じて注目領域を判定することができる。
 信号処理部40(注目領域判定部402)は、強調処理が行われた第2の画像信号(IR信号)の各画素の信号値と各画素の領域判定係数とを乗算する。
 第1の画像信号の各画素が注目領域に含まれる場合の各画素の領域判定係数は、第1の画像信号の各画素が注目領域に含まれない場合の各画素の領域判定係数よりも大きい。このため、第2の画像信号の信号値と領域判定係数との乗算が行われることにより、注目領域に含まれない画素の信号値に対する、注目領域かつ蛍光領域に含まれる画素の信号値の比がより大きくなる。この結果、蛍光画像において、蛍光領域が他の領域と比較してより目立つようになる。
 信号処理部40(注目領域判定部402)が行う処理の詳細を説明する。領域判定係数の算出の際、信号処理部40(注目領域判定部402)は、以下の処理を行う。信号処理部40(注目領域判定部402)は、メモリ400から基準値を読み出す。信号処理部40(注目領域判定部402)は、メモリ400に記録された基準値と、RGB信号処理部401によって生成されたRGB情報とを比較する。信号処理部40(注目領域判定部402)は、比較結果に基づいて、相関度を算出する。信号処理部40(注目領域判定部402)は、算出された相関度に基づいて領域判定係数を算出する。
 RGB情報がR信号とG信号とB信号との信号値の比率である場合、RGB信号処理部401によって生成されたRGB情報は、各画素のR信号とG信号との信号値の比率X3と、各画素のR信号とB信号との信号値の比率Y3とを含む。メモリ400に記録された基準値は、注目領域におけるR信号とG信号との信号値の比率X5と、注目領域におけるR信号とB信号との信号値の比率Y5とである。前述したように、注目領域におけるR信号とG信号との信号値の比率は、X1からX2の範囲である。X5は、X1からX2の範囲の代表値である。前述したように、注目領域におけるB信号とG信号との信号値の比率は、Y1からY2の範囲である。Y5は、Y1からY2の範囲の代表値である。
 信号処理部40(注目領域判定部402)は、各画素の比率X3と比率Y3との組み合わせと、基準値である比率X5とY5との組み合わせとを比較し、かつ相関度を算出する。例えば、信号処理部40(注目領域判定部402)は、(X3,Y3)と(X5,Y5)とのユークリッド距離を算出する。算出されたユークリッド距離は、R信号とG信号とB信号との各画素の信号値と、基準値との相関度を示す。ユークリッド距離が小さい場合、相関度が高い。ユークリッド距離が大きい場合、相関度が低い。
 信号処理部40(注目領域判定部402)は、各画素の相関度に基づいて、各画素の領域判定係数を算出する。例えば、各画素の領域判定係数は0から1の値である。相関度が高い場合すなわち各画素が注目領域に含まれる可能性が高い場合、領域判定係数は1に近い。相関度が低い場合すなわち各画素が注目領域に含まれない可能性が高い場合、領域判定係数は0に近い。つまり、領域判定係数は、相関度に応じた重みを有する。
 信号処理部40(注目領域判定部402)は、各画素の領域判定係数と基準値δとを比較する。基準値δは、0よりも大きく、かつ1よりも小さい値である。これによって、信号処理部40(注目領域判定部402)は、各画素が注目領域に含まれるか否かを判定する。
 各画素の領域判定係数が基準値δ以上である場合、信号処理部40(注目領域判定部402)は、判定対象の画素が注目領域に含まれると判定する。各画素の領域判定係数が基準値δ未満である場合、信号処理部40(注目領域判定部402)は、判定対象の画素が注目領域に含まれないと判定する。
 例えば、基準値である比率X5と比率Y5とは、以下のように決定される。信号処理部40(RGB信号処理部401)は、既知の情報に基づいて、注目領域で反射されかつイメージセンサに入射する可視光の代表的なスペクトル分布を取得することができる。既知の情報は、光源100が発する光のスペクトル分布と、内視鏡装置1aの光学系に依存する分光透過率と、注目領域の分光反射特性とを含む。信号処理部40(RGB信号処理部401)は、可視光の代表的なスペクトル分布に基づいて、注目領域における代表的な比率X5と比率Y5とを算出する。算出された比率X5と比率Y5とは、メモリ400に記録される。信号処理部40(RGB信号処理部401)は、既知の注目領域を含む被写体60が撮像されたときに生成されたR信号とG信号とB信号とに基づいて、注目領域における代表的な比率X5と比率Y5とを算出してもよい。
 例えば、基準値δは、以下のように決定される。比率X5と比率Y5とは、注目領域における代表値である。しかし、イメージセンサで発生するノイズおよび光源100が発する光のむら等により、注目領域におけるR信号とG信号との信号値の比率X3と比率X5とは、必ずしも同一ではない。同様に、注目領域におけるR信号とB信号との信号値の比率Y3と比率Y5とは、必ずしも同一ではない。つまり、注目領域において検出される比率X3と比率Y3とは、ばらつきを有する。注目領域における比率X3と比率Y3とがばらつきを有する場合でも、注目領域に対応する画素の大部分が注目領域であると判定されるような基準値δが決定される。
 例えば、信号処理部40(RGB信号処理部401)は、既知の注目領域を含む被写体60が撮像されたときに生成されたR信号とG信号とB信号とに基づいて、注目領域における各画素の比率X3と比率Y3とを算出する。信号処理部40(RGB信号処理部401)は、注目領域における各画素の比率X3および比率Y3と、基準値である比率X5および比率Y5との相関度を算出する。信号処理部40(RGB信号処理部401)は、各画素の相関度の分布に基づいて、基準値δを決定する。
 RGB情報が彩度と色相とである場合、信号処理部40(注目領域判定部402)は、各画素の彩度と色相との組み合わせと、基準値である彩度と色相との組み合わせとを比較し、かつ相関度を算出する。相関度に基づく領域判定係数の算出と、領域判定係数に基づく注目領域の判定とは、上記の各処理と同様である。
 信号処理部40(蛍光領域判定部403)は、第1の実施形態における方法と同様の方法により、蛍光領域を判定する。信号処理部40(蛍光領域判定部403)は、蛍光領域の判定結果に基づいて、蛍光領域情報を生成する。蛍光領域情報は、蛍光領域に含まれると判定された画素の位置情報を含む。信号処理部40(蛍光領域判定部403)は、蛍光領域情報と、各画素の領域判定係数とをIR信号処理部404に出力する。
 信号処理部40(IR信号処理部404)は、第2の画像信号(IR信号)に対して、第1の実施形態における強調処理を行う。つまり、信号処理部40(IR信号処理部404)は、蛍光領域に対応するIR信号の信号値のみに所定値を加算または乗算することにより強調処理を行う。信号処理部40(IR信号処理部404)は、蛍光領域に対応するIR信号の信号値のみに、その信号値に応じた値を加算または乗算することにより強調処理を行ってもよい。
 さらに、信号処理部40(IR信号処理部404)は、以下の処理を行う。信号処理部40(注目領域判定部402)は、強調処理が行われたIR信号の各画素の信号値と各画素の領域判定係数とを乗算する。同一の画素に対応するIR信号の信号値と領域判定係数とが乗算される。
 前述したように、各画素の領域判定係数は0から1の値である。各画素が注目領域に含まれる可能性が高い場合、領域判定係数は1に近い。一方、各画素が注目領域に含まれる可能性が低い場合、領域判定係数は0に近い。例えば、注目領域かつ蛍光領域に対応する画素P1のIR信号の信号値Sir1と注目領域以外の領域に対応する画素P2のIR信号の信号値Sir2との比Pr1は、式(1)で表される。
  Pr1=Sir1/Sir2  ・・・(1)
 画素P1の領域判定係数はa1であり、画素P2の領域判定係数はa2である。IR信号の信号値と領域判定係数とが乗算された後、注目領域かつ蛍光領域に対応する画素P1のIR信号の信号値Sir1’と注目領域以外の領域に対応する画素P2のIR信号の信号値Sir2’との比Pr2は、式(2)で表される。
  Pr2=Sir1’/Sir2’
     =(a1×Sir1)/(a2×Sir2)  ・・・(2)
 領域判定係数a1は、領域判定係数a2よりも大きい。このため、比Pr2は、比Pr1よりも大きい。つまり、IR信号の信号値と領域判定係数との乗算が行われることにより、蛍光画像において、蛍光領域が他の領域と比較してより目立つようになる。
 信号処理部40(IR信号処理部404)は、蛍光画像信号をモニタ500に出力する。蛍光画像信号は、蛍光領域以外の領域に対応するIR信号と、蛍光領域に対応し強調処理と領域判定係数の乗算とが行われたIR信号とを含む。
 信号処理部40(IR信号処理部404)は、強調処理と、第1の実施形態における低減処理とを行ってもよい。第2の実施形態において、IR信号の各画素の信号値と各画素の領域判定係数との乗算は、必須ではない。
 上記以外の点については、第2の実施形態における内視鏡装置1aの動作は、第1の実施形態における内視鏡装置1aの動作と同様である。
 第2の実施形態では、内視鏡装置1aは、蛍光領域がより鮮明に光る蛍光画像を表示するための蛍光画像信号を生成することができる。
 信号処理部40は、R信号とG信号とB信号との各画素の信号値と、基準値との相関度に応じた各画素の領域判定係数を算出する。信号処理部40は、領域判定係数に基づいて、注目領域を判定する。これによって、信号処理部40は、注目領域の確からしさに応じて注目領域を判定することができる。
 信号処理部40は、強調処理が行われたIR信号の各画素の信号値と各画素の領域判定係数とを乗算する。これによって、内視鏡装置1aは、蛍光領域がより鮮明に光る蛍光画像を表示するための蛍光画像信号を生成することができる。
 (第1の変形例)
 図5は、本発明の第1の実施形態と第2の実施形態との第1の変形例の内視鏡装置1bの構成を示している。図5に示すように、内視鏡装置1bは、光源部10と、内視鏡スコープ部20と、カメラヘッド30b(撮像部)と、信号処理部40と、表示部50とを有する。図5では、光源部10と、内視鏡スコープ部20と、カメラヘッド30bとの概略構成が示されている。
 図5に示す構成について、図1に示す構成と異なる点を説明する。カメラヘッド30bは、結像レンズ300と、励起光カットフィルタ308と、イメージセンサ309(可視光撮像部および蛍光撮像部)とを有する。結像レンズ300は、図1に示す結像レンズ300と同一である。
 結像レンズ300を通過した第1の光、つまり被写体60からの第1の光は励起光カットフィルタ308に入射する。励起光カットフィルタ308に入射する光は、可視光と赤外光とを含む。可視光は、赤色光と緑色光と青色光とを含む。赤外光は、励起光と蛍光とを含む。励起光カットフィルタ308は、励起光を遮断し、蛍光と可視光とを透過させる。
 図6は、励起光カットフィルタ308の透過特性を示している。図6に示すグラフの横軸は波長であり、縦軸は透過率である。励起光カットフィルタ308は、波長が約700nmから約800nmである波長帯域の光を遮断する。また、励起光カットフィルタ308は、波長が約700nm未満である波長帯域の光と、波長が約800nm以上である波長帯域の光とを透過させる。励起光カットフィルタ308が遮断する光の波長帯域は、励起光の波長帯域を含む。励起光カットフィルタ308が透過させる光の波長帯域は、可視光の波長帯域と蛍光の波長帯域とを含む。励起光に対する励起光カットフィルタ308の遮断特性は完全ではない。励起光カットフィルタ308は、励起光の波長帯域の一部の光を遮断し、励起光の波長帯域の残りの光と蛍光と可視光とを透過させる。
 励起光カットフィルタ308を透過した励起光と蛍光とはイメージセンサ309に入射する。イメージセンサ309は、赤色光に基づくR信号(第1の画像信号)と、緑色光に基づくG信号(第1の画像信号)と、青色光に基づくB信号(第1の画像信号)とを生成する。さらに、イメージセンサ309は、励起光と蛍光とに基づくIR信号(第2の画像信号)を生成する。
 上記以外の点については、図5に示す構成は、図1に示す構成と同様である。
 図7は、イメージセンサ309の画素配列を示している。イメージセンサ309は、複数の画素309Rと、複数の画素309Gと、複数の画素309Bと、複数の画素309IRとを有する。複数の画素309Rと、複数の画素309Gと、複数の画素309Bと、複数の画素309IRとは、行列状に配置されている。図7では、代表として、1つの画素309Rと、1つの画素309Gと、1つの画素309Bと、1つの画素309IRとの符号が示されている。1つの画素309Rと、1つの画素309Gと、1つの画素309Bと、1つの画素309IRとは、単位配列を構成する。図7に示す画素配列では、複数の単位配列が2次元状に周期的に配置されている。
 赤色光を透過するフィルタが複数の画素309Rの表面に配置されている。緑色光を透過するフィルタが複数の画素309Gの表面に配置されている。青色光を透過するフィルタが複数の画素309Bの表面に配置されている。蛍光を透過するフィルタが複数の画素309IRの表面に配置されている。複数の画素309Rは、赤色光に基づくR信号を生成する。複数の画素309Gは、緑色光に基づくG信号を生成する。複数の画素309IRは、蛍光に基づくIR信号を生成する。したがって、複数の画素309Rと、複数の画素309Gと、複数の画素309Bとは、可視光撮像部を構成する。複数の画素309IRは、蛍光撮像部を構成する。
 (第2の変形例)
 図8は、本発明の第1の実施形態と第2の実施形態との第2の変形例の内視鏡装置1cの構成を示している。図8に示すように、内視鏡装置1cは、光源部10cと、内視鏡スコープ部20と、カメラヘッド30c(撮像部)と、信号処理部40と、表示部50とを有する。図8では、光源部10cと、内視鏡スコープ部20と、カメラヘッド30cとの概略構成が示されている。
 図8に示す構成について、図5に示す構成と異なる点を説明する。光源部10cは、光源100と、バンドパスフィルタ101と、コンデンサレンズ102と、帯域制限フィルタ103と、RGB回転フィルタ104とを有する。光源100は、図1に示す光源100と同一である。バンドパスフィルタ101は、図1に示すバンドパスフィルタ101と同一である。コンデンサレンズ102は、図1に示すコンデンサレンズ102と同一である。
 バンドパスフィルタ101を透過した可視光と励起光とは、帯域制限フィルタ103に入射する。帯域制限フィルタ103は、第1のフィルタと、第2のフィルタとを有する。第1のフィルタは、可視光のみを透過する。第2のフィルタは、励起光のみを透過する。帯域制限フィルタ103は、回転式のフィルタである。第1のフィルタと第2のフィルタとの1つが光路に配置される。可視光の撮像時には、第1のフィルタが光路に配置される。帯域制限フィルタ103は、可視光を透過させる。蛍光の撮像時には、第2のフィルタが光路に配置される。帯域制限フィルタ103は、励起光を透過させる。
 帯域制限フィルタ103を透過した光は、RGB回転フィルタ104に入射する。RGB回転フィルタ104は、第3のフィルタと、第4のフィルタと、第5のフィルタとを有する。第3のフィルタは、緑色光と青色光とを遮断し、赤色光と励起光とを透過させる。第4のフィルタは、赤色光と青色光とを遮断し、緑色光と励起光とを透過させる。第5のフィルタは、赤色光と緑色光とを遮断し、青色光と励起光とを透過させる。RGB回転フィルタ104は、回転式のフィルタである。第3のフィルタと第4のフィルタと第5のフィルタとが光路に順次配置される。可視光の撮像時には、RGB回転フィルタ104は、赤色光と緑色光と青色光とを順次透過させる。蛍光の撮像時には、RGB回転フィルタ104は、励起光を透過させる。
 カメラヘッド30cは、結像レンズ300と、励起光カットフィルタ308と、イメージセンサ310(可視光撮像部および蛍光撮像部)とを有する。結像レンズ300は、図1に示す結像レンズ300と同一である。励起光カットフィルタ308は、図8に示す励起光カットフィルタ308と同一である。
 イメージセンサ310は、可視光と蛍光とに対する感度を有する。可視光の撮像時には、赤色光と緑色光と青色光とが励起光カットフィルタ308を順次透過する。イメージセンサ310は、赤色光に基づくR信号と、緑色光に基づくG信号と、青色光に基づくB信号とを順次生成する。蛍光の撮像時には、励起光と蛍光とが励起光カットフィルタ308を透過する。イメージセンサ310は、励起光と蛍光とに基づくIR信号を生成する。
 上記のように、イメージセンサ310は、R信号とG信号とB信号とIR信号とを異なるタイミングで生成することができる。
 上記以外の点については、図8に示す構成は、図5に示す構成と同様である。
 以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
 本発明の各実施形態によれば、撮像装置は、蛍光領域がより鮮明に光る蛍光画像を表示するための蛍光画像信号を生成することができる。
 1a,1b,1c,1001 内視鏡装置
 10,10c,1010 光源部
 20,1020 内視鏡スコープ部
 30a,30b,30c,1030 カメラヘッド
 40 信号処理部
 50 表示部
 100,1100 光源
 101,1101 バンドパスフィルタ
 102,1102 コンデンサレンズ
 103 帯域制限フィルタ
 104 RGB回転フィルタ
 200,1200 ライトガイド
 201,1201 照明レンズ
 202,1202 対物レンズ
 203,1203 イメージガイド
 300,1300 結像レンズ
 301,1301 ダイクロイックミラー
 302,308,1302 励起光カットフィルタ
 304,1304 ダイクロイックプリズム
 303,305,306,307,309,310,1303,1305,1306,1307 イメージセンサ
 400 メモリ
 401 RGB信号処理部
 402 注目領域判定部
 403 蛍光領域判定部
 404 IR信号処理部
 500,1050 モニタ
 1040 プロセッサ

Claims (8)

  1.  被写体からの可視光に基づく第1の画像信号を生成し、かつ前記被写体からの励起光と蛍光とに基づく第2の画像信号を生成する撮像部と、
     前記第1の画像信号と前記第2の画像信号とに基づいて、前記蛍光に対応する蛍光画像信号を生成する信号処理部と、
     を有し、
     前記信号処理部は、前記第1の画像信号に基づいて、前記被写体における注目領域を判定し、
     前記信号処理部は、前記注目領域に対応する前記第2の画像信号に基づいて、蛍光領域を判定し、前記蛍光領域は、前記被写体において前記蛍光を発生し、
     前記信号処理部は、前記蛍光領域に対応する前記第2の画像信号の強調処理を行う
     撮像装置。
  2.  前記信号処理部は、前記蛍光領域に対応する前記第2の画像信号の信号値のみに所定値を加算または乗算することにより前記強調処理を行う
     請求項1に記載の撮像装置。
  3.  前記信号処理部は、前記蛍光領域に対応する前記第2の画像信号の信号値のみに、前記信号値に応じた値を加算または乗算することにより前記強調処理を行う
     請求項1に記載の撮像装置。
  4.  前記信号処理部は、前記第1の画像信号の各画素の信号値と、基準値との相関度に応じた各画素の領域判定係数を算出し、前記基準値は、前記注目領域に対応する前記第1の画像信号の信号値として期待される値に対応し、
     前記信号処理部は、前記領域判定係数に基づいて、前記注目領域を判定する
     請求項1に記載の撮像装置。
  5.  前記信号処理部は、前記強調処理が行われた前記第2の画像信号の各画素の信号値と前記各画素の領域判定係数とを乗算する
     請求項4に記載の撮像装置。
  6.  前記撮像部は
     前記被写体からの第1の光を第2の光と第3の光とに分割し、前記第1の光は前記可視光と前記励起光と前記蛍光とを含み、前記第2の光は前記可視光を含み、前記第3の光は前記励起光と前記蛍光とを含むダイクロイックミラーと、
     前記第2の光が入射し、かつ前記第1の画像信号を生成する可視光撮像部と、
     前記蛍光の透過率が前記励起光の透過率よりも高く、かつ前記第3の光が入射する励起光カットフィルタと、
     前記励起光カットフィルタを透過した前記第3の光が入射し、かつ前記第2の画像信号を生成する蛍光撮像部と、
     を有し、
     前記可視光撮像部と前記蛍光撮像部とは、前記信号処理部に接続されている
     請求項1に記載の撮像装置。
  7.  前記信号処理部は、
     前記被写体の特性を示す被写体特性情報が記録され、前記被写体特性情報は前記被写体の前記第1の画像信号から生成されるメモリと、
     前記メモリに記録された前記被写体特性情報と前記第1の画像信号とに基づいて、前記注目領域を判定する注目領域判定部と、
     を有する
     請求項1に記載の撮像装置。
  8.  前記信号処理部は、前記第1の画像信号の各画素の信号値から前記各画素の彩度と色相とを算出し、
     前記信号処理部は、前記各画素の前記彩度と前記色相とに基づいて、前記注目領域を判定する
     請求項1に記載の撮像装置。
PCT/JP2015/067452 2015-06-17 2015-06-17 撮像装置 Ceased WO2016203572A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017524202A JP6484336B2 (ja) 2015-06-17 2015-06-17 撮像装置
DE112015006505.9T DE112015006505T5 (de) 2015-06-17 2015-06-17 Bildgebungsvorrichtung
PCT/JP2015/067452 WO2016203572A1 (ja) 2015-06-17 2015-06-17 撮像装置
CN201580080849.7A CN107708518A (zh) 2015-06-17 2015-06-17 摄像装置
US15/801,849 US20180116520A1 (en) 2015-06-17 2017-11-02 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/067452 WO2016203572A1 (ja) 2015-06-17 2015-06-17 撮像装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/801,849 Continuation US20180116520A1 (en) 2015-06-17 2017-11-02 Imaging apparatus

Publications (1)

Publication Number Publication Date
WO2016203572A1 true WO2016203572A1 (ja) 2016-12-22

Family

ID=57545618

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/067452 Ceased WO2016203572A1 (ja) 2015-06-17 2015-06-17 撮像装置

Country Status (5)

Country Link
US (1) US20180116520A1 (ja)
JP (1) JP6484336B2 (ja)
CN (1) CN107708518A (ja)
DE (1) DE112015006505T5 (ja)
WO (1) WO2016203572A1 (ja)

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111601536A (zh) * 2017-12-27 2020-08-28 爱惜康有限责任公司 缺光环境中的超光谱成像
US11266304B2 (en) 2019-06-20 2022-03-08 Cilag Gmbh International Minimizing image sensor input/output in a pulsed hyperspectral imaging system
US11284785B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Controlling integral energy of a laser pulse in a hyperspectral, fluorescence, and laser mapping imaging system
US11360028B2 (en) 2019-06-20 2022-06-14 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11389066B2 (en) 2019-06-20 2022-07-19 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11398011B2 (en) 2019-06-20 2022-07-26 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed laser mapping imaging system
US11399717B2 (en) 2019-06-20 2022-08-02 Cilag Gmbh International Hyperspectral and fluorescence imaging and topology laser mapping with minimal area monolithic image sensor
US11412152B2 (en) 2019-06-20 2022-08-09 Cilag Gmbh International Speckle removal in a pulsed hyperspectral imaging system
US11412920B2 (en) 2019-06-20 2022-08-16 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11432706B2 (en) 2019-06-20 2022-09-06 Cilag Gmbh International Hyperspectral imaging with minimal area monolithic image sensor
US11477390B2 (en) 2019-06-20 2022-10-18 Cilag Gmbh International Fluorescence imaging with minimal area monolithic image sensor
US11471055B2 (en) 2019-06-20 2022-10-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11516388B2 (en) 2019-06-20 2022-11-29 Cilag Gmbh International Pulsed illumination in a fluorescence imaging system
US11516387B2 (en) 2019-06-20 2022-11-29 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11533417B2 (en) 2019-06-20 2022-12-20 Cilag Gmbh International Laser scanning and tool tracking imaging in a light deficient environment
US11531112B2 (en) 2019-06-20 2022-12-20 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral, fluorescence, and laser mapping imaging system
US11540696B2 (en) 2019-06-20 2023-01-03 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11550057B2 (en) 2019-06-20 2023-01-10 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11612309B2 (en) 2019-06-20 2023-03-28 Cilag Gmbh International Hyperspectral videostroboscopy of vocal cords
US11617541B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for fluorescence imaging
US11622094B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11624830B2 (en) 2019-06-20 2023-04-11 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for laser mapping imaging
US11633089B2 (en) 2019-06-20 2023-04-25 Cilag Gmbh International Fluorescence imaging with minimal area monolithic image sensor
JP2023076540A (ja) * 2018-10-12 2023-06-01 富士フイルム株式会社 医用画像処理装置、内視鏡システム、プログラム、及び医用画像処理装置の作動方法
US11668920B2 (en) 2019-06-20 2023-06-06 Cilag Gmbh International Driving light emissions according to a jitter specification in a fluorescence imaging system
US11671691B2 (en) 2019-06-20 2023-06-06 Cilag Gmbh International Image rotation in an endoscopic laser mapping imaging system
US11674848B2 (en) 2019-06-20 2023-06-13 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for hyperspectral imaging
US11700995B2 (en) 2019-06-20 2023-07-18 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11716543B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11716533B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11758256B2 (en) 2019-06-20 2023-09-12 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11793399B2 (en) 2019-06-20 2023-10-24 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral imaging system
US11821989B2 (en) 2019-06-20 2023-11-21 Cllag GmbH International Hyperspectral, fluorescence, and laser mapping imaging with fixed pattern noise cancellation
US11854175B2 (en) 2019-06-20 2023-12-26 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11877065B2 (en) 2019-06-20 2024-01-16 Cilag Gmbh International Image rotation in an endoscopic hyperspectral imaging system
US11892403B2 (en) 2019-06-20 2024-02-06 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11898909B2 (en) 2019-06-20 2024-02-13 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11903563B2 (en) 2019-06-20 2024-02-20 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11925328B2 (en) 2019-06-20 2024-03-12 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral imaging system
US11931009B2 (en) 2019-06-20 2024-03-19 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral imaging system
US11937784B2 (en) 2019-06-20 2024-03-26 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11986160B2 (en) 2019-06-20 2024-05-21 Cllag GmbH International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral imaging system
US12013496B2 (en) 2019-06-20 2024-06-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed laser mapping imaging system
US12058431B2 (en) 2019-06-20 2024-08-06 Cilag Gmbh International Hyperspectral imaging in a light deficient environment
US12069377B2 (en) 2019-06-20 2024-08-20 Cilag Gmbh International Speckle removal in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US12064088B2 (en) 2019-06-20 2024-08-20 Cllag GmbH International Image rotation in an endoscopic hyperspectral, fluorescence, and laser mapping imaging system
US12126887B2 (en) 2019-06-20 2024-10-22 Cilag Gmbh International Hyperspectral and fluorescence imaging with topology laser scanning in a light deficient environment
US12440085B2 (en) 2019-06-20 2025-10-14 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed laser mapping imaging system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021149558A (ja) * 2020-03-19 2021-09-27 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置、医療用観察システムおよび画像処理方法
US20240215799A1 (en) * 2021-05-10 2024-07-04 Given Imaging Ltd. In vivo device and a combined imager therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011135983A (ja) * 2009-12-28 2011-07-14 Olympus Corp 画像処理装置、電子機器、プログラム及び画像処理方法
JP2012005512A (ja) * 2010-06-22 2012-01-12 Olympus Corp 画像処理装置、内視鏡装置、内視鏡システム、プログラム及び画像処理方法
JP2012152460A (ja) * 2011-01-27 2012-08-16 Fujifilm Corp 医療システム、医療システムのプロセッサ装置、及び画像生成方法
JP2012249804A (ja) * 2011-06-02 2012-12-20 Olympus Corp 蛍光観察装置
WO2013051431A1 (ja) * 2011-10-06 2013-04-11 オリンパス株式会社 蛍光観察装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6821245B2 (en) * 2000-07-14 2004-11-23 Xillix Technologies Corporation Compact fluorescence endoscopy video system
US20020182603A1 (en) * 2001-04-20 2002-12-05 Chapman William H. Uniformly functionalized surfaces for microarrays
US8620410B2 (en) * 2002-03-12 2013-12-31 Beth Israel Deaconess Medical Center Multi-channel medical imaging system
JP3869324B2 (ja) * 2002-06-26 2007-01-17 オリンパス株式会社 蛍光観察用画像処理装置
US8498695B2 (en) * 2006-12-22 2013-07-30 Novadaq Technologies Inc. Imaging system with a single color image sensor for simultaneous fluorescence and color video endoscopy
WO2009094465A1 (en) * 2008-01-24 2009-07-30 Lifeguard Surgical Systems Common bile duct surgical imaging system
JP5242479B2 (ja) * 2009-03-26 2013-07-24 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理装置の作動方法
DE102009024943A1 (de) * 2009-06-10 2010-12-16 W.O.M. World Of Medicine Ag Bildgebungssystem und Verfahren zur fluoreszenz-optischen Visualisierung eines Objekts
JP5484997B2 (ja) * 2010-04-12 2014-05-07 オリンパス株式会社 蛍光観察装置および蛍光観察装置の作動方法
JP5485191B2 (ja) * 2011-01-19 2014-05-07 富士フイルム株式会社 内視鏡装置
JP2012245285A (ja) * 2011-05-31 2012-12-13 Fujifilm Corp 光源装置
CN103607940B (zh) * 2011-06-21 2015-11-25 奥林巴斯株式会社 荧光观察装置、荧光观察系统和荧光图像处理方法
EP2735257A4 (en) * 2011-07-22 2015-05-27 Olympus Corp FLUORESCENCE ENDOSCOPE SYSTEM
BRPI1103937A2 (pt) * 2011-09-05 2013-08-06 Prates Joel Aires circuito sincronizador comulador reversÍvel automÁtico
JP5993237B2 (ja) * 2012-07-25 2016-09-14 オリンパス株式会社 蛍光観察装置
JP6017219B2 (ja) * 2012-08-01 2016-10-26 オリンパス株式会社 蛍光観察装置および蛍光観察システム
CN104853666B (zh) * 2012-12-13 2016-11-02 奥林巴斯株式会社 荧光观察装置
JP2014198144A (ja) * 2013-03-29 2014-10-23 ソニー株式会社 画像処理装置、画像処理方法、情報処理プログラム、蛍光観察システム、および蛍光ナビゲーション・サージェリー・システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011135983A (ja) * 2009-12-28 2011-07-14 Olympus Corp 画像処理装置、電子機器、プログラム及び画像処理方法
JP2012005512A (ja) * 2010-06-22 2012-01-12 Olympus Corp 画像処理装置、内視鏡装置、内視鏡システム、プログラム及び画像処理方法
JP2012152460A (ja) * 2011-01-27 2012-08-16 Fujifilm Corp 医療システム、医療システムのプロセッサ装置、及び画像生成方法
JP2012249804A (ja) * 2011-06-02 2012-12-20 Olympus Corp 蛍光観察装置
WO2013051431A1 (ja) * 2011-10-06 2013-04-11 オリンパス株式会社 蛍光観察装置

Cited By (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12020450B2 (en) 2017-12-27 2024-06-25 Cilag Gmbh International Fluorescence imaging in a light deficient environment
IL275571B1 (en) * 2017-12-27 2024-06-01 Ethicon Llc Hyperspectral imaging in a light deficient environment
JP2021508546A (ja) * 2017-12-27 2021-03-11 エシコン エルエルシーEthicon LLC 光不足環境における蛍光撮像
EP3731723A4 (en) * 2017-12-27 2021-10-20 Ethicon LLC HYPERSPECTRAL IMAGING IN AN INSUFFICIENTLY ILLUMINATED ENVIRONMENT
US12518410B2 (en) 2017-12-27 2026-01-06 Cliag GmbH International Hyperspectral imaging with tool tracking in a light deficient environment
US12499566B2 (en) 2017-12-27 2025-12-16 Cilag Gmbh International Hyperspectral imaging in a light deficient environment
JP2021508560A (ja) * 2017-12-27 2021-03-11 エシコン エルエルシーEthicon LLC 光不足環境における蛍光撮像
IL275571B2 (en) * 2017-12-27 2024-10-01 Ethicon Llc Hyperspectral imaging in a light deficient environment
US11574412B2 (en) 2017-12-27 2023-02-07 Cilag GmbH Intenational Hyperspectral imaging with tool tracking in a light deficient environment
US12026900B2 (en) 2017-12-27 2024-07-02 Cllag GmbH International Hyperspectral imaging in a light deficient environment
US11900623B2 (en) 2017-12-27 2024-02-13 Cilag Gmbh International Hyperspectral imaging with tool tracking in a light deficient environment
CN111601536A (zh) * 2017-12-27 2020-08-28 爱惜康有限责任公司 缺光环境中的超光谱成像
CN111601536B (zh) * 2017-12-27 2023-12-15 爱惜康有限责任公司 缺光环境中的超光谱成像
US11823403B2 (en) 2017-12-27 2023-11-21 Cilag Gmbh International Fluorescence imaging in a light deficient environment
JP7430287B2 (ja) 2018-10-12 2024-02-09 富士フイルム株式会社 医用画像処理装置及び内視鏡システム
JP2023076540A (ja) * 2018-10-12 2023-06-01 富士フイルム株式会社 医用画像処理装置、内視鏡システム、プログラム、及び医用画像処理装置の作動方法
US11758256B2 (en) 2019-06-20 2023-09-12 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11882352B2 (en) 2019-06-20 2024-01-23 Cllag GmbH International Controlling integral energy of a laser pulse in a hyperspectral,fluorescence, and laser mapping imaging system
US11471055B2 (en) 2019-06-20 2022-10-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11516388B2 (en) 2019-06-20 2022-11-29 Cilag Gmbh International Pulsed illumination in a fluorescence imaging system
US11516387B2 (en) 2019-06-20 2022-11-29 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11533417B2 (en) 2019-06-20 2022-12-20 Cilag Gmbh International Laser scanning and tool tracking imaging in a light deficient environment
US11531112B2 (en) 2019-06-20 2022-12-20 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral, fluorescence, and laser mapping imaging system
US11540696B2 (en) 2019-06-20 2023-01-03 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11550057B2 (en) 2019-06-20 2023-01-10 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11432706B2 (en) 2019-06-20 2022-09-06 Cilag Gmbh International Hyperspectral imaging with minimal area monolithic image sensor
US11589819B2 (en) 2019-06-20 2023-02-28 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a laser mapping imaging system
US11612309B2 (en) 2019-06-20 2023-03-28 Cilag Gmbh International Hyperspectral videostroboscopy of vocal cords
US11617541B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for fluorescence imaging
US11622094B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11624830B2 (en) 2019-06-20 2023-04-11 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for laser mapping imaging
US11633089B2 (en) 2019-06-20 2023-04-25 Cilag Gmbh International Fluorescence imaging with minimal area monolithic image sensor
US11412920B2 (en) 2019-06-20 2022-08-16 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11668920B2 (en) 2019-06-20 2023-06-06 Cilag Gmbh International Driving light emissions according to a jitter specification in a fluorescence imaging system
US11668919B2 (en) 2019-06-20 2023-06-06 Cilag Gmbh International Driving light emissions according to a jitter specification in a laser mapping imaging system
US11671691B2 (en) 2019-06-20 2023-06-06 Cilag Gmbh International Image rotation in an endoscopic laser mapping imaging system
US11668921B2 (en) 2019-06-20 2023-06-06 Cilag Gmbh International Driving light emissions according to a jitter specification in a hyperspectral, fluorescence, and laser mapping imaging system
US11674848B2 (en) 2019-06-20 2023-06-13 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for hyperspectral imaging
US11686847B2 (en) 2019-06-20 2023-06-27 Cilag Gmbh International Pulsed illumination in a fluorescence imaging system
US11700995B2 (en) 2019-06-20 2023-07-18 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11716543B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11712155B2 (en) 2019-06-20 2023-08-01 Cilag GmbH Intenational Fluorescence videostroboscopy of vocal cords
US11716533B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11727542B2 (en) 2019-06-20 2023-08-15 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11740448B2 (en) 2019-06-20 2023-08-29 Cilag Gmbh International Driving light emissions according to a jitter specification in a fluorescence imaging system
US11747479B2 (en) 2019-06-20 2023-09-05 Cilag Gmbh International Pulsed illumination in a hyperspectral, fluorescence and laser mapping imaging system
US11412152B2 (en) 2019-06-20 2022-08-09 Cilag Gmbh International Speckle removal in a pulsed hyperspectral imaging system
US11754500B2 (en) 2019-06-20 2023-09-12 Cilag Gmbh International Minimizing image sensor input/output in a pulsed fluorescence imaging system
US11788963B2 (en) 2019-06-20 2023-10-17 Cilag Gmbh International Minimizing image sensor input/output in a pulsed fluorescence imaging system
US11793399B2 (en) 2019-06-20 2023-10-24 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral imaging system
US11399717B2 (en) 2019-06-20 2022-08-02 Cilag Gmbh International Hyperspectral and fluorescence imaging and topology laser mapping with minimal area monolithic image sensor
US11821989B2 (en) 2019-06-20 2023-11-21 Cllag GmbH International Hyperspectral, fluorescence, and laser mapping imaging with fixed pattern noise cancellation
US11398011B2 (en) 2019-06-20 2022-07-26 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed laser mapping imaging system
US11854175B2 (en) 2019-06-20 2023-12-26 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11877065B2 (en) 2019-06-20 2024-01-16 Cilag Gmbh International Image rotation in an endoscopic hyperspectral imaging system
US11477390B2 (en) 2019-06-20 2022-10-18 Cilag Gmbh International Fluorescence imaging with minimal area monolithic image sensor
US11895397B2 (en) 2019-06-20 2024-02-06 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11892403B2 (en) 2019-06-20 2024-02-06 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11389066B2 (en) 2019-06-20 2022-07-19 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11360028B2 (en) 2019-06-20 2022-06-14 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11898909B2 (en) 2019-06-20 2024-02-13 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11903563B2 (en) 2019-06-20 2024-02-20 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11924535B2 (en) 2019-06-20 2024-03-05 Cila GmbH International Controlling integral energy of a laser pulse in a laser mapping imaging system
US11925328B2 (en) 2019-06-20 2024-03-12 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral imaging system
US11931009B2 (en) 2019-06-20 2024-03-19 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral imaging system
US11937784B2 (en) 2019-06-20 2024-03-26 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11940615B2 (en) 2019-06-20 2024-03-26 Cilag Gmbh International Driving light emissions according to a jitter specification in a multispectral, fluorescence, and laser mapping imaging system
US11949974B2 (en) 2019-06-20 2024-04-02 Cilag Gmbh International Controlling integral energy of a laser pulse in a fluorescence imaging system
US11974860B2 (en) 2019-06-20 2024-05-07 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral, fluorescence, and laser mapping imaging system
US11986160B2 (en) 2019-06-20 2024-05-21 Cllag GmbH International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral imaging system
US11337596B2 (en) 2019-06-20 2022-05-24 Cilag Gmbh International Controlling integral energy of a laser pulse in a fluorescence imaging system
US12007550B2 (en) 2019-06-20 2024-06-11 Cilag Gmbh International Driving light emissions according to a jitter specification in a spectral imaging system
US12013496B2 (en) 2019-06-20 2024-06-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed laser mapping imaging system
US11311183B2 (en) 2019-06-20 2022-04-26 Cilag Gmbh International Controlling integral energy of a laser pulse in a fluorescence imaging system
US11284783B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Controlling integral energy of a laser pulse in a hyperspectral imaging system
US12025559B2 (en) 2019-06-20 2024-07-02 Cilag Gmbh International Minimizing image sensor input/output in a pulsed laser mapping imaging system
US12058431B2 (en) 2019-06-20 2024-08-06 Cilag Gmbh International Hyperspectral imaging in a light deficient environment
US12069377B2 (en) 2019-06-20 2024-08-20 Cilag Gmbh International Speckle removal in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US12064211B2 (en) 2019-06-20 2024-08-20 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US12064088B2 (en) 2019-06-20 2024-08-20 Cllag GmbH International Image rotation in an endoscopic hyperspectral, fluorescence, and laser mapping imaging system
US11284784B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Controlling integral energy of a laser pulse in a fluorescence imaging system
US12126887B2 (en) 2019-06-20 2024-10-22 Cilag Gmbh International Hyperspectral and fluorescence imaging with topology laser scanning in a light deficient environment
US12133715B2 (en) 2019-06-20 2024-11-05 Cilag Gmbh International Hyperspectral and fluorescence imaging and topology laser mapping with minimal area monolithic image sensor
US12148130B2 (en) 2019-06-20 2024-11-19 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US12181412B2 (en) 2019-06-20 2024-12-31 Cilag Gmbh International Minimizing image sensor input/output in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US12228516B2 (en) 2019-06-20 2025-02-18 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US12267573B2 (en) 2019-06-20 2025-04-01 Cilag Gmbh International Controlling integral energy of a laser pulse in a hyperspectral, fluorescence, and laser mapping imaging system
US12306306B2 (en) 2019-06-20 2025-05-20 Cilag Gmbh International Hyperspectral, fluorescence, and laser mapping imaging with fixed pattern noise cancellation
US12357162B2 (en) 2019-06-20 2025-07-15 Cilag Gmbh International Videostroboscopy of vocal cords with a hyperspectral, fluorescence, and laser mapping imaging system
US12440085B2 (en) 2019-06-20 2025-10-14 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed laser mapping imaging system
US12458290B2 (en) 2019-06-20 2025-11-04 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral, fluorescence, and laser mapping imaging system
US11284785B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Controlling integral energy of a laser pulse in a hyperspectral, fluorescence, and laser mapping imaging system
US11266304B2 (en) 2019-06-20 2022-03-08 Cilag Gmbh International Minimizing image sensor input/output in a pulsed hyperspectral imaging system
US12514504B2 (en) 2019-06-20 2026-01-06 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for hyperspectral, fluorescence, and laser mapping imaging

Also Published As

Publication number Publication date
CN107708518A (zh) 2018-02-16
US20180116520A1 (en) 2018-05-03
DE112015006505T5 (de) 2018-03-15
JPWO2016203572A1 (ja) 2018-04-05
JP6484336B2 (ja) 2019-03-13

Similar Documents

Publication Publication Date Title
JP6484336B2 (ja) 撮像装置
US7646002B2 (en) Fluorescence detecting system
JP5977302B2 (ja) 齲蝕の検出方法
US9247241B2 (en) Method and apparatus for detection of caries
EP2476373B1 (en) Endoscope system and processor apparatus thereof
JP7021183B2 (ja) 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
US20130338438A1 (en) Fluorescence endoscope apparatus
WO2017145529A1 (ja) 計算システム
CN107105977B (zh) 内窥镜装置
CN101588750A (zh) 用于早期检测龋齿的系统
CN107205613A (zh) 摄像装置
CN106714651B (zh) 评价值计算装置以及电子内窥镜系统
US20190008374A1 (en) Endoscope system
US20190041333A1 (en) Imaging method using fluoresence and associated image recording apparatus
JP5930474B2 (ja) 内視鏡システム及びその作動方法
US8300093B2 (en) Endoscope image processing method and apparatus, and endoscope system using the same
US10021356B2 (en) Method and apparatus for wide-band imaging based on narrow-band image data
KR102112229B1 (ko) 가시광 및 근적외선 광을 모두 가시화할 수 있는 내시경 장치
CN106687023A (zh) 评价值计算装置以及电子内窥镜系统
JP2021148886A5 (ja)
JP6535701B2 (ja) 撮像装置
WO2019088259A1 (ja) 電子内視鏡用プロセッサ及び電子内視鏡システム
JP2009125411A (ja) 内視鏡画像処理方法および装置ならびにこれを用いた内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15895593

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017524202

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112015006505

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15895593

Country of ref document: EP

Kind code of ref document: A1