[go: up one dir, main page]

WO2017221468A1 - 被検体内導入装置、送信方法及びプログラム - Google Patents

被検体内導入装置、送信方法及びプログラム Download PDF

Info

Publication number
WO2017221468A1
WO2017221468A1 PCT/JP2017/007962 JP2017007962W WO2017221468A1 WO 2017221468 A1 WO2017221468 A1 WO 2017221468A1 JP 2017007962 W JP2017007962 W JP 2017007962W WO 2017221468 A1 WO2017221468 A1 WO 2017221468A1
Authority
WO
WIPO (PCT)
Prior art keywords
image signal
wavelength band
pixel
data
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2017/007962
Other languages
English (en)
French (fr)
Inventor
和也 古保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017536040A priority Critical patent/JP6214841B1/ja
Publication of WO2017221468A1 publication Critical patent/WO2017221468A1/ja
Priority to US16/210,079 priority patent/US11259691B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters

Definitions

  • the present invention relates to an in-subject introduction apparatus, a transmission method, and a program that are introduced into a subject, acquire an in-vivo image in the subject, and transmit the acquired in-vivo image to the outside.
  • endoscopes irradiate a living tissue with white light or narrow band light, and take an image with an imaging unit, whereby a narrow band light image and a white light image capable of observing capillaries and fine patterns on the mucosal surface layer are observed.
  • the technique which can acquire is known (refer patent document 1).
  • the present invention has been made in view of the above, and it is possible to generate a special light image with high gradation without increasing the amount of data even when special light is irradiated. It is an object to provide an introduction apparatus, a transmission method, and a program.
  • an in-vivo introduction device receives first light in a first wavelength band and generates a first image signal, and the first pixel A second pixel that receives light in a second wavelength band different from the wavelength band and generates a second image signal; and receives light in a third wavelength band different from each of the first wavelength band and the second wavelength band; A special pixel that includes at least one of the first wavelength band or the second wavelength band and does not include the third wavelength band.
  • a data processing unit that allocates and outputs at least a part of at least one of the first image signal or the second image signal to the third image signal when the first pixel and the second pixel receive light; and the data processing
  • the first image signal output from the unit, the second image signal It characterized in that it comprises an image signal, and an output unit that outputs the third image signal.
  • the data processing unit receives a part of the first image signal.
  • the first image signal is assigned to the first data area
  • the remainder of the first image signal is assigned to the third data area of the third image signal
  • a part of the second image signal is assigned to the second image signal.
  • the second data area is allocated, and the remainder of the second image signal is allocated to the third data area of the third image signal.
  • the output unit is a signal allocated to the first, second and third data areas. Is output.
  • the data amount of the first, second, and third data regions is more than the data amount of each of the first, second, and third image signals.
  • the data processing unit When the first pixel and the second pixel each receive the special light, the data processing unit generates a data amount that is the same as the data amount of the first data area in the first image signal. Assigning to one data area, assigning at least part of the remaining data amount of the first image signal to the third data area, and assigning the same data amount as the data amount of the second data area in the second image signal. In addition to being allocated to the second data area, at least a part of the remaining data amount of the second image signal is allocated to the third data area and output.
  • the data processing unit may emit illumination light including light in each of the first wavelength band, the second wavelength band, and the third wavelength band.
  • the first pixel, the second pixel, and the third pixel receive light, the first image signal, the second image signal, and the third image signal are converted into a predetermined amount of data and output. To do.
  • the output unit externally outputs the first image signal, the second image signal, and the third image signal output from the data processing unit. It is characterized by transmitting to.
  • the first image signal and the second image are transmitted from the imaging unit.
  • a control unit that outputs only the image signal is further provided.
  • the in-subject introduction device in the above invention, includes a first illumination unit that irradiates illumination light including light in each of the first wavelength band, the second wavelength band, and the third wavelength band; And a second illumination unit for irradiating the special light.
  • the first wavelength band is a blue wavelength band
  • the second wavelength band is a green wavelength band
  • the third wavelength band Is the red wavelength band
  • the special light is the first wavelength band that is the blue wavelength band and is narrower than the blue wavelength band
  • the green wavelength band that is greater than the green wavelength band. It includes at least one light of a narrow second narrow band.
  • the first narrow band is 390 nm to 445 nm
  • the second narrow band is 530 nm to 550 nm.
  • the transmission method according to the present invention also includes a first pixel that receives light in the first wavelength band to generate a first image signal, and receives light in a second wavelength band that is different from the first wavelength band.
  • a second pixel that generates two image signals and a third pixel that receives light in a third wavelength band different from each of the first wavelength band and the second wavelength band and generates a third image signal.
  • a transmission method executed by the intra-subject introduction apparatus including the imaging unit configured to include special light that includes at least one of the first wavelength band or the second wavelength band and does not include the third wavelength band.
  • the first image output from the step No., the second image signal and characterized in that it comprises a and an output step of outputting the third image signal.
  • the program according to the present invention receives a first pixel that receives light in a first wavelength band to generate a first image signal, and receives light in a second wavelength band that is different from the first wavelength band and receives a second light.
  • the special light including at least one of the first wavelength band or the second wavelength band and not including the third wavelength band is transmitted to the first pixel and the second pixel.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a capsule endoscope system according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing a functional configuration of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 3 is a diagram schematically showing the configuration of the color filter of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 4 is a flowchart showing an outline of processing executed by the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 5A is a diagram schematically illustrating an overview of a reading process performed by the imaging unit of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 5A is a diagram schematically illustrating an overview of a reading process performed by the imaging unit of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 5B is a diagram schematically illustrating the number of bits of each pixel of the image signal after the A / D conversion processing by the A / D conversion unit of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 5C is a diagram schematically illustrating the number of bits of each pixel of the image signal after the gradation conversion processing by the gradation conversion unit of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 5D is a diagram schematically illustrating a bit of each pixel transmitted by the transmission / reception unit of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 6A is a diagram schematically illustrating the number of bits of each pixel of the image signal before the special light gradation conversion process by the gradation conversion unit of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 6B is a diagram schematically illustrating the number of bits of each pixel of the image signal after the special light gradation conversion processing by the gradation conversion unit of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 6C is a diagram schematically illustrating a bit of each pixel transmitted by the transmission / reception unit of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 7 is a flowchart showing an outline of processing executed by the capsule endoscope according to the second embodiment of the present invention.
  • FIG. 8 is a diagram schematically illustrating an outline of special light readout processing by the imaging unit of the capsule endoscope according to the second embodiment of the present invention.
  • FIG. 9A is a diagram schematically illustrating the number of bits of each pixel of an image signal before A / D conversion processing by the A / D conversion unit of the capsule endoscope according to the second embodiment of the present invention.
  • FIG. 9B is a diagram schematically illustrating the number of bits of each pixel of the image signal after the special light gradation conversion processing by the gradation conversion unit of the capsule endoscope according to the second embodiment of the present invention.
  • FIG. 10 is a diagram schematically illustrating the number of bits of each pixel of an image signal before special light gradation conversion processing by the gradation conversion unit of the capsule endoscope according to the modification of the second embodiment of the present invention. It is.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a capsule endoscope system according to Embodiment 1 of the present invention.
  • a capsule endoscope system 1 shown in FIG. 1 includes a capsule endoscope 2 that captures an in-vivo image in a subject 100 and a wireless transmission transmitted from the capsule endoscope 2 that is introduced into the subject 100.
  • a receiving antenna unit 3 that receives a signal
  • a receiving antenna unit 3 that is detachably connected
  • a reception device 4 that records or displays a radio signal received by the receiving antenna unit 3 by performing a predetermined process
  • a capsule-type endoscope An image processing device 5 for processing and / or displaying an image corresponding to an image signal in the subject 100 imaged by the mirror 2.
  • the capsule endoscope 2 has an imaging function for imaging the inside of the subject 100 and a wireless communication function for transmitting in-vivo information including an image signal obtained by imaging the inside of the subject 100 to the receiving antenna unit 3.
  • the capsule endoscope 2 passes through the esophagus in the subject 100 by being swallowed into the subject 100, and moves in the body cavity of the subject 100 by the peristaltic movement of the digestive tract cavity.
  • the capsule endoscope 2 sequentially images the inside of the body cavity of the subject 100 at a minute time interval, for example, 0.5 second interval (2 fps) while moving in the body cavity of the subject 100, and the captured inside of the subject 100 Are sequentially transmitted to the receiving antenna unit 3 by radio.
  • a minute time interval for example, 0.5 second interval (2 fps
  • the receiving antenna unit 3 includes receiving antennas 3a to 3h.
  • the receiving antennas 3a to 3h receive radio signals from the capsule endoscope 2 and transmit them to the receiving device 4.
  • the receiving antennas 3a to 3h are configured using loop antennas.
  • Each of the receiving antennas 3a to 3h is attached to a predetermined position on the external surface of the subject 100, for example, a position corresponding to each organ in the subject 100 that is a passage route of the capsule endoscope 2.
  • the receiving device 4 records an image signal in the subject 100 included in a radio signal received from the capsule endoscope 2 via the receiving antennas 3a to 3h or displays an image corresponding to the image signal in the subject 100. To do.
  • the receiving device 4 records the position information and time information of the capsule endoscope 2 in association with the radio signals received via the receiving antennas 3a to 3h.
  • the receiving device 4 is, for example, introduced from the mouth of the subject 100 until passing through the digestive tract and discharged from the subject 100 while the capsule endoscope 2 is inspected. It is stored in a holder (not shown) and carried by the subject 100.
  • the receiving device 4 is removed from the subject 100 after the examination by the capsule endoscope 2 and is connected to the image processing device 5 in order to transfer an image signal received from the capsule endoscope 2.
  • the image processing apparatus 5 is configured using a computer, a mobile terminal, or the like, and displays a display device 50 that displays an image corresponding to the image signal in the subject 100 transferred from the receiving apparatus 4. And a manipulation input device 52 such as a keyboard or a mouse.
  • the display device 50 is configured using a display panel such as liquid crystal or organic EL (Electro Luminescence).
  • the cradle 51 displays related information such as an image signal from the receiving device 4 and positional information, time information and identification information of the capsule endoscope 2 associated with the image signal. Transfer to the processor 5.
  • the operation input device 52 inputs a user operation to the computer.
  • the user While operating the operation input device 52, the user observes the living body part inside the subject 100, for example, the esophagus, stomach, small intestine, large intestine, and the like while viewing images in the subject 100 sequentially displayed by the image processing apparatus 5.
  • the subject 100 is diagnosed.
  • FIG. 2 is a block diagram showing a functional configuration of the capsule endoscope 2.
  • the capsule endoscope 2 shown in FIG. 2 irradiates white light to the capsule-type housing 20 formed in a size and shape that can be easily introduced into the digestive tract of a subject and the imaging field of the capsule endoscope 2.
  • a first illumination unit 21 that performs a second illumination unit 22 that irradiates the imaging field of the capsule endoscope 2 with special light, an optical system 23 that forms a subject image, and a subject image formed by the optical system 23
  • the image pickup unit 24 that receives the light and generates an image signal by performing photoelectric conversion, A / D conversion is performed on the analog image signal generated by the image pickup unit 24, and the gradation of the digital image signal is set to a predetermined bit.
  • a data processing unit 25 that converts the number into a number and outputs it, and an image signal after gradation conversion input from the data processing unit 25 is transmitted to the outside via the antenna 27, or a radio signal from the outside is transmitted
  • Transmitting and receiving unit 26 and capsule A recording unit 28 that records various information of the endoscope 2, a control unit 29 that controls each component of the capsule endoscope 2, and a power source that supplies power to each component of the capsule endoscope 2 30.
  • the capsule-type casing 20 is realized by closing both side opening ends of the cylindrical casing 201 with the dome-shaped casings 202 and 203.
  • the dome-shaped casing 203 is formed using a transparent member that can transmit white light emitted by the first illumination unit 21 or special light emitted by the second illumination unit 22.
  • the capsule housing 20 formed by the cylindrical housing 201 and the dome-shaped housings 202 and 203 includes a first illumination unit 21, a second illumination unit 22, an optical system 23, and an imaging system.
  • a unit 24, a data processing unit 25, a transmission / reception unit 26, an antenna 27, a recording unit 28, a control unit 29 and a power supply 30 are included.
  • the 1st illumination part 21 irradiates white light through the dome shape housing
  • the first illumination unit 21 is configured using a white LED (Light Emitting Diode) or the like.
  • the second illumination unit 22 irradiates special light through the dome-shaped housing 203 toward at least a region including the imaging field of view of the capsule endoscope 2 under the control of the control unit 29.
  • special light refers to blue narrow-band light (for example, 390 nm to 445 nm) and green narrow-band light when the capsule endoscope 2 performs narrow-band light observation (NBI). (For example, 530 nm to 550 nm).
  • the optical system 23 focuses reflected light from the mucous membrane of the subject on the imaging surface of the imaging unit 24 to form a subject image.
  • the optical system 23 is configured using one or more lenses, for example, a condenser lens and a focus lens.
  • the imaging unit 24 sequentially generates image signals of the subject image formed by the optical system 23 according to a predetermined frame rate under the control of the control unit 29, and outputs the generated image signal to the data processing unit 25.
  • the imaging unit 24 includes a color filter 241 and an imaging element 242.
  • the color filter 241 transmits light of a predetermined wavelength band.
  • the color filter 241 includes light in a red wavelength band, light in a green wavelength band, and light in a blue wavelength band (for example, red: 600 nm to 700 nm, green: 500 nm to 600 nm, blue: 400 nm to 500 nm). ) Consists of a plurality of filters that pass through each.
  • FIG. 3 is a diagram schematically showing the configuration of the color filter 241.
  • the color filter 241 uses a filter R that transmits light in the red wavelength band, filters Gr and Gb that transmit light in the green wavelength band, and a filter B that transmits light in the blue wavelength band. Configured. Further, the color filter 241 is configured such that the filter R, the filter Gr, the filter Gb, and the filter B are arranged on the light receiving surface of each pixel of the image sensor 242 described later by a Bayer array.
  • the image sensor 242 generates an analog image signal by receiving the subject image formed by the optical system 23 through the color filter 241 and performing photoelectric conversion under the control of the control unit 29 to generate and generate the analog image signal.
  • the analog image signal is output to the data processing unit 25.
  • the image sensor 242 is configured by a plurality of pixels arranged in a two-dimensional lattice, and is configured using, for example, a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD).
  • CMOS complementary metal oxide semiconductor
  • CCD charge coupled device
  • a pixel in which the R filter is disposed on the light receiving surface is an R pixel
  • a pixel in which the Gr filter is disposed on the light receiving surface is a Gr pixel
  • a pixel in which the Gb filter is disposed on the light receiving surface is a Gb pixel
  • B A pixel in which the filter is disposed on the light receiving surface is referred to as a B pixel.
  • a signal output from each of the plurality of B pixels is a first image signal
  • a signal output from each of the plurality of Gr pixels and the plurality of Gb pixels is a second image signal
  • a signal output from each of the plurality of R pixels Is referred to as a third image signal.
  • the data processing unit 25 includes an A / D conversion unit 251 and a gradation conversion unit 252. Under the control of the control unit 29, the data processing unit 25 performs A / D conversion on the analog image signal generated by the imaging unit 24, and converts the gradation of the digital image signal to a predetermined number of bits. Convert and output.
  • the A / D conversion unit 251 is configured using an ASIC, and performs an A / D conversion process that converts an analog image signal input from the imaging unit 24 into a digital image signal under the control of the control unit 29. And output to the gradation converter 252. Specifically, the A / D conversion unit 251 converts an analog image signal input from each of the R pixel, the Gr pixel, the Gb pixel, and the B pixel of the image sensor 242 into a digital image signal having a predetermined number of bits. And output to the gradation converter 252.
  • the predetermined number of bits is 12 bits. The number of bits is not limited to this, and may be changed as appropriate according to the performance of the image sensor 242 and the like.
  • the gradation conversion unit 252 is configured using an ASIC, and converts the digital image signal input from the A / D conversion unit 251 into a predetermined data amount to the transmission / reception unit 26 under the control of the control unit 29. Output.
  • the gradation conversion unit 252 includes a first image signal corresponding to each pixel input from the A / D conversion unit 251 when the R pixel, the Gr pixel, the Gb pixel, and the B pixel receive white light. Then, a 12-bit image signal of the second image signal and the third image signal is converted to 8 bits, and a gradation conversion process for resizing the data amount is performed and output to the transmission / reception unit 26.
  • the gradation conversion unit 252 receives the first image.
  • a gradation conversion process for assigning at least one part of the signal or the second image signal to the third image signal is performed and output to the transmission / reception unit 26.
  • the gradation conversion unit 252 allocates a part of the first image signal to the first data area of the first image signal, and The remainder of one image signal is assigned to the third data area of the third image signal, a part of the second image signal is assigned to the second data area of the second image signal, and the remainder of the second image signal is assigned to the third image signal.
  • the gradation conversion process assigned to the third data area is performed. More specifically, the gradation converting unit 252 assigns the data amount of the upper bits of each of the first image signal and the second image signal to the first data region and the second data region, and also includes the first image signal and the first image signal.
  • the amount of data of the lower bits of each of the two image signals is assigned to the third data area assigned to the third image signal and output.
  • the gradation conversion unit 252 is a high-order bit that has the same data amount as the data amount of the first data area among the 12 bits of the first image signal. Are allocated to the first data area, and the lower 4-bit data quantity, which is the remaining data quantity of the first image signal, is allocated to the third data area. Further, the gradation conversion unit 252 allocates an 8-bit data amount of upper bits, which is the same data amount as the data amount of the second data region, out of the 12 bits of the second image signal to the second data region.
  • the data amount of the lower 4 bits, which is the remaining data amount of the two image signals, is allocated to the third data area.
  • the tone conversion unit 252 may output the tone-converted image signal to the recording unit 28 without outputting the image signal to the transmission / reception unit 26.
  • the transmission / reception unit 26 sequentially wirelessly transmits the image signal after gradation conversion input from the gradation conversion unit 252 to the outside via the antenna 27. Specifically, the transmission / reception unit 26 uses the amount of data per unit time determined in advance by the band to be transmitted and the imaging frame rate of the imaging device 242, and the image after gradation conversion input from the gradation conversion unit 252. The signal is sequentially wirelessly transmitted to the outside via the antenna 27. Note that the transmission / reception unit 26 may perform signal processing such as modulation on the image signal after gradation conversion to generate a radio signal, and transmit the radio signal to the outside. In addition, the transmission / reception unit 26 receives a radio signal transmitted from the outside via the antenna 27, performs a demodulation process on the radio signal, and outputs the radio signal to the control unit 29.
  • the recording unit 28 is configured by using a ROM (Read Only Memory), a RAM (Random Access Memory), or the like, and various programs executed by the capsule endoscope 2, image signals, and the capsule endoscope 2 are processing. Record various information.
  • the recording unit 28 sequentially records the image signals after the gradation conversion input from the gradation conversion unit 252, and the recorded gradation conversion is performed after the capsule endoscope 2 is discharged out of the body.
  • the subsequent image signals may be collectively transmitted to the outside. Further, signal processing such as interpolation and compression may be performed on the recorded image signal after gradation conversion.
  • the control unit 29 is configured using a CPU (Central Processing Unit) or the like, and controls driving of each component of the capsule endoscope 2 and also controls input / output of signals between these components.
  • CPU Central Processing Unit
  • the power source 30 is configured using a storage battery such as a button-type battery or a capacitor, and a switch that is switched by a command from the control unit 29.
  • the power supply 30 supplies power to each component of the capsule endoscope 2.
  • FIG. 4 is a flowchart showing an outline of processing executed by the capsule endoscope 2. The following processing may be performed by the control unit 29 outputting an instruction signal to each unit of the capsule endoscope 2 to control each unit.
  • step S101 Yes
  • the 1st illumination part 21 irradiates white light (step S102).
  • the imaging part 24 images the area
  • the imaging unit 24 executes a reading process of reading an image signal from each pixel of the imaging element 242 (step S104).
  • the A / D conversion unit 251 executes A / D conversion processing on the image signal read from the image sensor 242 (step S105).
  • FIG. 5A is a diagram schematically illustrating an outline of a reading process performed by the imaging unit 24.
  • FIG. 5B is a diagram schematically illustrating the number of bits of each pixel of the image signal after the A / D conversion processing by the A / D conversion unit 251.
  • the imaging unit 24 reads out and outputs an image signal from each pixel of the imaging element 242 (arrow (A) ⁇ arrow (B) ⁇ arrow (C) ⁇ arrow (D)).
  • the A / D conversion unit 251 executes A / D conversion processing for converting the analog image signal output from the image sensor 242 into a digital image signal by the A / D conversion unit 251.
  • the image signal corresponding to each pixel is converted into a digital image signal having a predetermined number of bits, for example, 12 bits, as shown in FIG. 5B.
  • step S105 the gradation conversion unit 252 performs normal gradation conversion processing on the digital image signal output from the A / D conversion unit 251 so as to obtain a predetermined gradation (step S106). . Thereafter, the transmission / reception unit 26 transmits the image signal after the gradation conversion by the gradation conversion unit 252 to the outside (step S107). After step S107, the capsule endoscope 2 proceeds to step S108 described later.
  • FIG. 5C is a diagram schematically illustrating the number of bits of each pixel of the image signal after the gradation conversion processing by the gradation converting unit 252.
  • FIG. 5D is a diagram schematically illustrating the bit of each pixel transmitted by the transmission / reception unit 26. In FIG. 5D, one bit is schematically expressed in a rectangular shape.
  • the gradation conversion unit 252 performs normal gradation conversion processing on the 12-bit digital image signal input from the A / D conversion unit 251 so as to obtain a predetermined gradation. To do. Specifically, as shown in FIG. 5C, the data amounts (8 bits) of the first, second, and third data areas assigned to the first, second, and third image signals are first, second, and second, respectively. And the data amount of each of the third image signals (12 bits). For this reason, the gradation conversion unit 252 lowers the gradation by performing resizing processing from 12 bits to 8 bits of the image signal of each pixel in the image corresponding to the digital image signal (FIG. 5B ⁇ FIG. 5C). Then, as illustrated in FIG. 5D, the transmission / reception unit 26 outputs an image signal of each pixel (R pixel, Gr pixel, Gb pixel, and B pixel) subjected to gradation conversion to 8 bits by the gradation conversion unit 252.
  • step S107 when an end signal instructing the end of observation of the subject is received from the outside via the antenna 27 and the transmission / reception unit 26 (step S108: Yes), the capsule endoscope 2 ends this processing To do.
  • step S108: No when the end signal instructing the end of the observation of the subject is not received from the outside via the antenna 27 and the transmission / reception unit 26 (step S108: No), the capsule endoscope 2 is described above. Return to step S101.
  • step S101 No
  • the second illumination unit 22 emits special light (step S109).
  • the imaging part 24 images the area
  • the imaging unit 24 executes a reading process of reading an image signal from each pixel of the imaging element 242 (step S111).
  • the A / D conversion unit 251 performs A / D conversion processing on the image signal read from the image sensor 242 (step S112).
  • the gradation conversion unit 252 performs special light gradation conversion processing on the digital image signal input from the A / D conversion unit 251 so as to obtain a predetermined gradation (step S113). Thereafter, the transmission / reception unit 26 transmits the image signal after gradation conversion by the gradation conversion unit 252 to the outside (step S114). After step S114, the capsule endoscope 2 proceeds to step S108 described above.
  • FIG. 6A is a diagram schematically illustrating the number of bits of each pixel of the image signal before the special light gradation conversion processing by the gradation converting unit 252.
  • FIG. 6B is a diagram schematically illustrating the number of bits of each pixel of the image signal after the special light gradation conversion processing by the gradation converting unit 252.
  • FIG. 6C is a diagram schematically illustrating a bit of each pixel transmitted by the transmission / reception unit 26. In FIG. 6C, one bit is schematically expressed in a rectangular shape.
  • the gradation conversion unit 252 is assigned to the image signal generated by the pixel having no sensitivity to special light in the digital image signal input from the A / D conversion unit 251.
  • a special light gradation conversion process is performed in which a part of an image signal of a pixel having sensitivity to special light is assigned to the data area and output.
  • the gradation conversion unit 252 has no sensitivity to narrowband light when the second illumination unit 22 emits narrowband light included in the wavelength bands of blue and / or green as special light.
  • a part of the image signal generated by the Gr pixel, the Gb pixel, and the B pixel is allocated and output to the third data area allocated to the third image signal generated by the pixel.
  • the gradation conversion unit 252 includes the first bit assigned to the first image signal among the 12 bits of the first image signal output from the B pixel.
  • the upper 8-bit data amount that is the same as the data amount of one data area is allocated to the first data area of the first image signal, and the lower 4-bit data amount that is the remaining data amount of the first image signal Are assigned to the third data area assigned to the third image signal and output to the transmitting / receiving unit 26.
  • the tone conversion unit 252 has the same data amount as the data amount of the second data area allocated to the second image signal, out of the 12 bits of each of the second image signal output from each of the Gr pixel and the Gb pixel.
  • the upper 8-bit data amount that is the amount is allocated to the second data area, and the lower 4-bit data amount that is the remaining data amount of the second image signal (Gr pixel and Gb pixel are the lower 2-bit data amount).
  • (Data amount) is assigned to the third data area assigned to the third image signal and output to the transmitting / receiving unit 26 (FIG. 6A ⁇ FIG. 6B). Then, as illustrated in FIG. 6C, the transmission / reception unit 26 assigns an image signal by the gradation conversion unit 252 and the image of each pixel (R pixel, Gr pixel, Gb pixel, and B pixel) subjected to gradation conversion to 8 bits. The signal is sequentially transmitted to the transmission / reception unit 26.
  • the transmission / reception unit 26 sequentially transmits data of an image signal of 10 Gr pixels, an image signal of 10 Gb pixels, and an image signal of 12 bits of B pixels. Thereby, even when the capsule endoscope 2 performs special light observation, the gradation of each of the G pixel and the B pixel can be improved without increasing the data amount of the image data.
  • the B pixel, the Gr pixel, and the Gb pixel receive special light included in each of the blue and / or green wavelength bands irradiated by the second illumination unit 22. Since the data processing unit 25 assigns at least one part of the first image signal or the second image signal to the third image signal and outputs the third image signal to the transmission / reception unit 26, the amount of data can be obtained even when special light is observed. It is possible to generate a special light image with high gradation without increasing.
  • the gradation converting unit 252 allocates a part of the first image signal output from the B pixel to the first data area of the first image signal, and the remainder of the first image signal from the R pixel not sensitive to special light.
  • a part of the second image signal output from the Gr pixel and the Gb pixel is assigned to the second data area of the second image signal, assigned to the third data area of the third image signal assigned to the output third image signal.
  • the second image signal is assigned to the third data area of the third image signal assigned to the third image signal output from the R pixel that is not sensitive to the special light and is output to the transmission / reception unit 26. , Even when observing Koto light, it is possible to generate a high special light image having gradation without increasing the data amount.
  • the B pixel, the Gr pixel, and the Gb pixel receive special light included in the wavelength bands of blue and / or green irradiated by the second illumination unit 22, Of the 12 bits of the first image signal output from the B pixel, the data amount of the upper 8 bits, which is the same data amount as the data amount of the first data area allocated to the first image signal, is used as the first image signal.
  • the lower-order 2 bits of the image signals of the Gr pixel and the Gb pixel are stored in the third data area assigned to the third image signal output from the R pixel by the gradation conversion unit 252.
  • the data amount of the lower 4 bits of the image signal of the B pixel is assigned, but only the data amount of 2 bits out of the 12 bits of the image signal of the B pixel may be assigned.
  • the gradation of each of the G pixel and the B pixel can be improved, and the data amount at the time of transmission can be reduced.
  • the second embodiment has the same configuration as the capsule endoscope system 1 according to the first embodiment described above, and the processing executed by the capsule endoscope 2 is different. Specifically, in the second embodiment, when the capsule endoscope performs special light observation, signal reading is performed only from pixels having sensitivity to special light. In the following, processing executed by the capsule endoscope according to the second embodiment will be described.
  • symbol is attached
  • FIG. 7 is a flowchart showing an outline of processing executed by the capsule endoscope according to the second embodiment of the present invention.
  • steps S201 to S210 correspond to steps S101 to S110 of FIG. 4 described above, respectively.
  • step S211 the imaging unit 24 executes a special light reading process of reading an image signal from only the pixels having sensitivity to the special light from the image sensor 242. Specifically, as shown in FIG. 8, when the NBI narrowband light is irradiated as the special light, the imaging unit 24 has sensitivity to the narrowband light because the R pixel does not have the sensitivity of the narrowband light. An image signal is read from only the Gr pixel, the Gb pixel, and the B pixel and is output to the A / D conversion unit 251. In this case, the imaging unit 24 resets the pixel value of the R pixel.
  • the A / D converter 251 executes A / D conversion processing on the analog image signal read from the image sensor 242 (step S212).
  • FIG. 9A is a diagram schematically illustrating the number of bits of an image signal corresponding to each pixel after A / D conversion processing by the A / D conversion unit 251.
  • the A / D conversion unit 251 converts an analog image signal output from only a pixel having sensitivity to special light from the image sensor 242 into a digital image signal. Execute the process. Specifically, the A / D conversion unit 251 executes A / D conversion processing for converting an analog image signal output from only the Gr pixel, the Gb pixel, and the B pixel into a digital image signal. As a result, the image signal corresponding to each pixel having sensitivity to special light is converted into a digital image signal having a predetermined number of bits, for example, 12 bits.
  • the gradation conversion unit 252 After step S212, the gradation conversion unit 252 performs special light gradation conversion processing on the digital image signal input from the A / D conversion unit 251 so as to obtain a predetermined gradation (step S213). ).
  • FIG. 9B is a diagram schematically illustrating the number of bits of each pixel of the image corresponding to the image signal after the special light gradation conversion processing by the gradation converting unit 252.
  • the gradation conversion unit 252 performs special light gradation conversion processing on a digital image signal output only from pixels having sensitivity to special light input from the A / D conversion unit 251. Let it run. Specifically, the gradation conversion unit 252 outputs the first image signal output from the B pixel to the transmission / reception unit 26 while maintaining the data amount of 12 bits, and outputs the first image signal output from each of the Gr pixel and the Gb pixel. The 12-bit data amount of the two image signals is converted into the upper 10-bit data amount and output to the transmission / reception unit 26 (FIG. 9A ⁇ FIG. 9B).
  • the gradation conversion unit 252 includes 12 of each of the first image signal and the second image signal in the third data area that is blank because the control unit 29 does not read the image signal from the R pixel. Of the bits, a data amount of lower 4 bits (Gr pixel and Gb pixel are data amounts of lower 2 bits) is allocated. Further, the gradation conversion unit 252 converts the data amount of the upper 8 bits out of the 12 bits of each of the first image signal and the second image signal to the second data signal of the first image signal and the second image signal. Assign to image data.
  • the gradation conversion unit 252 can output the first image signal output from the B pixel to the transmission / reception unit 26 with the data amount of 12 bits being output from each of the Gr pixel and the Gb pixel.
  • the 12-bit data amount of the second image signal can be converted into the upper 10-bit data amount and output to the transmission / reception unit 26.
  • step S213 the transmission / reception unit 26 transmits the image signal after the special light gradation conversion process to the outside by the gradation conversion unit 252 (step S214).
  • step S214 the capsule endoscope 2 proceeds to step S208 described later.
  • control unit 29 causes the A / D conversion unit 251 to read out the image signal from only the pixels having sensitivity to the special light and output the image signal to the A / D conversion unit 251. Since the amount of data processed by the unit 251 can be reduced, the power consumption of the capsule endoscope 2 can be suppressed.
  • Embodiment 2 of the present invention even when white light and special light are observed, a special light image with high gradation can be generated and output to the outside.
  • the tone conversion unit 252 transmits and receives the second image signal output from the Gr pixel and the Gb pixel by 10 bits and the first image signal output from the B pixel by 12 bits.
  • the first image signal output from the B pixel may be output to the transmitting / receiving unit 26 with 10 bits.
  • an endoscope apparatus in which an imaging unit is disposed at the distal end of an insertion unit in a subject
  • nasal endoscope in addition to the capsule endoscope used in the description of the present invention, an endoscope apparatus (soft endoscope) in which an imaging unit is disposed at the distal end of an insertion unit in a subject
  • an endoscope apparatus soft endoscope
  • an imaging unit is disposed at the distal end of an insertion unit in a subject
  • nasal endoscope The present invention can also be applied to a mirror apparatus, a rigid endoscope, an imaging apparatus, a medical device, and an industrial endoscope.
  • the arrangement of the color filters is described as a Bayer arrangement, but the present invention is not limited to this, and a known filter arrangement may be used.
  • the special light is light including blue narrow band light (for example, 390 nm to 445 nm) and green narrow band light (for example, 530 nm to 550 nm), but is not limited thereto.
  • AFI Auto Fluorescence Imaging
  • light in a wavelength band for example, 390 nm to 470 nm
  • light in a wavelength band for example, 540 nm to 560 nm
  • a wavelength band for example, 540 nm to 560 nm
  • two red narrow-band lights (for example, 600 nm and 630 nm) are used as special light. It may be light containing.
  • the capsule endoscope when the capsule endoscope performs infrared light observation (IRI: Infra Red Imaging), it may be light including two infrared lights (for example, 790 nm to 820 nm and 905 nm to 970 nm) as special lights. Good. In these cases, a color filter suitable for the observation light may be disposed on the light receiving surface of the image sensor.
  • IRI Infra Red Imaging
  • each processing method by the capsule endoscope in the above-described embodiment can be stored as a program that can be executed by a control unit such as a CPU. .
  • a control unit such as a CPU.
  • it can be stored and distributed in a storage medium of an external storage device such as a memory card (ROM card, RAM card, etc.), magnetic disk, hard disk, optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.
  • a control unit such as a CPU reads the program stored in the storage medium of the external storage device, and the operation described above can be executed by the operation being controlled by the read program.
  • the present invention is not limited to the above-described embodiments and modifications as they are, and in the implementation stage, the constituent elements can be modified and embodied without departing from the spirit of the invention.
  • Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some constituent elements may be deleted from all the constituent elements described in the above-described embodiments and modifications. Furthermore, you may combine suitably the component demonstrated by each embodiment and the modification.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)

Abstract

特殊光を照射する場合であっても、データ量を増加させることなく階調性の高い特殊光画像を生成することができる被検体内導入装置、送信方法及びプログラムを提供する。被検体内導入装置は、第1波長帯域または第2波長帯域の少なくとも一方を含み、第3波長帯域を含まない特殊光を第1画素及び第2画素が受光した場合、第1画像信号または第2画像信号の少なくとも一方の一部を第3画像信号に割り当てて出力するデータ処理部25と、データ処理部25から出力された第1画像信号、第2画像信号、及び第3画像信号を外部へ送信する送受信部26と、を備える。

Description

被検体内導入装置、送信方法及びプログラム
 本発明は、被検体内に導入されて該被写体内の体内画像を取得して外部へ送信する被検体内導入装置、送信方法及びプログラムに関する。
 近年、内視鏡では、生体組織に白色光または狭帯域光を照射し、撮像部によって撮像することによって、粘膜表層の毛細血管及び粘膜微細模様を観察可能な狭帯域光画像と白色光画像とを取得することができる技術が知られている(特許文献1参照)。
特開2006-198106号公報
 ところで、上述した特許文献1の技術を、経口によって被検体内に導入される被検体内導入装置(以下、「カプセル型内視鏡」という)に適用することが考えられる。従来のカプセル型内視鏡では、ベイヤー配列のカラーフィルタを有する単板の撮像素子を用いて画像信号を生成して外部へ送信し、画像信号を補間してカラー画像を提供する。しかしながら、従来のカプセル型内視鏡において、上述した特許文献1のように白色光または特殊光として狭帯域光を照射する場合、狭帯域光に感度を有する画素の数が白色光に感度を有する画素の数よりも少ないことによって、画像信号を補間するための情報が少なくなり、特殊光画像の階調性が白色光画像の階調性と比べて低いという問題点があった。
 本発明は、上記に鑑みてなされたものであって、特殊光を照射する場合であっても、データ量を増加させることなく階調性の高い特殊光画像を生成することができる被検体内導入装置、送信方法及びプログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る被検体内導入装置は、第1波長帯域の光を受光して第1画像信号を生成する第1画素と、前記第1波長帯域と異なる第2波長帯域の光を受光して第2画像信号を生成する第2画素と、前記第1波長帯域及び前記第2波長帯域の各々と異なる第3波長帯域の光を受光して第3画像信号を生成する第3画素と、を配置してなる撮像部と、前記第1波長帯域または前記第2波長帯域の少なくとも一方を含み、前記第3波長帯域を含まない特殊光を前記第1画素及び前記第2画素が受光した場合、前記第1画像信号または前記第2画像信号の少なくとも一方の一部を前記第3画像信号に割り当てて出力するデータ処理部と、前記データ処理部から出力された前記第1画像信号、前記第2画像信号、及び前記第3画像信号を出力する出力部と、を備えることを特徴とする。
 また、本発明に係る被検体内導入装置は、上記発明において、前記データ処理部は、前記特殊光を前記第1画素及び前記第2画素が受光した場合、前記第1画像信号の一部を前記第1画像信号の第1データ領域に割り当てると共に、前記第1画像信号の残りを前記第3画像信号の第3データ領域に割り当て、前記第2画像信号の一部を前記第2画像信号の第2データ領域に割り当てると共に、前記第2画像信号の残りを前記第3画像信号の第3データ領域に割り当て、前記出力部は、前記第1、第2及び第3データ領域に割り当てられた信号を出力することを特徴とする。
 また、本発明に係る被検体内導入装置は、上記発明において、前記第1、第2及び第3データ領域のデータ量は、前記第1、第2及び第3画像信号それぞれのデータ量よりも小さく、前記データ処理部は、前記第1画素及び前記第2画素の各々が前記特殊光を受光した場合、前記第1画像信号のうち前記第1データ領域のデータ量と同じデータ量を前記第1データ領域に割り当てると共に、前記第1画像信号の残りのデータ量の少なくとも一部を前記第3データ領域に割り当て、前記第2画像信号のうち前記第2データ領域のデータ量と同じデータ量を前記第2データ領域に割り当てると共に、前記第2画像信号の残りのデータ量の少なくとも一部を前記第3データ領域に割り当てて出力することを特徴とする。
 また、本発明に係る被検体内導入装置は、上記発明において、前記データ処理部は、前記第1波長帯域、前記第2波長帯域及び前記第3波長帯域の各々の光を含む照明光を前記第1画素、前記第2画素及び前記第3画素が受光した場合、前記第1画像信号、前記第2画像信号及び前記第3画像信号を所定のデータ量に変換して出力することを特徴とする。
 また、本発明に係る被検体内導入装置は、上記発明において、前記出力部は、前記データ処理部から出力された前記第1画像信号、前記第2画像信号、及び前記第3画像信号を外部へ送信することを特徴とする。
 また、本発明に係る被検体内導入装置は、上記発明において、前記第1画素及び前記第2画素の各々が前記特殊光を受光した場合、前記撮像部から前記第1画像信号及び前記第2画像信号のみを出力させる制御部をさらに備えることを特徴とする。
 また、本発明に係る被検体内導入装置は、上記発明において、前記第1波長帯域、前記第2波長帯域及び前記第3波長帯域の各々の光を含む照明光を照射する第1照明部と、前記特殊光を照射する第2照明部と、をさらに備えることを特徴とする。
 また、本発明に係る被検体内導入装置は、上記発明において、前記第1波長帯域は、青色の波長帯域であり、前記第2波長帯域は、緑色の波長帯域であり、前記第3波長帯域は、赤色の波長帯域であり、前記特殊光は、前記青色の波長帯域であって前記青色の波長帯域よりも狭い第1狭帯域及び前記緑色の波長帯域であって前記緑色の波長帯域よりも狭い第2狭帯域の少なくとも一方の光を含むことを特徴とする。
 また、本発明に係る被検体内導入装置は、上記発明において、前記第1狭帯域は、390nm~445nmであり、前記第2狭帯域は、530nm~550nmであることを特徴とする。
 また、本発明に係る送信方法は、第1波長帯域の光を受光して第1画像信号を生成する第1画素と、前記第1波長帯域と異なる第2波長帯域の光を受光して第2画像信号を生成する第2画素と、前記第1波長帯域及び前記第2波長帯域の各々と異なる第3波長帯域の光を受光して第3画像信号を生成する第3画素と、を配置してなる撮像部を備えた被検体内導入装置が実行する送信方法であって、前記第1波長帯域または前記第2波長帯域の少なくとも一方を含み、前記第3波長帯域を含まない特殊光を前記第1画素及び前記第2画素が受光した場合、前記第1画像信号または前記第2画像信号の少なくとも一方の一部を前記第3画像信号に割り当てて出力するデータ処理ステップと、前記データ処理ステップから出力された前記第1画像信号、前記第2画像信号、及び前記第3画像信号を出力する出力ステップと、を含むことを特徴とする。
 また、本発明に係るプログラムは、第1波長帯域の光を受光して第1画像信号を生成する第1画素と、前記第1波長帯域と異なる第2波長帯域の光を受光して第2画像信号を生成する第2画素と、前記第1波長帯域及び前記第2波長帯域の各々と異なる第3波長帯域の光を受光して第3画像信号を生成する第3画素と、を配置してなる撮像部を備えた被検体内導入装置に、前記第1波長帯域または前記第2波長帯域の少なくとも一方を含み、前記第3波長帯域を含まない特殊光を前記第1画素及び前記第2画素が受光した場合、前記第1画像信号または前記第2画像信号の少なくとも一方の一部を前記第3画像信号に割り当てて出力するデータ処理ステップと、前記データ処理ステップから出力された前記第1画像信号、前記第2画像信号、及び前記第3画像信号を出力する出力ステップと、を実行させることを特徴とする。
 本発明によれば、特殊光を照射する場合であっても、データ量を増加させることなく階調性の高い特殊光画像を生成することができるという効果を奏する。
図1は、本発明の実施の形態1に係るカプセル型内視鏡システムの概略構成を示す模式図である。 図2は、本発明の実施の形態1に係るカプセル型内視鏡の機能構成を示すブロック図である。 図3は、本発明の実施の形態1に係るカプセル型内視鏡のカラーフィルタの構成を模式的に示す図である。 図4は、本発明の実施の形態1に係るカプセル型内視鏡が実行する処理の概要を示すフローチャートである。 図5Aは、本発明の実施の形態1に係るカプセル型内視鏡の撮像部による読み出し処理の概要を模式的に説明する図である。 図5Bは、本発明の実施の形態1に係るカプセル型内視鏡のA/D変換部によるA/D変換処理後における画像信号の各画素のビット数を模式的に説明する図である。 図5Cは、本発明の実施の形態1に係るカプセル型内視鏡の階調変換部による階調変換処理後における画像信号の各画素のビット数を模式的に説明する図である。 図5Dは、本発明の実施の形態1に係るカプセル型内視鏡の送受信部が送信する各画素のビットを模式的に説明する図である。 図6Aは、本発明の実施の形態1に係るカプセル型内視鏡の階調変換部による特殊光階調変換処理前における画像信号の各画素のビット数を模式的に説明する図である。 図6Bは、本発明の実施の形態1に係るカプセル型内視鏡の階調変換部による特殊光階調変換処理後における画像信号の各画素のビット数を模式的に説明する図である。 図6Cは、本発明の実施の形態1に係るカプセル型内視鏡の送受信部が送信する各画素のビットを模式的に説明する図である。 図7は、本発明の実施の形態2に係るカプセル型内視鏡が実行する処理の概要を示すフローチャートである。 図8は、本発明の実施の形態2に係るカプセル型内視鏡の撮像部による特殊光読み出し処理の概要を模式的に説明する図である。 図9Aは、本発明の実施の形態2に係るカプセル型内視鏡のA/D変換部によるA/D変換処理前における画像信号の各画素のビット数を模式的に説明する図である。 図9Bは、本発明の実施の形態2に係るカプセル型内視鏡の階調変換部による特殊光階調変換処理後における画像信号の各画素のビット数を模式的に説明する図である。 図10は、本発明の実施の形態2の変形例に係るカプセル型内視鏡の階調変換部による特殊光階調変換処理前における画像信号の各画素のビット数を模式的に説明する図である。
 以下、本発明を実施するための形態を図面と共に詳細に説明する。なお、以下の実施の形態により本発明が限定されるものではない。また、以下の説明において参照する各図は、本発明の内容を理解でき得る程度に形状、大きさ、及び位置関係を概略的に示してあるに過ぎない。即ち、本発明は、各図で例示された形状、大きさ、及び位置関係のみに限定されるものではない。また、以下の説明において、被検体の体内に導入されて被検体の体内画像を撮像するカプセル型内視鏡から無線信号を受信して被検体の体内画像を表示する処理装置を含むカプセル型内視鏡システムを例示するが、この実施の形態によって本発明が限定されるものではない。また、同一の構成には同一の符号を付して説明する。
(実施の形態1)
 〔カプセル型内視鏡システムの構成〕
 図1は、本発明の実施の形態1に係るカプセル型内視鏡システムの概略構成を示す模式図である。
 図1に示すカプセル型内視鏡システム1は、被検体100内の体内画像を撮像するカプセル型内視鏡2と、被検体100内に導入されるカプセル型内視鏡2から送信される無線信号を受信する受信アンテナユニット3と、受信アンテナユニット3が着脱自在に接続され、受信アンテナユニット3が受信した無線信号に所定の処理を行って記録または表示する受信装置4と、カプセル型内視鏡2によって撮像された被検体100内の画像信号に対応する画像の処理及び/または表示する画像処理装置5と、を備える。
 カプセル型内視鏡2は、被検体100内を撮像する撮像機能と、被検体100内を撮像して得られた画像信号を含む体内情報を受信アンテナユニット3へ送信する無線通信機能と、を有する。カプセル型内視鏡2は、被検体100内に飲み込まれることによって被検体100内の食道を通過し、消化管腔の蠕動運動によって被検体100の体腔内を移動する。カプセル型内視鏡2は、被検体100の体腔内を移動しながら微小な時間間隔、例えば0.5秒間隔(2fps)で被検体100の体腔内を逐次撮像し、撮像した被検体100内の画像信号を生成して受信アンテナユニット3へ順次無線送信する。なお、カプセル型内視鏡2の詳細な構成は後述する。
 受信アンテナユニット3は、受信アンテナ3a~3hを備える。受信アンテナ3a~3hは、カプセル型内視鏡2から無線信号を受信して受信装置4へ送信する。受信アンテナ3a~3hは、ループアンテナを用いて構成される。受信アンテナ3a~3hの各々は、被検体100の体外表面上の所定の位置、例えばカプセル型内視鏡2の通過経路である被検体100内の各臓器に対応した位置に取り付けられる。
 受信装置4は、受信アンテナ3a~3hを介してカプセル型内視鏡2から受信した無線信号に含まれる被検体100内の画像信号を記録または被検体100内の画像信号に対応する画像を表示する。受信装置4は、カプセル型内視鏡2の位置情報や時間情報等を、受信アンテナ3a~3hを介して受信した無線信号に対応付けて記録する。受信装置4は、カプセル型内視鏡2による検査が行われている間、例えば被検体100の口から導入され、消化管内を通過して被検体100内から排出されるまでの間、受信装置ホルダ(図示せず)に収納されて被検体100に携帯される。受信装置4は、カプセル型内視鏡2による検査の終了後、被検体100から取り外され、カプセル型内視鏡2から受信した画像信号等を転送するため、画像処理装置5と接続される。
 画像処理装置5は、コンピュータやモバイル端末等を用いて構成され、受信装置4から転送された被検体100内の画像信号に対応する画像を表示する表示装置50と、受信装置4から画像信号等を読み取るクレードル51と、キーボードやマウス等の操作入力デバイス52と、を備える。表示装置50は、液晶や有機EL(Electro Luminescence)等の表示パネルを用いて構成される。クレードル51は、受信装置4が装着される際に、受信装置4から画像信号や、この画像信号に関連付けられた位置情報、時間情報及びカプセル型内視鏡2の識別情報等の関連情報を画像処理装置5へ転送する。操作入力デバイス52は、ユーザによる操作をコンピュータに入力する。ユーザは、操作入力デバイス52を操作しつつ、画像処理装置5が順次表示する被検体100内の画像を見ながら、被検体100内部の生体部位、例えば食道、胃、小腸及び大腸等を観察し、被検体100を診断する。
 〔カプセル型内視鏡の構成〕
 次に、カプセル型内視鏡2の構成について詳細に説明する。図2は、カプセル型内視鏡2の機能構成を示すブロック図である。
 図2に示すカプセル型内視鏡2は、被検体の消化管内部に導入し易い大きさと形状に形成されたカプセル型筐体20と、カプセル型内視鏡2の撮像視野に白色光を照射する第1照明部21と、カプセル型内視鏡2の撮像視野に特殊光を照射する第2照明部22と、被写体像を結像する光学系23と、光学系23が結像した被写体像を受光して光電変換を行うことによって画像信号を生成する撮像部24と、撮像部24が生成したアナログの画像信号にA/D変換を行うと共に、デジタルの画像信号の階調を所定のビット(bit)数に変換して出力するデータ処理部25と、データ処理部25から入力された階調変換後の画像信号を、アンテナ27を介して外部に送信する、または外部からの無線信号を受信する送受信部26と、カプセル型内視鏡2の各種の情報を記録する記録部28と、カプセル型内視鏡2の各構成部を制御する制御部29と、カプセル型内視鏡2の各構成部に電力を供給する電源30と、を備える。
 カプセル型筐体20は、筒状筐体201の両側開口端をドーム形状筐体202,203によって塞ぐことによって実現される。ドーム形状筐体203は、第1照明部21が照射する白色光または第2照明部22が照射する特殊光を透過可能な透明な部材を用いて形成される。これらの筒状筐体201、ドーム形状筐体202,203によって形成されるカプセル型筐体20は、図2に示すように、第1照明部21、第2照明部22、光学系23、撮像部24、データ処理部25、送受信部26、アンテナ27、記録部28、制御部29及び電源30を内包する。
 第1照明部21は、制御部29の制御のもと、少なくともカプセル型内視鏡2の撮像視野を含む領域に向けて白色光を、ドーム形状筐体203越しに照射する。第1照明部21は、白色LED(Light Emitting Diode)等を用いて構成される。
 第2照明部22は、制御部29の制御のもと、少なくともカプセル型内視鏡2の撮像視野を含む領域に向けて特殊光を、ドーム形状筐体203越しに照射する。ここで、特殊光とは、カプセル型内視鏡2が狭帯域光観察(NBI:Narrow Band Imaging)を行う際の、青色の狭帯域の光(例えば390nm~445nm)及び緑色の狭帯域の光(例えば530nm~550nm)を含む光である。
 光学系23は、被検体の粘膜からの反射光を撮像部24の撮像面に集光して被写体像を結像させる。光学系23は、1つ以上のレンズ、例えば集光レンズやフォーカスレンズを用いて構成される。
 撮像部24は、制御部29の制御のもと、光学系23が結像した被写体像の画像信号を所定のフレームレートに従って順次生成し、生成した画像信号をデータ処理部25へ出力する。撮像部24は、カラーフィルタ241と、撮像素子242と、を有する。
 カラーフィルタ241は、所定の波長帯域の光を透過する。具体的には、カラーフィルタ241は、赤色の波長帯域の光、緑色の波長帯域の光及び青色の波長帯域の光(例えば、赤:600nm~700nm、緑:500nm~600nm、青:400nm~500nm)それぞれを透過する複数のフィルタで構成される。
 図3は、カラーフィルタ241の構成を模式的に示す図である。図3に示すようにカラーフィルタ241は、赤色の波長帯域の光を透過するフィルタR、緑色の波長帯域の光を透過するフィルタGr及びGb、青色の波長帯域の光を透過するフィルタBを用いて構成される。さらに、カラーフィルタ241は、フィルタR、フィルタGr、フィルタGb及びフィルタBは、ベイヤー配列によって後述する撮像素子242の各画素の受光面に配置されてなる。
 図2に戻り、カプセル型内視鏡2の構成の説明を続ける。
 撮像素子242は、制御部29の制御のもと、光学系23が結像した被写体像を、カラーフィルタ241を介して受光して光電変換を行うことによって、アナログの画像信号を生成し、生成したアナログの画像信号をデータ処理部25へ出力する。撮像素子242は、複数の画素が二次元格子状に配置されてなり、例えば、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)を用いて構成される。以下において、Rフィルタが受光面に配置されてなる画素をR画素、Grフィルタが受光面に配置されてなる画素をGr画素、Gbフィルタが受光面に配置されてなる画素をGb画素、及びBフィルタが受光面に配置されてなる画素をB画素という。また、複数のB画素の各々が出力する信号を第1画像信号、複数のGr画素及び複数のGb画素の各々が出力する信号を第2画像信号、及び複数のR画素の各々が出力する信号を第3画像信号という。
 データ処理部25は、A/D変換部251と、階調変換部252とを有する。データ処理部25は、制御部29の制御のもと、撮像部24が生成したアナログの画像信号にA/D変換を行うと共に、デジタルの画像信号の階調を所定のビット(bit)数に変換して出力する。
 A/D変換部251は、ASICを用いて構成され、制御部29の制御のもと、撮像部24から入力されるアナログの画像信号をデジタルの画像信号に変換するA/D変換処理を行って階調変換部252へ出力する。具体的には、A/D変換部251は、撮像素子242のR画素、Gr画素、Gb画素及びB画素の各々から入力されるアナログの画像信号を所定のビット数のデジタルの画像信号に変換して階調変換部252へ出力する。ここで、所定のビット数とは、12ビットである。なお、ビット数は、これに限定されることなく、撮像素子242の性能等に応じて適宜変更してもよい。
 階調変換部252は、ASICを用いて構成され、制御部29の制御のもと、A/D変換部251から入力されるデジタルの画像信号を所定のデータ量に変換して送受信部26へ出力する。具体的には、階調変換部252は、R画素、Gr画素、Gb画素及びB画素が白色光を受光した場合、A/D変換部251から入力される各画素に対応する第1画像信号、第2画像信号及び第3画像信号の12ビットの画像信号を8ビットに変換してデータ量をリサイズ処理する階調変換処理を行って送受信部26へ出力する。また、階調変換部252は、B画素、Gr画素及びGb画素が第1波長帯域または第2波長帯域の少なくとも一方を含み、第3波長帯域を含まない特殊光を受光した場合、第1画像信号または第2画像信号の少なくとも一方の一部を第3画像信号に割り当てる階調変換処理を行って送受信部26へ出力する。具体的には、階調変換部252は、B画素、Gr画素及びGb画素が特殊光を受光した場合、第1画像信号の一部を第1画像信号の第1データ領域に割り当てると共に、第1画像信号の残りを第3画像信号の第3データ領域に割り当て、第2画像信号の一部を第2画像信号の第2データ領域に割り当てると共に、第2画像信号の残りを第3画像信号の第3データ領域に割り当てる階調変換処理を行う。より具体的には、階調変換部252は、第1画像信号及び第2画像信号の各々の上位ビットのデータ量を第1データ領域及び第2データ領域に割り当てると共に、第1画像信号及び第2画像信号の各々の下位ビットのデータ量を第3画像信号に割り当てられた第3データ領域に割り当てて出力する。例えば、階調変換部252は、B画素、Gr画素及びGb画素が特殊光を受光した場合、第1画像信号の12ビットのうち、第1データ領域のデータ量と同じデータ量である上位ビットの8ビットのデータ量を第1データ領域に割り当てると共に、第1画像信号の残りのデータ量である下位の4ビットのデータ量を第3データ領域に割り当てる。さらに、階調変換部252は、第2画像信号の12ビットのうち、第2データ領域のデータ量と同じデータ量である上位ビットの8ビットのデータ量を第2データ領域に割り当てると共に、第2画像信号の残りのデータ量である下位の4ビットのデータ量を第3データ領域に割り当てる。なお、階調変換部252は、階調変換後の画像信号を送受信部26へ出力することなく、記録部28へ出力しても良い。
 送受信部26は、階調変換部252から入力された階調変換後の画像信号を、アンテナ27を介して外部に順次無線送信する。具体的には、送受信部26は、送信する帯域と撮像素子242の撮像フレームレートとによって予め定められた単位時間当たりのデータ量で、階調変換部252から入力された階調変換後の画像信号を、アンテナ27を介して外部に順次無線送信する。なお、送受信部26は、階調変換後の画像信号に対して変調等の信号処理を施して無線信号を生成し、この無線信号を外部に送信するようにしてもよい。また、送受信部26は、アンテナ27を介して外部から送信された無線信号を受信し、この無線信号に対して復調処理等を施して制御部29へ出力する。
 記録部28は、ROM(Read Only Memory)やRAM(Random Access Memory)等を用いて構成され、カプセル型内視鏡2が実行する各種のプログラム、画像信号及びカプセル型内視鏡2が処理中の各種情報を記録する。なお、記録部28は、階調変換部252から入力された階調変換後の画像信号を順次記録していき、カプセル型内視鏡2が体外へ排出された後に、記録された階調変換後の画像信号をまとめて外部に送信するようにしても良い。また、記録された階調変換後の画像信号に補間、圧縮等の信号処理を施しても良い。
 制御部29は、CPU(Central Processing Unit)等を用いて構成され、カプセル型内視鏡2の各構成部の駆動を制御すると共に、これらの各構成部間における信号の入出力を制御する。
 電源30は、ボタン型電池またはキャパシタ等の蓄電池及び制御部29からのコマンドによって切り替えられるスイッチ等を用いて構成される。電源30は、カプセル型内視鏡2の各構成部への電力供給を供給する。
 〔カプセル型内視鏡の処理〕
 次に、カプセル型内視鏡2が実行する処理について説明する。図4は、カプセル型内視鏡2が実行する処理の概要を示すフローチャートである。なお、以下の処理は、制御部29がカプセル型内視鏡2の各部に指示信号を出力して各部を制御することによって行ってもよい。
 図4に示すように、まず、アンテナ27及び送受信部26を介して外部から白色光観察を指示する指示信号を受信した場合(ステップS101:Yes)について説明する。この場合、第1照明部21は、白色光を照射する(ステップS102)。そして、撮像部24は、白色光が照射された領域を撮像する(ステップS103)。
 続いて、撮像部24は、撮像素子242の各画素から画像信号を読み出す読み出し処理を実行する(ステップS104)。
 その後、A/D変換部251は、撮像素子242から読み出された画像信号に対してA/D変換処理を実行する(ステップS105)。
 図5Aは、撮像部24による読み出し処理の概要を模式的に説明する図である。図5Bは、A/D変換部251によるA/D変換処理後おける画像信号の各画素のビット数を模式的に説明する図である。
 図5Aに示すように、撮像部24は、撮像素子242の各画素から画像信号を読み出させて出力させる(矢印(A)→矢印(B)→矢印(C)→矢印(D))。そして、A/D変換部251は、撮像素子242から出力されたアナログの画像信号に対して、A/D変換部251によってデジタルの画像信号に変換するA/D変換処理を実行する。これにより、各画素に対応する画像信号は、図5Bに示すように、所定のビット数、例えば12ビットのデジタルの画像信号に変換される。
 ステップS105の後、階調変換部252は、A/D変換部251から出力されたデジタルの画像信号に対して、所定の階調になるように通常階調変換処理を実行する(ステップS106)。その後、送受信部26は、階調変換部252によって階調変換後の画像信号を外部へ送信する(ステップS107)。ステップS107の後、カプセル型内視鏡2は、後述するステップS108へ移行する。
 図5Cは、階調変換部252による階調変換処理後における画像信号の各画素のビット数を模式的に説明する図である。図5Dは、送受信部26が送信する各画素のビットを模式的に説明する図である。なお、図5Dにおいては、1ビットを矩形状で模式的に表現する。
 図5Cに示すように、階調変換部252は、A/D変換部251から入力された12ビットのデジタルの画像信号に対して、所定の階調になるように通常階調変換処理を実行する。具体的には、図5Cに示すように、第1、第2及び第3画像信号それぞれに割り当てられた第1、第2及び第3データ領域のデータ量(8ビット)が第1、第2及び第3画像信号それぞれのデータ量(12ビット)よりも小さい。このため、階調変換部252は、デジタルの画像信号に対応する画像における各画素の画像信号のビット数を12ビットから8ビットにリサイズ処理を行うことによって、階調を低くする(図5B→図5C)。そして、図5Dに示すように、送受信部26は、階調変換部252によって8ビットに階調変換された各画素(R画素、Gr画素、Gb画素及びB画素)の画像信号を出力する。
 ステップS107の後、アンテナ27及び送受信部26を介して外部から被検体の観察の終了を指示する終了信号を受信した場合(ステップS108:Yes)、カプセル型内視鏡2は、本処理を終了する。これに対して、アンテナ27及び送受信部26を介して外部から被検体の観察の終了を指示する終了信号を受信していない場合(ステップS108:No)、カプセル型内視鏡2は、上述したステップS101へ戻る。
 次に、ステップS101において、アンテナ27及び送受信部26を介して外部から白色光観察を指示する指示信号を受信していない場合(ステップS101:No)について説明する。この場合、第2照明部22は、特殊光を照射する(ステップS109)。そして、撮像部24は、特殊光が照射された領域を撮像する(ステップS110)。
 続いて、撮像部24は、撮像素子242の各画素から画像信号を読み出す読み出し処理を実行する(ステップS111)。
 その後、A/D変換部251は、撮像素子242から読み出された画像信号に対してA/D変換処理を実行する(ステップS112)。
 続いて、階調変換部252は、A/D変換部251から入力されたデジタルの画像信号に対して、所定の階調になるように特殊光階調変換処理を実行する(ステップS113)。その後、送受信部26は、階調変換部252によって階調変換後の画像信号を外部へ送信する(ステップS114)。ステップS114の後、カプセル型内視鏡2は、前述したステップS108へ移行する。
 図6Aは、階調変換部252による特殊光階調変換処理前における画像信号の各画素のビット数を示す模式的に説明する図である。図6Bは、階調変換部252による特殊光階調変換処理後における画像信号の各画素のビット数を示す模式的に説明する図である。図6Cは、送受信部26が送信する各画素のビットを示す模式的に説明する図である。なお、図6Cにおいては、1ビットを矩形状で模式的に表現する。
 図6A及び図6Bに示すように、階調変換部252は、A/D変換部251から入力されたデジタルの画像信号において、特殊光に感度を持たない画素が生成した画像信号に割り当てられたデータ領域に、特殊光に感度を持つ画素の画像信号の一部を割り当てて出力する特殊光階調変換処理を実行させる。具体的には、階調変換部252は、第2照明部22が特殊光として青色及び/または緑色それぞれの波長帯域に含まれる狭帯域光を照射する場合、狭帯域光に感度を持たないR画素が生成する第3画像信号に割り当てられた第3データ領域に、Gr画素、Gb画素及びB画素が生成した画像信号の一部を割り当てて出力する。例えば、階調変換部252は、B画素、Gr画素及びGb画素が特殊光を受光した場合、B画素から出力された第1画像信号の12ビットのうち、第1画像信号に割り当てられた第1データ領域のデータ量と同じデータ量である上位8ビットのデータ量を第1画像信号の第1データ領域に割り当てると共に、第1画像信号の残りのデータ量である下位の4ビットのデータ量を第3画像信号に割り当てられた第3データ領域に割り当てて送受信部26へ出力する。さらに、階調変換部252は、Gr画素及びGb画素の各々から出力された第2画像信号の各々の12ビットのうち、第2画像信号に割り当てられた第2データ領域のデータ量と同じデータ量である上位ビットの8ビットのデータ量を第2データ領域に割り当てると共に、第2画像信号の残りのデータ量である下位の4ビットのデータ量(Gr画素及びGb画素は、下位2ビットのデータ量)を第3画像信号に割り当てられた第3データ領域に割り当てて送受信部26へ出力する(図6A→図6B)。そして、図6Cに示すように、送受信部26は、階調変換部252によって画像信号の割り当てと8ビットに階調変換された各画素(R画素、Gr画素、Gb画素及びB画素)の画像信号を送受信部26に順次送信する。すなわち、送受信部26は、Gr画素の画像信号10ビット、Gb画素の画像信号10ビット及びB画素の画像信号12ビットのデータを順次送信する。これにより、カプセル型内視鏡2が特殊光観察を行う場合であっても、画像データのデータ量を増加させることなく、G画素とB画素それぞれの階調性を向上させることができる。
 以上説明した本発明の実施の形態1によれば、第2照明部22によって照射された青色及び/または緑色それぞれの波長帯域に含まれる特殊光をB画素、Gr画素及びGb画素が受光した場合、データ処理部25が第1画像信号または第2画像信号の少なくとも一方の一部を第3画像信号に割り当てて送受信部26へ出力するので、特殊光を観察する場合であっても、データ量を増加させることなく階調性の高い特殊光画像を生成することができる。
 また、本発明の実施の形態1によれば、第2照明部22によって照射された青色及び/または緑色それぞれの波長帯域に含まれる特殊光をB画素、Gr画素及びGb画素が受光した場合、階調変換部252がB画素から出力される第1画像信号の一部を第1画像信号の第1データ領域に割り当てると共に、第1画像信号の残りを特殊光に感度を持たないR画素から出力される第3画像信号に割り当てられた第3画像信号の第3データ領域に割り当て、Gr画素及びGb画素から出力される第2画像信号の一部を第2画像信号の第2データ領域に割り当てると共に、第2画像信号の残りを特殊光に感度を持たないR画素から出力される第3画像信号に割り当てられた第3画像信号の第3データ領域に割り当てて送受信部26へ出力するので、特殊光を観察する場合であっても、データ量を増加させることなく階調性の高い特殊光画像を生成することができる。
 また、本発明の実施の形態1によれば、第2照明部22によって照射された青色及び/または緑色それぞれの波長帯域に含まれる特殊光をB画素、Gr画素及びGb画素が受光した場合、B画素から出力された第1画像信号の12ビットのうち、第1画像信号に割り当てられた第1データ領域のデータ量と同じデータ量である上位8ビットのデータ量を第1画像信号の第1データ領域に割り当てると共に、第1画像信号の残りのデータ量である下位の4ビットのデータ量を第3画像信号に割り当てられた第3データ領域に割り当て、Gr画素及びGb画素の各々から出力された第2画像信号の各々の12ビットのうち、第2画像信号に割り当てられた第2データ領域のデータ量と同じデータ量である上位ビットの8ビットのデータ量を第2データ領域に割り当てると共に、第2画像信号の残りのデータ量である下位の4ビットのデータ量(Gr画素及びGb画素は、下位2ビットのデータ量)を第3画像信号に割り当てられた第3データ領域に割り当てて送受信部26に出力するので、特殊光を観察する場合であっても、データ量を増加させることなく階調性の高い特殊光画像を生成することができる。
 なお、本発明の実施の形態1では、階調変換部252がR画素から出力される第3画像信号に割り当てられた第3データ領域に、Gr画素及びGb画素の画像信号の下位2ビットのデータ量を割り当てると共に、B画素の画像信号の下位4ビットのデータ量を割り当てていたが、B画素の画像信号の12ビットのうち2ビットのデータ量だけ割り当ててもよい。これにより、G画素とB画素それぞれの階調性を向上させることができると共に、送信時のデータ量を削減することができる。
(実施の形態2)
 次に、本発明の実施の形態2について説明する。本実施の形態2は、上述した実施の形態1に係るカプセル型内視鏡システム1と同様の構成を有し、カプセル型内視鏡2が実行する処理が異なる。具体的には、本実施の形態2では、カプセル型内視鏡が特殊光観察を行う場合、特殊光に感度を有する画素のみから信号の読み出しを行う。以下においては、本実施の形態2に係るカプセル型内視鏡が実行する処理について説明する。なお、上述した実施の形態1に係るカプセル型内視鏡システム1と同一の構成には同一の符号を付して説明を省略する。
 〔カプセル型内視鏡の処理〕
 図7は、本発明の実施の形態2に係るカプセル型内視鏡が実行する処理の概要を示すフローチャートである。図7において、ステップS201~ステップS210は、上述した図4のステップS101~ステップS110それぞれに対応する。
 ステップS211において、撮像部24は、撮像素子242から特殊光に感度を有する画素のみから画像信号を読み出す特殊光読み出し処理を実行する。具体的には、図8に示すように、撮像部24は、特殊光としてNBIの狭帯域光が照射された場合、R画素に狭帯域光の感度がないので、狭帯域光に感度を有するGr画素、Gb画素及びB画素のみから画像信号を読み出してA/D変換部251へ出力させる。この場合、撮像部24は、R画素の画素値をリセットする。
 続いて、A/D変換部251は、撮像素子242から読み出されたアナログの画像信号に対してA/D変換処理を実行する(ステップS212)。
 図9Aは、A/D変換部251によるA/D変換処理後の各画素に対応する画像信号のビット数を模式的に説明する図である。
 図9Aに示すように、A/D変換部251は、撮像素子242から特殊光に感度を有する画素のみから出力されたアナログの画像信号に対して、デジタルの画像信号に変換するA/D変換処理を実行する。具体的には、A/D変換部251は、Gr画素、Gb画素及びB画素のみから出力されたアナログの画像信号に対して、デジタルの画像信号に変換するA/D変換処理を実行する。これにより、特殊光に感度を有する各画素に対応する画像信号は、所定のビット数、例えば12ビットのデジタルの画像信号に変換される。
 ステップS212の後、階調変換部252は、A/D変換部251から入力されたデジタルの画像信号に対して、所定の階調になるように特殊光階調変換処理を実行する(ステップS213)。
 図9Bは、階調変換部252による特殊光階調変換処理後における画像信号に対応する画像の各画素のビット数を模式的に説明する図である。
 図9Bに示すように、階調変換部252は、A/D変換部251から入力された特殊光に感度を有する画素のみから出力されたデジタルの画像信号に対して特殊光階調変換処理を実行させる。具体的には、階調変換部252は、B画素から出力された第1画像信号を12ビットのデータ量のまま送受信部26へ出力すると共に、Gr画素及びGb画素の各々から出力された第2画像信号の12ビットのデータ量を上位10ビットのデータ量に変換して送受信部26へ出力する(図9A→図9B)。より具体的には、階調変換部252は、制御部29がR画素から画像信号を読み出さないことによって空白となった第3データ領域に、第1画像信号及び第2画像信号の各々の12ビットのうち、下位4ビットのデータ量(Gr画素及びGb画素は、下位2ビットのデータ量)を割り当てる。さらに、階調変換部252は、第1画像信号及び第2画像信号の各々の12ビットのうち、上位8ビットのデータ量を第1画像信号の第1データ領域及び第2画像信号の第2画像データに割り当てる。これにより、階調変換部252は、B画素から出力された第1画像信号を12ビットのデータ量のまま送受信部26へ出力することができると共に、Gr画素及びGb画素の各々から出力された第2画像信号の12ビットのデータ量を上位10ビットのデータ量に変換して送受信部26へ出力することができる。この結果、上述した実施の形態1の白色光の場合(図5Cを参照)と同じデータ量で送受信部26へ出力することができる。すなわち、カプセル型内視鏡2が特殊光観察を行う場合であっても、画像データのデータ量を増加させることなく、G画素とB画素それぞれの階調性を向上させることができる。
 ステップS213の後、送受信部26は、階調変換部252によって特殊光階調変換処理後の画像信号を外部へ送信する(ステップS214)。ステップS214の後、カプセル型内視鏡2は、後述するステップS208へ移行する。
 以上説明した本発明の実施の形態2によれば、制御部29が特殊光に感度を有する画素のみから画像信号を読み出させてA/D変換部251に出力させることによって、A/D変換部251で処理するデータ量を削減することができるので、カプセル型内視鏡2の電力消費を抑制することができる。
 さらに、本発明の実施の形態2によれば、白色光及び特殊光を観察する場合であっても、階調性の高い特殊光画像を生成して外部へ出力することができる。
 なお、本発明の実施の形態2では、階調変換部252がGr画素及びGb画素から出力された第2画像信号を10ビット、B画素から出力された第1画像信号を12ビットで送受信部26へ出力していたが、図10に示すように、B画素から出力される第1画像信号を10ビットで送受信部26へ出力してもよい。これにより、G画素とB画素それぞれの階調性を向上させることができると共に、送信時のデータ量を削減することができる。
(その他の実施の形態)
 本発明は上述した実施の形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、本発明の説明に用いたカプセル型内視鏡以外にも、被検体内に挿入部の先端部に撮像部を配置してなる内視鏡装置(軟性内視鏡)、経鼻内視鏡装置、硬性内視鏡、撮像装置、医療デバイス等及び工業内視鏡にも適用できる。
 また、本発明の実施の形態では、カラーフィルタの配列をベイヤー配列で説明したが、これに限定されることなく、周知のフィルタ配列を用いてもよい。
 また、本発明の実施の形態では、特殊光として青色の狭帯域の光(例えば390nm~445nm)及び緑色の狭帯域の光(例えば530nm~550nm)を含む光であったが、これに限定されることなく、カプセル型内視鏡が蛍光観察(AFI:Auto Fluorescence Imaging)を行う場合、特殊光として蛍光物質からの自家蛍光を観察するための波長帯域(例えば390nm~470nm)の光及び血液中のヘモグロビンに吸収される波長帯域(例えば540nm~560nm)の光を含む光であってもよい。さらに、カプセル型内視鏡が消化管粘膜及び粘膜下層の観察を行う狭帯域光観察(DRI:Dual Red Imaging)を行う場合、特殊光として2つの赤色の狭帯域の光(例えば600nm及び630nm)を含む光であってもよい。さらにまた、カプセル型内視鏡が赤外光観察(IRI:Infra Red Imaging)を行う場合、特殊光として2つの赤外光(例えば790nm~820nm及び905nm~970nm)それぞれを含む光であってもよい。これらの場合、観察光に適したカラーフィルタを撮像素子の受光面に配置するようにすればよい。
 また、本明細書において、前述の各動作のフローチャートの説明において、便宜上「まず」、「次に」、「続いて」、「その後」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。
 また、上述した実施の形態におけるカプセル型内視鏡による各処理の手法、即ち、各フローチャートに示す処理は、いずれもCPU等の制御部に実行させることができるプログラムとして記憶させておくこともできる。この他、メモリカード(ROMカード、RAMカード等)、磁気ディスク、ハードディスク、光ディスク(CD-ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、CPU等の制御部は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。
 また、本発明は、上述した実施の形態及び変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上述した実施の形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した実施の形態及び変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、各実施の形態及び変形例で説明した構成要素を適宜組み合わせてもよい。
 また、明細書または図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書または図面のいかなる箇所においても、その異なる用語に置き換えることができる。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。
 1 カプセル型内視鏡システム
 2 カプセル型内視鏡
 3 受信アンテナユニット
 3a~3h 受信アンテナ
 4 受信装置
 5 画像処理装置
 20 カプセル型筐体
 21 第1照明部
 22 第2照明部
 23 光学系
 24 撮像部
 25 データ処理部
 26 送受信部
 27 アンテナ
 28 記録部
 29 制御部
 30 電源
 241 カラーフィルタ
 242 撮像素子
 251 A/D変換部
 252 階調変換部

Claims (11)

  1.  第1波長帯域の光を受光して第1画像信号を生成する第1画素と、前記第1波長帯域と異なる第2波長帯域の光を受光して第2画像信号を生成する第2画素と、前記第1波長帯域及び前記第2波長帯域の各々と異なる第3波長帯域の光を受光して第3画像信号を生成する第3画素と、を配置してなる撮像部と、
     前記第1波長帯域または前記第2波長帯域の少なくとも一方を含み、前記第3波長帯域を含まない特殊光を前記第1画素及び前記第2画素が受光した場合、前記第1画像信号または前記第2画像信号の少なくとも一方の一部を前記第3画像信号に割り当てて出力するデータ処理部と、
     前記データ処理部から出力された前記第1画像信号、前記第2画像信号、及び前記第3画像信号を出力する出力部と、
     を備えることを特徴とする被検体内導入装置。
  2.  前記データ処理部は、前記特殊光を前記第1画素及び前記第2画素が受光した場合、前記第1画像信号の一部を前記第1画像信号の第1データ領域に割り当てると共に、前記第1画像信号の残りを前記第3画像信号の第3データ領域に割り当て、前記第2画像信号の一部を前記第2画像信号の第2データ領域に割り当てると共に、前記第2画像信号の残りを前記第3画像信号の第3データ領域に割り当て、
     前記出力部は、前記第1、第2及び第3データ領域に割り当てられた信号を出力することを特徴とする請求項1に記載の被検体内導入装置。
  3.  前記第1、第2及び第3データ領域のデータ量は、前記第1、第2及び第3画像信号それぞれのデータ量よりも小さく、
     前記データ処理部は、
     前記第1画素及び前記第2画素の各々が前記特殊光を受光した場合、前記第1画像信号のうち前記第1データ領域のデータ量と同じデータ量を前記第1データ領域に割り当てると共に、前記第1画像信号の残りのデータ量の少なくとも一部を前記第3データ領域に割り当て、前記第2画像信号のうち前記第2データ領域のデータ量と同じデータ量を前記第2データ領域に割り当てると共に、前記第2画像信号の残りのデータ量の少なくとも一部を前記第3データ領域に割り当てて出力することを特徴とする請求項2に記載の被検体内導入装置。
  4.  前記データ処理部は、前記第1波長帯域、前記第2波長帯域及び前記第3波長帯域の各々の光を含む照明光を前記第1画素、前記第2画素及び前記第3画素が受光した場合、前記第1画像信号、前記第2画像信号及び前記第3画像信号を所定のデータ量に変換して出力することを特徴とする請求項1~3のいずれか一つに記載の被検体内導入装置。
  5.  前記出力部は、前記データ処理部から出力された前記第1画像信号、前記第2画像信号、及び前記第3画像信号を外部へ送信することを特徴とする請求項1~3のいずれか一つに記載の被検体内導入装置。
  6.  前記第1画素及び前記第2画素の各々が前記特殊光を受光した場合、前記撮像部から前記第1画像信号及び前記第2画像信号のみを出力させる制御部をさらに備えることを特徴とする請求項1~3のいずれか一つに記載の被検体内導入装置。
  7.  前記第1波長帯域、前記第2波長帯域及び前記第3波長帯域の各々の光を含む照明光を照射する第1照明部と、
     前記特殊光を照射する第2照明部と、
     をさらに備えることを特徴とする請求項1~5のいずれか一つに記載の被検体内導入装置。
  8.  前記第1波長帯域は、青色の波長帯域であり、
     前記第2波長帯域は、緑色の波長帯域であり、
     前記第3波長帯域は、赤色の波長帯域であり、
     前記特殊光は、前記青色の波長帯域であって前記青色の波長帯域よりも狭い第1狭帯域及び前記緑色の波長帯域であって前記緑色の波長帯域よりも狭い第2狭帯域の少なくとも一方の光を含むことを特徴とする請求項1~5のいずれか一つに記載の被検体内導入装置。
  9.  前記第1狭帯域は、390nm~445nmであり、
     前記第2狭帯域は、530nm~550nmであることを特徴とする請求項7に記載の被検体内導入装置。
  10.  第1波長帯域の光を受光して第1画像信号を生成する第1画素と、前記第1波長帯域と異なる第2波長帯域の光を受光して第2画像信号を生成する第2画素と、前記第1波長帯域及び前記第2波長帯域の各々と異なる第3波長帯域の光を受光して第3画像信号を生成する第3画素と、を配置してなる撮像部を備えた被検体内導入装置が実行する送信方法であって、
     前記第1波長帯域または前記第2波長帯域の少なくとも一方を含み、前記第3波長帯域を含まない特殊光を前記第1画素及び前記第2画素が受光した場合、前記第1画像信号または前記第2画像信号の少なくとも一方の一部を前記第3画像信号に割り当てて出力するデータ処理ステップと、
     前記データ処理ステップから出力された前記第1画像信号、前記第2画像信号、及び前記第3画像信号を出力する出力ステップと、
     を含むことを特徴とする送信方法。
  11.  第1波長帯域の光を受光して第1画像信号を生成する第1画素と、前記第1波長帯域と異なる第2波長帯域の光を受光して第2画像信号を生成する第2画素と、前記第1波長帯域及び前記第2波長帯域の各々と異なる第3波長帯域の光を受光して第3画像信号を生成する第3画素と、を配置してなる撮像部を備えた被検体内導入装置に、
     前記第1波長帯域または前記第2波長帯域の少なくとも一方を含み、前記第3波長帯域を含まない特殊光を前記第1画素及び前記第2画素が受光した場合、前記第1画像信号または前記第2画像信号の少なくとも一方の一部を前記第3画像信号に割り当てて出力するデータ処理ステップと、
     前記データ処理ステップから出力された前記第1画像信号、前記第2画像信号、及び前記第3画像信号を出力する出力ステップと、
     を実行させることを特徴とするプログラム。
PCT/JP2017/007962 2016-06-20 2017-02-28 被検体内導入装置、送信方法及びプログラム Ceased WO2017221468A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017536040A JP6214841B1 (ja) 2016-06-20 2017-02-28 被検体内導入装置、送信方法及びプログラム
US16/210,079 US11259691B2 (en) 2016-06-20 2018-12-05 Body-insertable apparatus, transmission method, and non-transitory computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-121861 2016-06-20
JP2016121861 2016-06-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/210,079 Continuation US11259691B2 (en) 2016-06-20 2018-12-05 Body-insertable apparatus, transmission method, and non-transitory computer readable medium

Publications (1)

Publication Number Publication Date
WO2017221468A1 true WO2017221468A1 (ja) 2017-12-28

Family

ID=60784729

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/007962 Ceased WO2017221468A1 (ja) 2016-06-20 2017-02-28 被検体内導入装置、送信方法及びプログラム

Country Status (1)

Country Link
WO (1) WO2017221468A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003070718A (ja) * 2001-08-31 2003-03-11 Pentax Corp 可撓性内視鏡装置
JP2005334080A (ja) * 2004-05-24 2005-12-08 Olympus Corp 被検体内導入装置および医療装置
JP2006166940A (ja) * 2004-12-10 2006-06-29 Olympus Corp 内視鏡照明装置
JP2009232218A (ja) * 2008-03-24 2009-10-08 Mega Chips Corp 画像処理装置
JP2010169596A (ja) * 2009-01-23 2010-08-05 Olympus Corp 画像処理システム、画像処理装置および画像処理端末
JP2012231377A (ja) * 2011-04-27 2012-11-22 Olympus Corp 撮像装置及び画像生成方法
JP2013162340A (ja) * 2012-02-06 2013-08-19 Seiko Epson Corp 画像処理装置及びそれを用いた電子機器
JP2016055052A (ja) * 2014-09-11 2016-04-21 富士フイルム株式会社 内視鏡システム、光源装置、内視鏡システムの作動方法、及び光源装置の作動方法
WO2016088269A1 (ja) * 2014-12-05 2016-06-09 オリンパス株式会社 撮像装置、内視鏡およびカプセル型内視鏡

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003070718A (ja) * 2001-08-31 2003-03-11 Pentax Corp 可撓性内視鏡装置
JP2005334080A (ja) * 2004-05-24 2005-12-08 Olympus Corp 被検体内導入装置および医療装置
JP2006166940A (ja) * 2004-12-10 2006-06-29 Olympus Corp 内視鏡照明装置
JP2009232218A (ja) * 2008-03-24 2009-10-08 Mega Chips Corp 画像処理装置
JP2010169596A (ja) * 2009-01-23 2010-08-05 Olympus Corp 画像処理システム、画像処理装置および画像処理端末
JP2012231377A (ja) * 2011-04-27 2012-11-22 Olympus Corp 撮像装置及び画像生成方法
JP2013162340A (ja) * 2012-02-06 2013-08-19 Seiko Epson Corp 画像処理装置及びそれを用いた電子機器
JP2016055052A (ja) * 2014-09-11 2016-04-21 富士フイルム株式会社 内視鏡システム、光源装置、内視鏡システムの作動方法、及び光源装置の作動方法
WO2016088269A1 (ja) * 2014-12-05 2016-06-09 オリンパス株式会社 撮像装置、内視鏡およびカプセル型内視鏡

Similar Documents

Publication Publication Date Title
JP4589463B2 (ja) 撮像装置
WO2004096029A1 (ja) カプセル内視鏡およびカプセル内視鏡システム
CN105163646B (zh) 内窥镜
US10299665B2 (en) Imaging device and capsule endoscope system
JP2005074034A (ja) カプセル型内視鏡
US10574934B2 (en) Ultrasound observation device, operation method of image signal processing apparatus, image signal processing method, and computer-readable recording medium
CN101790344B (zh) 被检体内图像获取系统、被检体内图像处理方法以及被检体内导入装置
US10694100B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
US9443321B2 (en) Imaging device, endoscope system and imaging method using yellow-eliminated green data
US20170258304A1 (en) Imaging device, endoscope, and capsule endoscope
JP6214841B1 (ja) 被検体内導入装置、送信方法及びプログラム
JP4526245B2 (ja) 映像信号処理装置
US10863149B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
US20160066769A1 (en) Imaging device
US20170276847A1 (en) Imaging system
JP5242316B2 (ja) 狭帯域画像取得システムの作動方法および狭帯域画像取得システム
US12035052B2 (en) Image processing apparatus and image processing method
WO2017221468A1 (ja) 被検体内導入装置、送信方法及びプログラム
WO2021176708A1 (ja) アンテナシステム、カプセル型内視鏡システム及びアンテナシステムの作動方法
WO2019180983A1 (ja) 内視鏡システム、画像処理方法およびプログラム
CN210354630U (zh) 胶囊型内窥镜
JP6275344B1 (ja) 動き判定装置、被検体内導入装置、動き判定方法及びプログラム
JPWO2015186396A1 (ja) 内視鏡システムおよび内視鏡装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017536040

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17814940

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17814940

Country of ref document: EP

Kind code of ref document: A1