WO2019203006A1 - 内視鏡装置、内視鏡プロセッサ装置及び内視鏡画像表示方法 - Google Patents
内視鏡装置、内視鏡プロセッサ装置及び内視鏡画像表示方法 Download PDFInfo
- Publication number
- WO2019203006A1 WO2019203006A1 PCT/JP2019/014956 JP2019014956W WO2019203006A1 WO 2019203006 A1 WO2019203006 A1 WO 2019203006A1 JP 2019014956 W JP2019014956 W JP 2019014956W WO 2019203006 A1 WO2019203006 A1 WO 2019203006A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- display
- panoramic
- endoscope
- panoramic image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Definitions
- the present invention relates to an endoscope apparatus, an endoscope processor apparatus, and an endoscope image display method, and more particularly to a technique for supporting the operation of the distal end of an endoscope scope.
- Patent Document 1 describes that an image having an enlarged field of view can be obtained by connecting continuous time-series image groups (X0 to Xn) obtained by an endoscope.
- Patent Document 1 The invention described in Patent Document 1 is characterized in that a new image is formed by removing defects (for example, a halation portion) of an original image, and at least one image is recorded between time-series images.
- An image from which abnormal data such as a halation portion has been removed is generated by image composition such as filling a part (defective part) with a part of another image (an image of the same part having no defect).
- Patent Document 2 discloses a technique for creating a panorama image corresponding to an entire photographing range image that can be photographed by a network camera and displaying a display frame indicating which area the network camera is currently capturing on the panorama image. Are listed.
- Patent Document 1 The invention described in Patent Document 1 is not intended to generate a panoramic image having a wide field of view. While performing image synthesis between a plurality of images, a defective portion of one image is a defect of another image having no defect. An image having the wide field of view is only generated at the same time as a result of image composition between a plurality of images performed by using the images at the same location. Therefore, frame information indicating the imaging area of the currently captured moving image is not displayed on the panoramic image, and the panoramic image does not support the operation of the distal end of the endoscope scope.
- Patent Document 2 allows the user to check a region wider than the current shooting angle of view of the camera using the panoramic image, and sets the current shooting angle of view displayed in the panoramic image. Since the displayed frame shows which image is taken when the camera is moved, it is possible to support the user's camera operation.
- control target of the invention described in Patent Document 2 is a network, not an endoscope scope (camera at the tip of the scope).
- the panoramic image generated from the captured image and the top-and-bottom direction of the current captured image of the camera are also approximately the same.
- the display frame indicating the shooting range is also moved in the left-right direction or the up-down direction on the panorama image.
- the moving direction of the display frame matches.
- the scope scope tip of the endoscope scope moves (bends) in all directions and rotates (rolls), so the top-to-bottom direction of the current image being picked up by the endoscope scope (top-to-bottom of the image sensor) Direction) and the top-to-bottom direction of the panoramic image generated from the image captured by the endoscope scope in many cases.
- the user can confirm a region wider than the image currently captured by the endoscope scope by the panoramic image, but includes an arbitrary position of the panoramic image.
- the distal end of the endoscope scope there is a problem that it is not known how to move the distal end of the endoscope scope.
- An object of the present invention is to provide an endoscope apparatus, an endoscope processor apparatus, and an endoscope image display method capable of supporting the operation of a mirror scope.
- an endoscope apparatus includes a panorama image generation unit that generates a panorama image based on a moving image captured by an endoscope scope, and an image captured by an endoscope scope.
- a display control unit that causes the display unit to display the moving image and the generated panoramic image, and the display control unit captures the current moving image displayed on the display unit on the panoramic image displayed on the display unit.
- the first information indicating the position is displayed, and the moving direction of the distal end of the endoscope scope for imaging the imaging region including the arbitrary position with the endoscope scope with respect to the arbitrary position on the panoramic image.
- Second information for supporting the operation is displayed.
- the user since the panoramic image generated based on the moving image captured by the endoscope scope is displayed on the display device, the user has a wider area than the currently captured moving image. Can be confirmed by a panoramic image.
- the user can check the shooting position of the current moving image in the panoramic image based on the first information displayed on the panoramic image, and further, the imaging region including an arbitrary position on the panoramic image based on the second information.
- the display control unit detects which region of the panoramic image corresponds to each frame of the moving image by template matching, and first displays frame information indicating the region detected by template matching. This information is preferably displayed on a panoramic image.
- An endoscope apparatus includes a first instruction unit that designates an arbitrary position on a panoramic image displayed on a display, and the display control unit is configured by the first instruction unit.
- the display control unit is configured by the first instruction unit.
- the display control unit determines the arbitrary position on the panoramic image and the current moving image. To calculate the relative position of the center position of the camera and the relative angle between the panoramic image and the current movie, and to capture an imaging region including an arbitrary position based on the calculated relative position and relative angle with the endoscope scope. It is preferable that the direction in which the distal end of the endoscope scope is to be moved is determined, and an index indicating the determined direction is displayed on the current moving image displayed on the display unit as the second information.
- the relative position between an arbitrary position on the panorama image and the center position of the current movie, and the relative angle between the panorama image and the current movie detects which area of the panorama image each frame of the movie corresponds to
- the template (moving image frame) at the time of template matching can be obtained from the movement position and the rotation amount with respect to the panoramic image. Since the imaging state such as the posture of the tip of the endoscope scope with respect to the panoramic image is known by the calculated relative position and relative angle, the tip of the endoscope scope for imaging an imaging region including an arbitrary position with the endoscope scope The direction in which to move can be determined.
- An index (for example, an arrow) indicating the direction to be moved is displayed on the current moving image, and the user moves the distal end of the endoscope scope in the direction indicated by the index so that an arbitrary position can be set by the endoscope scope. It is possible to take an image of an imaging area including the image pickup area.
- the display control unit calculates a relative angle between the panoramic image and the current moving image, and sets the calculated relative angle on the panoramic image displayed on the display. Based on this, it is preferable to display information indicating the top and bottom direction of the current moving image with respect to the panoramic image as the second information. If the top / bottom direction is determined by the second information in addition to the current moving image capturing position with respect to the panoramic image, the user should move the tip of the endoscope scope when capturing an arbitrary position in the panoramic image. Can be easily grasped.
- the endoscope apparatus includes an area designation generation mode setting unit that sets an area designation generation mode for designating an attention area of a moving image, and the panoramic image generation unit is set to the area designation generation mode. Then, it is preferable to generate a panoramic image based on a plurality of frames including a region of interest specified in the region specification generation mode among frames constituting a moving image. Thereby, a panoramic image can be generated from a frame in a moving image in which the region of interest is imaged, and a suitable panoramic image can be generated when magnifying and observing a local area (region of interest in the moving image) with a whole feeling. it can.
- An endoscope apparatus includes a time designation generation mode setting unit that sets a time designation generation mode that indicates a time range of a moving image, and the panorama image generation unit is set to the time designation generation mode. Then, it is preferable to generate a panoramic image based on a plurality of frames within the time range specified in the time specification generation mode among the frames constituting the moving image. Thereby, a panoramic image can be generated from a moving image within a specified time range, and a moving image suitable for generating a panoramic image between the start time and the end time can be specified by the user specifying the start time and the end time. Can be imaged.
- the display control unit displays the generated panorama image generated by the panorama image generation unit and the panorama image being generated by the panorama image generation unit on the display. It is preferable to make it. By displaying the panorama image being generated by the panorama image generation unit, it is possible to confirm an area not included in the panorama image being generated.
- a second instruction unit for designating an uncaptured extension area for extending a panoramic image being generated on the panoramic image being generated displayed on the display unit
- the display control unit is the third information indicating the moving direction of the distal end of the endoscope scope, and displays the imaging area including the extended area. It is preferable to display the third information indicating the direction in which the distal end of the endoscope scope for imaging with the mirror scope should be moved on the current moving image displayed on the display.
- the panorama image generation unit By displaying the panorama image that is being generated by the panorama image generation unit, it is possible to check an area that is not included in the panorama image that is being generated, and an area that is not included in the panorama image (an uncaptured extended area) ) Can be obtained, so that the third information for guiding the moving direction of the endoscope scope for imaging the unimaged extended area can be acquired, so that the panoramic image includes the desired area.
- the panoramic image can be extended.
- a normal image capturing mode for acquiring a normal image corresponding to white light, or a normal image corresponding to white light and a special light image corresponding to special light are alternately displayed.
- the panorama image generation unit overlaps the imaging areas from the plurality of special light images captured in the multiframe shooting mode when switched to the multiframe shooting mode. Multiple sets of feature points between special light images are extracted, and a panoramic image is generated by adjusting between multiple special light images and the same normal images obtained by imaging the same area based on the extracted sets of feature points It is preferable.
- panoramic synthesis information (for example, conversion coefficients for projective transformation) is obtained based on these multiple sets of feature points, and the panorama synthesis information is applied to a normal image obtained by capturing the same area as the special light image.
- the moving image is displayed as a time-series normal image.
- the normal image and the special light image are alternately acquired in the multi-frame shooting mode.
- the video can be displayed.
- the panorama image generation unit when the panorama image generation unit is switched to the normal image shooting mode, the normal image in which the imaging regions overlap from a plurality of normal images captured in the normal image shooting mode. Multiple sets of feature points are extracted, panorama images are generated based on the extracted sets of feature points, and adjustments are made between multiple normal images, and multiple sets of feature points cannot be extracted between normal images
- the shooting mode setting unit switches to the multi-frame shooting mode.
- a panorama image is generated by adjusting between a plurality of normal images based on a plurality of feature points between normal images, but if a plurality of feature points between normal images cannot be extracted, the multi-frame shooting mode is set. In the same manner as described above, a panoramic image can be generated using a special light image.
- An endoscope apparatus includes a panorama shooting mode setting unit that sets a panorama shooting mode for generating a panoramic image, and the panorama image generating unit is configured to display a panorama when the panorama shooting mode is set.
- the panoramic image generation unit performs distortion correction for correcting distortion of each frame of the moving image used for generating the panoramic image, and based on each frame subjected to the distortion correction. It is preferable to generate a panoramic image. Since an endoscopic image is generally a wide-angle image, aberration such as distortion is large. Therefore, before generating the panoramic image, the distortion of each frame of the moving image used for generating the panoramic image is corrected so that the panoramic image can be generated satisfactorily.
- An endoscope image display method includes a step in which a panorama image generation unit generates a panorama image based on a moving image captured by an endoscope scope, and a display control unit The step of displaying a moving image captured by the mirror scope and the generated panoramic image on the display, and the display control unit on the panoramic image displayed on the display, the shooting position of the current moving image displayed on the display And a display control unit configured to display an imaging scope including an arbitrary position with respect to an arbitrary position on the panoramic image with an endoscope scope. Displaying second information supporting operation in the moving direction of the tip.
- the step of displaying the first information includes detecting a region of the panoramic image corresponding to each frame of the moving image by template matching, It is preferable to display the frame information indicating the area detected by the matching on the panoramic image as the first information.
- the second information is displayed including a step of designating an arbitrary position on the panoramic image displayed on the display device by the first instruction unit.
- the step when an arbitrary position on the panoramic image is designated by the first instruction unit, second information indicating the moving direction of the distal end of the endoscope scope is displayed on the current moving image displayed on the display. It is preferable to display.
- the step of displaying the second information includes the step of displaying on the panorama image when an arbitrary position is designated on the panorama image by the first instruction unit. Calculate the relative position between an arbitrary position and the center position of the current video, and the relative angle between the panoramic image and the current video, and view the imaging area including the arbitrary position based on the calculated relative position and relative angle It is preferable to determine a direction in which the distal end of the endoscope scope for imaging with the mirror scope should be moved, and to display an index indicating the determined direction on the current moving image displayed on the display as second information.
- the step of displaying the first information includes calculating a relative angle between the panoramic image and the current moving image and displaying the relative angle on the panoramic image displayed on the display.
- information indicating the top and bottom direction of the current moving image with respect to the panoramic image is displayed as the second information based on the calculated relative angle.
- An endoscope processor device includes a panorama image generation unit that generates a panorama image based on a moving image captured by an endoscope scope, and a moving image and generation generated by an endoscope scope.
- a display control unit that displays the panoramic image displayed on the display unit, and the display control unit displays a first moving image shooting position displayed on the display unit on the panoramic image displayed on the display unit.
- the first information is displayed and the operation of the moving direction of the distal end of the endoscope scope for imaging the imaging area including the arbitrary position with respect to the arbitrary position on the panoramic image with the endoscope scope is supported. 2 information is displayed.
- the present invention it is possible to confirm a larger area than the currently captured moving image by the panoramic image generated based on the moving image captured by the endoscope scope, and in particular, the first image displayed on the panoramic image.
- the current video shooting position in the panoramic image can be confirmed by the information 1 and the imaging area including an arbitrary position on the panoramic image is captured by the second information, It can be seen in which direction the tip of the scope is to be moved, and the operability of the scope can be improved.
- FIG. 1 is an external perspective view of an endoscope apparatus 10 according to the present invention.
- FIG. 2 is a block diagram showing an electrical configuration of the endoscope apparatus 10.
- FIG. 3 is a diagram used for explaining mask processing of an endoscopic image.
- FIG. 4 is a diagram conceptually illustrating a panoramic image creation method in the area designation generation mode.
- FIG. 5 is a diagram used for explaining a specific algorithm for generating a panoramic image.
- FIG. 6 is a diagram conceptually illustrating a panoramic image creation method in the time designation generation mode.
- FIG. 7 is a diagram illustrating a display example of the display 14 that displays the normal image 100, the panoramic image 200, and the like.
- FIG. 8 is a diagram illustrating another display example of the display 14 that displays the normal image 100, the panoramic image 200, and the like.
- FIG. 9 is a diagram showing still another display example of the display 14 that displays the normal image 100, the panoramic image 200, and the like.
- FIG. 10 is a flowchart showing the main flow of the endoscopic image display method according to the present invention.
- FIG. 11 is a flowchart showing the main flow of the panoramic image generation method when the process proceeds to step S20 shown in FIG.
- FIG. 12 is a flowchart showing a specific algorithm of the panoramic image generation method when the process proceeds to step S40 shown in FIG.
- FIG. 13 is a flowchart showing a display method of a normal image and a panoramic image when the process proceeds to step S30 shown in FIG. FIG.
- FIG. 14 is a flowchart showing an embodiment of the panoramic image generation method when the process proceeds to step S20 shown in FIG. 10, and particularly shows a case where the multi-frame shooting mode is set.
- FIG. 15 is a flowchart showing a method of generating a panoramic image by switching between the normal image shooting mode and the multi-frame shooting mode.
- FIG. 16 is a diagram illustrating a display example of the display 14 that displays the normal image 100, the panoramic image 200, and the like. In particular, FIG. 16 is a diagram illustrating another display example of information that supports the moving direction of the distal end of the endoscope scope. .
- FIG. 17 is a diagram illustrating a display example of the display 14 that displays the normal image 100, the panoramic image 200, and the like. In particular, FIG. 17 is a diagram illustrating still another display example of information supporting the moving direction of the distal end of the endoscope scope. is there.
- FIG. 1 is an external perspective view of an endoscope apparatus 10 according to the present invention.
- an endoscope apparatus 10 is roughly divided into an endoscope scope (here, a flexible endoscope) 11 that images an observation target in a subject, a light source device 12, and a processor device (endoscope).
- Mirror processor device 13 and a display 14 such as a liquid crystal monitor.
- the light source device 12 supplies various types of illumination light, such as white light for capturing a normal image and light in a specific wavelength band for capturing a special light image, to the endoscope scope 11.
- the processor device 13 has a function of generating image data of a normal image and / or a special light image for display or recording based on an image signal obtained by the endoscope scope 11, and a function of controlling the light source device 12. In addition, it has a function of generating a panoramic image from a time-series normal image according to the present invention, a function of displaying the normal image and the panoramic image on the display 14, and the like.
- the panoramic image of the present example is an image including a wider range of observation objects than a normal image generated from two or more normal images.
- the display device 14 displays a normal image and a panoramic image in addition to a normal image or a special light image based on display image data input from the processor device 13.
- the endoscope scope 11 is connected to a flexible insertion portion 16 to be inserted into a subject and a proximal end portion of the insertion portion 16, and is used for grasping the endoscope scope 11 and operating the insertion portion 16. And a universal cord 18 that connects the hand operation unit 17 to the light source device 12 and the processor device 13.
- the insertion portion distal end portion 16a (the distal end of the endoscope scope), which is the distal end portion of the insertion portion 16, incorporates an illumination lens 42, an objective lens 44, an image sensor 45, and the like (see FIG. 2).
- a bendable bending portion 16b is connected to the rear end of the insertion portion distal end portion 16a.
- a flexible tube portion 16c having flexibility is connected to the rear end of the curved portion 16b.
- the hand operation unit 17 is provided with an angle knob 21, an operation button 22, a forceps inlet 23, and the like.
- the angle knob 21 is rotated when adjusting the bending direction and the bending amount of the bending portion 16b.
- the operation button 22 is used for various operations such as air / water supply and suction.
- the forceps inlet 23 communicates with a forceps channel in the insertion portion 16.
- the hand operation unit 17 is provided with an endoscope operation unit 46 (see FIG. 2) for performing various settings.
- the universal code 18 incorporates an air / water channel, a signal cable, a light guide, and the like.
- the distal end portion of the universal cord 18 is provided with a connector portion 25a connected to the light source device 12 and a connector portion 25b connected to the processor device 13. Accordingly, illumination light is supplied from the light source device 12 to the endoscope scope 11 via the connector portion 25a, and an image signal obtained by the endoscope scope 11 is input to the processor device 13 via the connector portion 25b.
- the light source device 12 is provided with a light source operation unit 12a such as a power button, a lighting button for turning on the light source, and a brightness adjustment button
- the processor device 13 is provided with a power button and a pointing device such as a mouse (not shown).
- a processor operation unit 13a including an input unit that receives input from the device is provided.
- FIG. 2 is a block diagram showing an electrical configuration of the endoscope apparatus 10.
- the endoscope scope 11 is roughly divided into a light guide 40, an illumination lens 42, an objective lens 44, an image sensor 45, an endoscope operation unit 46, and an endoscope control unit 47. And a ROM (Read Only Memory) 48.
- the light guide 40 is a large-diameter optical fiber, a bundle fiber, or the like.
- the light guide 40 has an incident end inserted into the light source device 12 via the connector portion 25a, and an emission end opposed to the illumination lens 42 provided in the insertion portion distal end portion 16a through the insertion portion 16. ing.
- the illumination light supplied from the light source device 12 to the light guide 40 is irradiated to the observation object through the illumination lens 42.
- the illumination light reflected and / or scattered by the observation target is incident on the objective lens 44.
- the objective lens 44 forms reflected light or scattered light (that is, an optical image of an observation target) of incident illumination light on the image pickup surface of the image pickup element 45.
- the imaging element 45 is a CMOS (complementary metal oxide semiconductor) type or CCD (charge coupled device) type imaging element, and is relatively positioned and fixed to the objective lens 44 at a position behind the objective lens 44.
- CMOS complementary metal oxide semiconductor
- CCD charge coupled device
- On the image pickup surface of the image pickup element 45 a plurality of pixels constituted by a plurality of photoelectric conversion elements (photodiodes) for photoelectrically converting an optical image are two-dimensionally arranged.
- red (R), green (G), and blue (B) color filters are arranged for each pixel on the incident surface side of the plurality of pixels of the image sensor 45 of this example, and thereby R pixels and G pixels are arranged.
- B pixels are formed.
- the filter arrangement of the RGB color filters is generally a Bayer arrangement, but is not limited thereto.
- the image sensor 45 converts an optical image formed by the objective lens 44 into an electrical image signal and outputs the electrical image signal to the processor device 13.
- an A / D (Analog / Digital) converter is built in, and a digital image signal is directly output from the image sensor 45 to the processor device 13.
- the image sensor 45 is a CCD type
- the image signal output from the image sensor 45 is converted into a digital image signal by an A / D converter (not shown) and then output to the processor device 13. .
- the endoscope operation unit 46 switches a still image shooting button (not shown), a normal image shooting mode, a special light image shooting mode, a multi-frame shooting mode, a shooting mode setting unit for setting a panorama shooting mode, or a panorama shooting mode.
- a panorama shooting mode setting unit, an area designation generation mode setting unit, a time designation generation mode setting unit, and the like are set.
- the shooting mode setting unit, the area designation generation mode setting unit, and the time designation generation mode setting unit may be provided in the processor operation unit 13a of the processor device 13.
- the endoscope control unit 47 sequentially executes various programs and data read from the ROM 48 and the like according to the operation of the endoscope operation unit 46, and mainly controls the driving of the image sensor 45. For example, in the normal image capturing mode, the endoscope control unit 47 controls the image capturing element 45 so as to read the signals of the R pixel, the G pixel, and the B pixel of the image capturing element 45, and the special light image capturing mode or the multi-frame.
- the image sensor 45 is controlled so as to read out only the signal of the B pixel of the image sensor 45 having spectral sensitivity in the light wavelength band.
- the endoscope control unit 47 communicates with the processor control unit 61 of the processor device 13, and the operation information in the endoscope operation unit 46 and the type of the endoscope scope 11 stored in the ROM 48.
- the identification information for identifying is transmitted to the processor device 13.
- the light source device 12 includes a light source control unit 31 and a light source unit 32.
- the light source control unit 31 communicates between the control of the light source unit 32 and the processor control unit 61 of the processor device 13 to exchange various information.
- the light source unit 32 has, for example, a plurality of semiconductor light sources.
- the light source unit 32 includes a V-LED (Violet Light Emitting Diode) 32a, a B-LED (Blue Light Emitting Diode) 32b, a G-LED (Green Light Light Emitting Diode) 32c, and an R-LED (Red Light). (Emitting) Diode) 32d LED.
- the V-LED 32a is a violet light source that emits violet light having a central wavelength of 405 nm and a wavelength band of 380 to 420 nm.
- the B-LED 32b is a blue semiconductor light source that emits blue light having a center wavelength of 460 nm and a wavelength band of 420 to 500 nm.
- the G-LED 32c is a green semiconductor light source that emits green light having a wavelength band ranging from 480 to 600 nm.
- the R-LED 32d is a red semiconductor light source that emits red light having a central wavelength of 620 to 630 nm and a wavelength band of 600 to 650 nm.
- the center wavelengths of the V-LED 32a and the B-LED 32b have a width of about ⁇ 5 nm to ⁇ 10 nm.
- each of these LEDs 32a to 32d can be controlled by the light source control unit 31 by inputting an independent control signal.
- the light source control unit 31 turns on all the V-LEDs 32a, B-LEDs 32b, G-LEDs 32c, and R-LEDs 32d. For this reason, in the normal image capturing mode, white light including purple light, blue light, green light, and red light is used as illumination light.
- the light source control unit 31 turns on any one light source of the V-LED 32a, B-LED 32b, G-LED 32c, and R-LED 32d, or a plurality of light sources appropriately combined, Alternatively, when a plurality of light sources are turned on, the light emission amount (light quantity ratio) of each light source is controlled, thereby enabling imaging of a plurality of layers having different depths of the subject.
- the light of each color emitted from each of the LEDs 32a to 32d is incident on a light guide 40 inserted into the endoscope scope 11 through an optical path coupling portion formed by a mirror, a lens, and the like, and a diaphragm mechanism (not shown).
- the illumination light of the light source device 12 is observed as white light (light in a white wavelength band or light in a plurality of wavelength bands), light in one or more specific wavelength bands (special light), or a combination thereof. Light of various wavelength bands according to the purpose is selected.
- the specific wavelength band of special light is a band narrower than the white wavelength band.
- the first example of the specific wavelength band is, for example, a visible blue band or a green band.
- the wavelength band of the first example includes a wavelength band of 390 nm to 450 nm or 530 nm to 550 nm, and the light of the first example has a peak wavelength in a wavelength band of 390 nm to 450 nm or 530 nm to 550 nm. .
- the second example of the specific wavelength band is, for example, the red band in the visible range.
- the wavelength band of the second example includes a wavelength band of 585 nm to 615 nm or less or 610 nm to 730 nm, and the light of the second example has a peak wavelength within a wavelength band of 585 nm to 615 nm or 610 nm to 730 nm. .
- the third example of the specific wavelength band includes wavelength bands having different absorption coefficients between oxyhemoglobin and reduced hemoglobin, and the light of the third example has a peak wavelength in a wavelength band having different absorption coefficients between oxyhemoglobin and reduced hemoglobin.
- the wavelength band of the third example includes a wavelength band of 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm, or 600 nm to 750 nm, and the light of the third example includes the above 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 It has a peak wavelength in a wavelength band of ⁇ 10 nm or 600 nm to 750 nm.
- the fourth example of the specific wavelength band is a wavelength band (390 nm to 470 nm) of excitation light that is used for observation of fluorescence (fluorescence observation) emitted from the fluorescent substance in the living body and excites this fluorescent substance.
- the fifth example of the specific wavelength band is an infrared light wavelength band.
- the wavelength band of the fifth example includes a wavelength band of 790 nm to 820 nm or less, or 905 nm to 970 nm, and the light of the fifth example has a peak wavelength in a wavelength band of 790 nm to 820 nm or 905 nm to 970 nm.
- the processor device 13 includes a processor operation unit 13a, a processor control unit 61, a ROM 62, a digital signal processing circuit (DSP: Digital Signal Processor) 63, an image processing unit 65, a display control unit 66, a storage unit 67, and the like. .
- DSP Digital Signal Processor
- the processor operation unit 13a includes a power button, an input unit that receives inputs such as a coordinate position and a click (execution instruction) indicated on the display unit 14 with a mouse.
- the processor control unit 61 reads out necessary programs and data from the ROM 62 in accordance with the operation information in the processor operation unit 13a and the operation information in the endoscope operation unit 46 received via the endoscope control unit 47. By sequentially processing, each part of the processor device 13 is controlled and the light source device 12 is controlled.
- the processor control unit 61 may receive a necessary instruction input from another external device such as a keyboard connected through an interface (not shown).
- the DSP 63 that functions as one form of an image acquisition unit that acquires image data of each frame of a moving image output from the endoscope scope 11 (the image sensor 45) is controlled by the processor control unit 61.
- the image data for one frame of the moving image input from is subjected to various signal processing such as defect correction processing, offset processing, white balance correction, gamma correction, and demosaic processing to generate image data for one frame. .
- An image processing unit 65 having a function as a panoramic image generation unit inputs image data from the DSP 63, and performs image conversion processing, color enhancement processing, structure enhancement processing, or the like on the input image data as necessary. Processing is performed to generate image data indicating an endoscopic image in which an observation target is shown.
- the color conversion process is a process for performing color conversion on image data by 3 ⁇ 3 matrix processing, gradation conversion processing, three-dimensional lookup table processing, and the like.
- the color emphasis process is a process for emphasizing the color in the direction in which, for example, the color difference between the blood vessel and the mucous membrane is different from the image data subjected to the color conversion process.
- the structure enhancement process is a process for enhancing a specific tissue or structure included in an observation target such as a blood vessel or a pit pattern, and is performed on the image data after the color enhancement process.
- the image data of each frame of the moving image processed by the image processing unit 65 is recorded in the storage unit 67 as a still image or moving image instructed to be photographed when there is a still image or moving image photographing instruction.
- the image data of each frame of the moving image used for generating the panoramic image is also recorded in the storage unit 67.
- the moving image for generating the panoramic image is a moving image captured by the endoscope scope 11 after the setting time of the panoramic shooting mode, and before the setting time of the panoramic shooting mode, with respect to the time when the panoramic shooting mode is set.
- a moving image captured by the endoscope scope 11 or a moving image captured by the endoscope scope 11 before and after the setting time of the panoramic shooting mode is included.
- the moving image includes a frame necessary for generating a desired panoramic image. It can be a moving image of a certain shooting period and can be updated sequentially. Also, the moving image saved for panorama image generation may be deleted when the panorama image generation is generated.
- the image processing unit 65 has a function as a panoramic image generation unit that generates a panoramic image based on a moving image captured by the endoscope scope 11, but details of image processing when functioning as a panoramic image generation unit Will be described later.
- the display control unit 66 generates display data for displaying the normal image, the special light image, and the panoramic image on the display unit 14 from the input image data, and outputs the generated display data to the display unit 14 for display.
- the display image is displayed on the device 14.
- the display control unit 66 performs a mask process on each frame 90 of the moving image based on the mask image 92 as shown in FIG. 3, and generates a normal image 100 for displaying the moving image.
- the mask image 92 is a rectangular image having the same size as the normal image 100, and has a non-mask portion and a mask portion (black portion) that expose a display area (circular area in this example).
- the masking process is not limited to generating a circular display image from a rectangular frame, but generates an octagonal display image in which the four corners of the rectangular frame are masked, or the left and right ends of the rectangular frame. A case of generating a barrel-shaped display image masked in an arc shape is conceivable.
- the display control unit 66 outputs the normal image 100 for display to the display unit 14, displays the normal image 100 (moving image) on the display unit 14, the panoramic shooting mode is set by the panoramic shooting mode setting unit, and the image processing unit When the panorama image generated by the panorama image generator 65 is input, the normal image 100 and the panorama image 200 (see FIG. 7) are displayed on the display unit 14.
- the display control unit 66 includes, on the panoramic image 200, the first information indicating the shooting position of the current moving image (normal image 100) (in this example, the same area as the circular normal image 100), as shown in FIG.
- the circular frame information 202) indicating is displayed.
- the display control unit 66 clicks an arbitrary position 204 on the panoramic image 200 with the mouse (when an arbitrary position is designated), the display control unit 66 performs internal viewing of the imaging region including the arbitrary position 204.
- An index (in this example, an arrow 102) indicating the direction in which the tip of the endoscope scope 11 to be imaged with the scope 11 is to be moved is displayed on the normal image 100 that is the current moving image.
- the details of display control by the display control unit 66 for displaying the frame information 202 and the arrow 102 on the display device 14 will be described later.
- the image processing unit 65 functions as a panoramic image generation unit. It is assumed that the normal image shooting mode is set by the shooting mode setting unit.
- the panorama image generating unit When the panorama shooting mode is set under the normal image shooting mode, the panorama image generating unit generates a panorama image from each frame (normal image) of the moving image captured in the normal image shooting mode.
- a panoramic image is generated as follows according to the “region designation generation mode” or “time designation generation mode” set by the operation unit 46 or the processor operation unit 13a.
- the “area designation generation mode” is a mode in which a panoramic image is generated when a user (doctor) finds an attention area from a normal image and designates an arbitrary position including the attention area.
- panorama composition starts.
- the panorama image generation unit extracts a plurality of frames including the designated attention area from the frames that are captured before the clicked time and are stored in the storage unit 67 and includes the designated attention area.
- a plurality of frames are synthesized to generate a panoramic image.
- FIG. 4 is a diagram conceptually showing a panoramic image creation method in the area designation generation mode.
- the panoramic image generation unit extracts a plurality of frames I 2 , I 3 , I 4 , and I 5 including the region of interest from a past frame group including the frame I 1 (moving image held in the storage unit 67).
- the panoramic image generator generates the panoramic image 200 on the basis of a plurality of frames I 1 ⁇ I 5 including the frame I 1.
- the panoramic image 200 is generated using five frames I 1 to I 5.
- the number of frames used for panorama synthesis is not limited to five, and the region of interest is imaged. It is preferable to extract all the frames that have been processed and panorama synthesize them.
- extracted frames to be used from the frame group of the past time from the frame I 1 region specified time panorama stitching it is imaged after future time (area designated time than the frame I 1 region designated time Frames used for panorama synthesis from a group of moving images) may be extracted, or frames used for panorama synthesis are extracted from a group of moving images captured at both past and future times from the area specified time. May be.
- the frames extracted from the moving image frame group are extracted with a time interval longer than the moving image frame rate (for example, 30 frames / second, 60 frames / second), or have a certain range of movement amount between frames. It is preferable to extract a frame. This is because the number of frames to be panorama synthesized is reduced and the area of the panorama image to be panorama synthesized is expanded.
- a specific algorithm for generating a panoramic image by the panoramic image generating unit is as follows.
- the feature amount Di is preferably information acquired based on information about the feature point peripheral region.
- SIFT is a 128-dimensional real vector
- ORB is a 256-bit binary string.
- the pixel value in the W ⁇ W region around the feature point may be used.
- Whether or not a certain feature point of the images I 1 and I 2 is matched is evaluated based on the similarity of the feature amount corresponding to the feature point. For example, if the feature quantity is SIFT, it is assumed that the Euclidean distance of each real vector matches when it is smaller than a certain threshold.
- the matrix H is obtained by applying the equation [1] to the matched pair of corresponding points and solving the simultaneous equations for the elements of the matrix H.
- the coefficient h 33 in the matrix H is 1, eight coefficients are obtained.
- a matrix H having eight coefficients (transform coefficients) can be obtained by solving eight simultaneous equations from the coordinates of four sets of corresponding points (total of eight).
- a desired panoramic image can be generated by performing the above panorama synthesis process on all images used for generating a panoramic image.
- ⁇ Timed generation mode> In the “time specification generation mode”, when a doctor finds a region of interest and gives a start instruction at a time when the doctor wants to start panorama shooting, panorama synthesis (connection of images) is started and the doctor wants to end When an end instruction is given, it is a mode for ending image connection.
- the panorama image generation unit starts panorama synthesis based on the acquired video
- the panorama synthesis is ended. If a panoramic image cannot be generated from a moving image in real time, the moving image temporarily stored in the storage unit 67 can be used.
- FIG. 6 is a diagram conceptually illustrating a panoramic image creation method in the time designation generation mode.
- a frame I 1 shows a frame at the start time of panoramic photography instructed by the doctor
- a frame I 5 shows a frame at the end time of panoramic photography instructed by the doctor.
- the panorama image generation unit is configured to generate a plurality of frames I 2 , I 3 , I 4 , and the like used for panorama synthesis from a frame group of moving images captured from a frame at the start time of panorama shooting including the frame I 1 to the end time extract the I 5, to generate a panoramic image 200 on the basis of a plurality of frames I 1 ⁇ I 5 including the frame I 1.
- the generation of the panoramic image 200 can be performed in the same manner as the generation of the panoramic image in the area designation generation mode.
- the panorama image generation unit performs distortion correction for correcting distortion of each frame of the moving image used for generating the panorama image, and generates a panorama image based on each frame subjected to the distortion correction.
- Recent endoscope scopes have realized a wide viewing angle, and it has become possible to image a wider range.
- a wide viewing angle causes distortion in the captured image.
- the matrix H converts parallelograms and trapezoids into arbitrary rectangles, linearity must be maintained.
- the linearity is not maintained due to image distortion, it is conceivable that the matrix H cannot be obtained with high accuracy.
- the panorama image generation unit corrects distortion of each frame of the moving image used for generating the panorama image as a pre-process before obtaining the matrix H.
- ⁇ ⁇ Distortion correction converts all pixel positions in image I using the following formula.
- k 1 , k 2 , k 3 , p 1 , and p 2 in the formula [2] are referred to as distortion coefficients and are values specific to the camera. Since the distortion coefficient changes depending on the enlargement ratio, a distortion coefficient corresponding to each enlargement ratio is used. The distortion correction may be performed before matching or after.
- the light source device 12 includes white light including violet light, blue light, green light, and red light, V-LED 32a, B-LED 32b, G-LED 32c, and R-LED 32d.
- the processor device 13 alternately emits light (special light) in one or a plurality of specific wavelength bands whose lighting is controlled, and the processor device 13 receives an image (normal image) under white light and under special light from the endoscope scope 11. Images (special light images) are alternately obtained.
- the panorama image generation unit (image processing unit 65) is configured to set a plurality of feature points (4) between the special light images having overlapping imaging areas based on the plurality of special light images corresponding to the plurality of normal images used for panorama synthesis. (Corresponding point of the set) is obtained, and the matrix H shown in the equation 1 is calculated.
- a panoramic image is generated, a normal image to be combined with the reference normal image is converted by the matrix H and superimposed on the reference normal image to generate a combined image (panoramic image).
- the special light image is used to obtain the parameters for panorama synthesis (matrix H shown in the equation 1).
- the special light image is an image in which the structure (blood vessel) of the subject is easy to see. This is because more feature points can be extracted than a normal image, and a highly accurate matrix H can be calculated.
- the display control unit 66 displays a normal image on the display unit 14 in the multi-frame imaging mode.
- the frame rate of the normal image is halved, it is preferable to generate an interpolated image by interpolating between the previous and next normal images so that the frame rate of the normal image is not reduced.
- the panoramic image generation unit when the multi-frame shooting mode is set, the panoramic image generation unit always uses the special light image to obtain the parameters for panorama synthesis, but the multi-frame shooting mode is set. Even if the normal image is used to determine the parameters for panorama synthesis, and if the normal image cannot detect multiple pairs of corresponding points, the special light image is used to determine the parameters for panorama synthesis. May be.
- the shooting mode setting unit selects the multi-image from the normal image shooting mode. It is preferable to switch to the frame shooting mode and calculate the parameters for panorama synthesis using the special light image.
- the display control unit 66 outputs the normal image 100 for display to the display unit 14 as shown in FIG. 7, displays the normal image 100 (moving image) on the display unit 14, and the panoramic shooting mode is set.
- the panorama image generated by the panorama image generator of the image processor 65 is input, the normal image 100 and the panorama image 200 are displayed on the display unit 14.
- the display control unit 66 displays frame information 202 indicating the same area as the current moving image (normal image 100) on the panoramic image 200 as shown in FIG.
- the display control unit 66 detects which region of the panoramic image 200 the current normal image 100 of the moving image corresponds to by template matching.
- template matching the panorama image 200 is scanned with the template image while changing the image size and rotation amount of the current normal image 100 (template image), and the template image matches a partial region of the panorama image 200.
- the display control unit 66 displays on the panoramic image 200 frame information 202 indicating the same area as the area of the current normal image 100 detected by template matching. The doctor can easily grasp which region of the panoramic image 200 is currently captured by the frame information 202 displayed on the panoramic image 200.
- the display control unit 66 clicks an arbitrary position 204 on the panoramic image 200 with the mouse (when an arbitrary position is designated), the display control unit 66 performs internal viewing of the imaging region including the arbitrary position 204.
- An arrow 102 indicating the direction in which the tip of the endoscope scope 11 for imaging with the mirror scope 11 should be moved is displayed on the current normal image 100.
- the display control unit 66 displays the arbitrary position 204 on the panoramic image 200 and the current moving image (the region of the normal image 100 indicated by the frame information 202).
- a relative position with respect to the center position and a relative angle between the panoramic image 200 and the current normal image 100 are calculated (acquired).
- the relative position between an arbitrary position 204 on the panoramic image 200 and the center position of the current moving image (normal image region) and the relative angle between the panoramic image 200 and the current normal image region are the current normal image of the moving image.
- the template matching is used to detect which region of the panoramic image 200 corresponds to, the moving position of the normal image (template image) and the rotation amount of the template image at the time of the most matching are respectively set as the relative position and the relative angle. Can be acquired.
- the display control unit 66 determines the direction in which the distal end of the endoscope scope 11 for moving the imaging region including the arbitrary position 204 to be imaged with the endoscope scope 11 should be moved based on the acquired relative position and relative angle. . That is, the direction of an arbitrary position 204 viewed from the center position (relative position) of the normal image area on the panoramic image 200 and the vertical direction of the normal image area on the panoramic image 200 (relative to the normal image with respect to the panoramic image 200). The angle formed with the vertical direction of the image sensor 45 corresponding to the angle is calculated as the direction in which the distal end of the endoscope scope 11 should move. Then, the display control unit 66 displays an arrow 102 indicating the calculated direction on the normal image 100.
- the panorama is displayed.
- the direction of an arbitrary position 204 viewed from the center position of the normal image area on the image 200 matches the direction of the arrow 102.
- the doctor moves the distal end of the endoscope scope 11 in the direction of the arrow 102 displayed on the normal image 100 when clicking on an arbitrary position, so that the imaging region including the specified arbitrary position is endoscopeed. Images can be taken with the scope 11.
- the arrow 102 is preferably deleted when an arbitrary designated position is imaged by the endoscope scope 11.
- the arrow 102 may be displayed outside the display area of the normal image 100 without being superimposed on the normal image 100.
- the display control unit 66 acquires the real-time panorama image being generated by the panorama image generation unit (image processing unit 65), and causes the display unit 14 to display the real-time panorama image being generated. Can do.
- the display control unit 66 is an arrow (third information) indicating the moving direction of the distal end of the endoscope scope 11, and displays the imaging region including the expansion region in the endoscope.
- An arrow indicating the direction in which the distal end of the endoscope scope for imaging with the scope 11 should be moved can be displayed on the normal image 100.
- the panorama image generation unit By displaying the panorama image that is being generated by the panorama image generation unit, it is possible to check an area that is not included in the panorama image that is being generated, and to acquire an image of an uncaptured area that is to be expanded.
- the direction in which the distal end of the endoscope scope 11 should move can be guided so as to be able to do so.
- the captured moving image is temporarily stored and held in the storage unit 67 functioning as a buffer memory (step S12).
- the processor control unit 61 determines whether or not the panorama shooting mode is set by the endoscope operation unit 46 or the processor operation unit 13a (step S14). If the panorama shooting mode is not set, the display control unit 66 displays a normal image on the display 14 (monitor) (step S18).
- step S16 it is determined whether or not a panoramic image is generated.
- the panorama image generation unit uses the moving image stored in step S12, the moving image captured thereafter, and the like to generate the panoramic image. Generate (step S20).
- the display control unit 66 displays the current normal image and panoramic image on the monitor (step S30).
- FIG. 11 is a flowchart showing a main flow of the panoramic image generation method when the process proceeds to step S20 shown in FIG.
- the processor control unit 61 determines whether the region designation generation mode or the time designation generation mode is set by the region designation generation mode setting unit or the time designation generation mode setting unit (step S21).
- step S22 whether or not the attention area in the normal image is designated (for example, an arbitrary position including the attention area is designated by the mouse. Whether or not).
- the panorama image generation unit extracts an image group including the attention area from the moving image stored in the memory (storage unit 67) (step S23), and the panoramic image is extracted from the extracted image group. Is generated (step S40).
- step S24 it is determined whether or not the time range of the moving image (the moving image start time and end time used for generating the panoramic image) is specified. Determine.
- the time range of the moving image is specified, an image group within the time range from the specified start time to end time is extracted from the moving image (step S25), and a panoramic image is generated from the extracted image group (step S40). .
- the start time when the start time is designated, generation of a panoramic image is started based on each frame of a moving image captured after that time, and when the end time is designated, a new frame used for panorama composition is selected.
- the generation of the panorama image may be terminated without obtaining the panorama image.
- the panorama After the image group within the time range from the start time to the end time is stored in the memory, the panorama is based on each frame of the moving image stored in the memory. An image may be generated.
- FIG. 12 is a flowchart showing a specific algorithm of the panoramic image generation method when the process proceeds to step S40 shown in FIG.
- the panorama image generation unit first sets a parameter i, where i is a parameter indicating the time-series order of normal images used to generate a panorama image and N is the total number of normal images used to generate a panorama image. Is set to 1 (step S41).
- the panoramic image generation unit extracts feature points between the two images of the normal image I i and the normal image I i + 1 (step S42), and a plurality of sets of feature points corresponding to each other in the overlapping region between the two images. (4 sets of corresponding points in this example) are determined, a matrix H of the formula [1] is obtained from the coordinates of the 4 sets of corresponding points, and all the pixels of the normal image I i + 1 to be synthesized are converted by the matrix H (projection) Conversion) to generate a composite image (panoramic image P i + 1 ) (step S43).
- FIG. 13 is a flowchart showing a display method of a normal image and a panoramic image when the process proceeds to step S30 shown in FIG.
- the display control unit 66 displays the normal image and panorama image input from the image processing unit 65 on the monitor (display device 14) (step S31).
- the current normal image and the panoramic image are subjected to template matching (step S31), and the region of the current normal image on the panoramic image and the normal relative angle to the panoramic image are detected (acquired) from the template matching result ( Step S33).
- the display control unit 66 causes the frame information 202 indicating the current normal image area on the panoramic image to be displayed on the panoramic image 200 from the template matching result (step S34, see FIG. 7).
- the display control unit 66 determines whether or not an arbitrary position on the panoramic image is designated (step S35). For example, as shown in FIG. 8, when an arbitrary position 204 on the panoramic image 200 is clicked with the mouse, it is determined that the arbitrary position 204 is designated.
- step S35 If the display control unit 66 determines in step S35 that an arbitrary position on the panoramic image has been designated (if “Yes”), the distal end of the scope for imaging the imaging area including the arbitrary position with the endoscope scope 11
- the direction to be moved is determined (step S36).
- the direction in which the scope tip should move is relative to the coordinates of an arbitrary position 204 on the panorama image 200, the coordinates of the center of the current normal image area on the panorama image 200, and the panorama image 200 acquired in step S33. It can be obtained from the relative angle of the normal image 100.
- the display control unit 66 displays an index (arrow 102) indicating the direction determined in step S36 on the normal image 100 (step S37, arrow 102 in FIGS. 8 and 9).
- FIG. 14 is a flowchart showing an embodiment of a panoramic image generation method when the process proceeds to step S20 shown in FIG. 10, and particularly shows a case where the multi-frame shooting mode is set.
- step S50 when the shooting mode setting unit switches to the multi-frame shooting mode or the multi-frame shooting mode is set (step S50), white light and special light are alternately emitted from the light source device 12, and white light is emitted.
- the lower image (normal image) and the special light image (special light image) are alternately captured (step S51).
- a panorama shooting mode for generating a panorama image is set, and it is determined whether or not the normal image and special light image captured in the multi-frame shooting mode are held in the memory for a certain period (step S52).
- the panorama image generation unit includes a normal image group and a special light image group necessary for generating the panorama image. Extract (step S53).
- the panorama image generation unit obtains a plurality of feature points (four sets of corresponding points) between special light images having overlapping imaging regions based on a plurality of special light images corresponding to a plurality of normal images used for panorama synthesis. Then, a parameter for generating a panoramic image (matrix H shown in [Expression 1]) is calculated.
- a normal image to be combined with the reference normal image is projectively transformed by the matrix H, and superimposed on the reference normal image to generate a combined image (panoramic image) (step S55). ).
- FIG. 15 is a flowchart illustrating a method of generating a panoramic image by switching between the normal image shooting mode and the multi-frame shooting mode.
- the panoramic image generation unit extracts a normal image group used for generating a panoramic image from the moving image stored in the memory (step S60).
- a normal image group is extracted from a normal image moving image out of a normal image moving image and a special light image moving image.
- the normal image group can be extracted based on the region designation generation mode or the time designation generation mode.
- the panoramic image generation unit extracts feature points between two normal images having an overlapping area in the normal image group (step S61). Subsequently, it is determined whether or not a plurality of sets of feature points (four sets of corresponding points) between normal images with overlapping imaging regions have been extracted (detected) (step S62).
- a panoramic image is generated using the normal image group as shown in FIGS. 11 and 12 (step S63).
- the normal image capturing mode is switched to the multi-frame capturing mode (step S64), and then extracted from the moving image captured in the multi-frame capturing mode.
- a panoramic image is generated as shown in FIG. 14 (step S65).
- FIG. 16 and FIG. 17 show other display examples of the second information that supports the operation in the moving direction of the distal end of the endoscope scope for imaging an imaging region including an arbitrary position with the endoscope scope.
- FIG. 16 and FIG. 17 show other display examples of the second information that supports the operation in the moving direction of the distal end of the endoscope scope for imaging an imaging region including an arbitrary position with the endoscope scope.
- FIGS. 16 and 17 when the user captures an arbitrary position 204 on the panoramic image 200, the arbitrary position 204 is specified without specifying the arbitrary position 204 with a mouse or the like.
- the imaging scope including the imaging scope 11 is imaged by the endoscope scope 11, information that allows the user to recognize the direction in which the tip of the endoscope scope 11 should move (supports recognition) is displayed.
- FIG. 16 the normal image 100 and the panoramic image 200 that are the same as the normal image 100 and the panoramic image 200 shown in FIG. 8 are displayed.
- an arrow 102 indicating a direction in which the distal end of the endoscope scope 11 for imaging an imaging region including an arbitrary position 204 to be imaged by the endoscope scope 11 is indicated on the normal image 100 that is the current moving image.
- information indicating the relative angle of the area of the normal image 100 on the panoramic image 200 with respect to the panoramic image 200 and information indicating the top and bottom direction of the current moving image with respect to the panoramic image 200 (present book) is displayed.
- an arrow 210) is displayed.
- the vertical direction of the normal image area on the panorama image 200 (the vertical direction of the image sensor 45 corresponding to the relative angle of the normal image with respect to the panorama image 200) is detected (acquired) by template matching between the current normal image and the panorama image. can do.
- the current moving image is not rotated with respect to the reference image when the panoramic image 200 is generated (the tip of the endoscope scope 11 has been rotated since the reference image was captured). Therefore, the normal image 100 displayed on the display device 14 and the area corresponding to the normal image 100 in the panoramic image 200 (area in the frame information 202) are similar and face the same direction. .
- the display control unit 66 displays an arrow 210 indicating the vertical direction of the area corresponding to the normal image 100 in the panoramic image 200 on the panoramic image 200 (in the vicinity of the frame information 202).
- the direction of the arrow 210 can be determined by the relative angle between the panoramic image 200 and the current normal image 100.
- the moving direction of the endoscope scope 11 is as follows. From the arbitrary position 204 with respect to the direction of the arrow 210, it can be seen that it is the upper right direction of the scope tip. This coincides with the operation direction guided by the arrow 102 displayed on the normal image 100 shown in FIG.
- FIG. 17 corresponding to FIG. 9 the current normal image 100 is rotated 135 degrees in the clockwise direction with respect to the panoramic image 200.
- the first information indicating the shooting position of the current moving image on the panoramic image is displayed as frame information surrounding the current moving image region (region on the panoramic image).
- the present invention is not limited to this. Instead, any information may be used as long as it is information for recognizing the current moving image area on the panoramic image.
- the arrow is displayed as the second information for supporting the operation in the moving direction of the distal end of the endoscope scope.
- any index may be used as long as the direction can be visually recognized.
- the image to be synthesized when a panoramic image is generated, the image to be synthesized is projectively transformed with respect to the reference image, and the image is synthesized.
- the present invention is not limited to projective transformation, but affine transformation and other geometric transformations.
- the image may be synthesized by performing the above.
- the hardware structure of the processor device 13 having a function of generating a panoramic image from a time-series normal image according to the invention and a function of displaying the normal image and the panoramic image on the display unit 14 includes various types as shown below.
- Processor For various processors, the circuit configuration can be changed after manufacturing a CPU (Central Processing Unit) or FPGA (Field Programmable Gate Array), which is a general-purpose processor that functions as various control units by executing software (programs). Includes dedicated logic circuits such as programmable logic devices (Programmable Logic Devices: PLDs) and ASICs (Application Specific Specific Integrated Circuits) that have specially designed circuit configurations to execute specific processing. It is.
- PLDs programmable logic devices
- ASICs Application Specific Specific Integrated Circuits
- One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of CPUs and FPGAs). May be. Moreover, you may comprise a some control part with one processor. As an example of configuring a plurality of control units with one processor, first, as represented by a computer such as a client or a server, one processor is configured with a combination of one or more CPUs and software. There is a form in which the processor functions as a plurality of control units.
- SoC system-on-chip
- a form of using a processor that realizes the functions of the entire system including a plurality of control units with a single IC (integrated circuit) chip. is there.
- various control units are configured by using one or more of the various processors as a hardware structure.
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Astronomy & Astrophysics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
現在の撮像している動画よりも広い領域を確認することができ、かつ広い領域内の所望の領域の動画を撮像する際の内視鏡スコープの操作を支援することができる内視鏡装置、内視鏡プロセッサ装置及び内視鏡画像表示方法を提供する。表示制御部は、内視鏡スコープにより撮像される動画の現在の通常画像(100)、動画に基づいて生成したパノラマ画像(200)を表示器(14)に表示させる。また、表示制御部は、パノラマ画像(200)上に現在の通常画像(100)の撮像領域を示す枠情報(202)を表示させる。更に表示制御部は、パノラマ画像(200)上の任意の位置(204)が指定された場合に、任意の位置(204)を含む撮像領域を内視鏡スコープで撮像する際の、内視鏡スコープの先端の移動方向を示す矢印(102)を、通常画像(100)上に表示させる。
Description
本発明は内視鏡装置、内視鏡プロセッサ装置及び内視鏡画像表示方法に係り、特に内視鏡スコープの先端の操作を支援する技術に関する。
近年、内視鏡スコープにより撮像された画像(動画)をモニタに表示し、精密な内視鏡検査を行う場合、拡大観察による詳細な観察が求められるケースが増しつつある。
拡大観察を行う際には、拡大観察をしている局所が、その周囲を含む広範囲領域のどこに位置しているかを見失いがちであり、全体感が欠如することが多い。
特に領域性をもつ疾患でありながら、ステージの判断には拡大観察が必要である場合には、拡大観察により下したステージ判断が、その周囲のどこまでの範囲において有効であるかの判断が難しい。
従来、広視野化のために、複数の画像からパノラマ画像を作成する画像処理装置が提案されている(特許文献1、2)。特許文献1には、内視鏡により得られる連続的な時系列画像群(X0~Xn)の連結により、拡大された視野を持つ画像を得ることができる記載がある。
特許文献1に記載の発明は、原画像の欠陥(例えば、ハレーション部等)を除去した新たな画像を構成することを特徴とするものであり、時系列の画像間で、少なくとも1つの画像の一部(欠陥部分)を他の画像の一部(欠陥のない同一部分の画像)を用いて埋め合わせる等の画像合成により、ハレーション部等の異常データを除去した画像を生成している。
一方、特許文献2には、ネットワークカメラで撮影可能な全撮影範囲画像に対応するパノラマ画像を作成し、ネットワークカメラが現在どの領域を撮像しているかを示す表示枠をパノラマ画像に表示する技術が記載されている。
特許文献1に記載の発明は、広視野を持つパノラマ画像を生成することを目的としておらず、複数の画像間で画像合成を行いつつ、一の画像の欠陥箇所は欠陥のない他の画像の同一個所の画像を用いて埋め合わせを行い、このときの複数の画像間の画像合成により、結果的に広い視野をもつ画像が同時に生成されているに過ぎない。したがって、パノラマ画像上に、現在撮像されている動画の撮像領域を示す枠情報等を表示しておらず、パノラマ画像は、内視鏡スコープの先端の操作を支援するものにはなっていない。
一方、特許文献2に記載の発明は、パノラマ画像を用いてカメラの現在の撮影画角よりも広い領域をユーザに確認させることができ、かつパノラマ画像内に表示される現在の撮影画角を示す表示枠により、カメラをどの方向に移動させると、どのような画像が撮像されるかが分かるため、ユーザのカメラ操作を支援することができる。
しかしながら、特許文献2に記載の発明の制御対象はネットワークであり、内視鏡スコープ(スコープ先端のカメラ)ではない。
ネットワークを含む通常のカメラによる撮像は、カメラを略水平に構えて行われるため、撮像された画像から生成されるパノラマ画像とカメラの現在の撮影画像との天地方向も略一致している。
したがって、カメラを左右方向に移動(パンニング)させ、又は上下方向に移動(チルティング)させると、撮影範囲を示す表示枠もパノラマ画像上で左右方向又は上下方向に移動し、カメラの移動方向と表示枠の移動方向とが一致する。
これに対し、内視鏡スコープのスコープ先端は、全方向に移動する(曲げられる)とともに回転(ローリング)するため、内視鏡スコープにより撮像されている現在の画像の天地方向(撮像素子の天地方向)と、内視鏡スコープにより撮像された画像から生成されるパノラマ画像の天地方向とは一致しない場合が多い。
したがって、特許文献1に記載の発明によれば、ユーザは、内視鏡スコープにより現在撮像されている画像よりも広い領域をパノラマ画像により確認することができるものの、パノラマ画像の任意の位置を含む領域を撮像する際に、内視鏡スコープの先端をどのように移動させればよいかが分からないという問題がある。
また、仮に特許文献1に記載の発明に特許文献2に記載の技術を組み合わせ、パノラマ画像上に撮影範囲を示す表示枠を表示させても、その表示枠からは、所望の領域を撮像するために内視鏡スコープの先端をどのように移動させればよいかは分からない。
本発明はこのような事情に鑑みてなされたもので、現在の撮像している動画よりも広い領域を確認することができ、かつ広い領域内の所望の領域の動画を撮像する際の内視鏡スコープの操作を支援することができる内視鏡装置、内視鏡プロセッサ装置及び内視鏡画像表示方法を提供することを目的とする。
上記目的を達成するために本発明の一の態様に係る内視鏡装置は、内視鏡スコープにより撮像される動画に基づいてパノラマ画像を生成するパノラマ画像生成部と、内視鏡スコープにより撮像される動画及び生成されたパノラマ画像を表示器に表示させる表示制御部と、を備え、表示制御部は、表示器に表示されたパノラマ画像上に、表示器に表示された現在の動画の撮影位置を示す第1の情報を表示させ、かつパノラマ画像上の任意の位置に対して、任意の位置を含む撮像領域を内視鏡スコープで撮像するための内視鏡スコープの先端の移動方向の操作を支援する第2の情報を表示させる。
本発明の一の態様によれば、内視鏡スコープにより撮像される動画に基づいて生成したパノラマ画像を表示器に表示させるようにしたため、ユーザは、現在の撮像している動画よりも広い領域をパノラマ画像により確認することができる。また、ユーザは、パノラマ画像上に表示された第1の情報によりパノラマ画像における現在の動画の撮影位置を確認することができ、更に第2の情報によりパノラマ画像上の任意の位置を含む撮像領域を内視鏡スコープで撮像する際に、内視鏡スコープの先端をどの方向に移動させればよいかが分かり、内視鏡スコープの操作を支援することができる。
本発明の他の態様に係るにおいて、表示制御部は、動画の各フレームが、パノラマ画像のどの領域に対応するかをテンプレートマッチングにより検出し、テンプレートマッチングにより検出した領域を示す枠情報を第1の情報として、パノラマ画像上に表示させることが好ましい。
本発明の更に他の態様に係る内視鏡装置において、表示器に表示されたパノラマ画像上で任意の位置を指定する第1の指示部を備え、表示制御部は、第1の指示部によりパノラマ画像上で任意の位置が指定されると、表示器に表示された現在の動画上に、内視鏡スコープの先端の移動方向を示す第2の情報を表示させることが好ましい。ユーザは、内視鏡スコープの先端の移動方向を示す第2の情報を見ながら、内視鏡スコープの先端の移動方向を操作することで、任意の位置を含む領域を撮像することができる。
本発明の更に他の態様に係る内視鏡装置において、表示制御部は、第1の指示部によりパノラマ画像上で任意の位置が指定されると、パノラマ画像上の任意の位置と現在の動画の中心位置との相対位置、及びパノラマ画像と現在の動画との相対角度を算出し、算出した相対位置及び相対角度に基づいて任意の位置を含む撮像領域を内視鏡スコープで撮像するための内視鏡スコープの先端の移動すべき方向を決定し、決定した方向を示す指標を第2の情報として表示器に表示された現在の動画上に表示させることが好ましい。
パノラマ画像上の任意の位置と現在の動画の中心位置との相対位置、及びパノラマ画像と現在の動画との相対角度は、例えば、動画の各フレームがパノラマ画像のどの領域に対応するかを検出するテンプレートマッチング時のテンプレート(動画のフレーム)のパノラマ画像に対する移動位置及び回転量により求めることができる。算出した相対位置及び相対角度によりパノラマ画像に対する内視鏡スコープの先端の姿勢等の撮像状態が分かるため、任意の位置を含む撮像領域を内視鏡スコープで撮像するための内視鏡スコープの先端の移動すべき方向を決定することができる。この移動すべき方向を示す指標(例えば、矢印)を現在の動画上に表示させ、ユーザは指標が示す方向に内視鏡スコープの先端を移動させることで、内視鏡スコープにより任意の位置を含む撮像領域を撮像することができる。
本発明の更に他の態様に係る内視鏡装置において、表示制御部は、パノラマ画像と現在の動画との相対角度を算出し、表示器に表示されたパノラマ画像上に、算出した相対角度に基づいてパノラマ画像に対する現在の動画の天地方向を示す情報を第2の情報として表示させることが好ましい。パノラマ画像に対する現在の動画の撮像位置に加えて、第2の情報により天地方向が分かれば、ユーザは、パノラマ画像内の任意の位置を撮像する際の内視鏡スコープの先端の移動すべき方向を容易に把握することができる。
本発明の更に他の態様に係る内視鏡装置において、動画の注目領域を指定する領域指定生成モードを設定する領域指定生成モード設定部を備え、パノラマ画像生成部は、領域指定生成モードが設定されると、動画を構成するフレームのうちの領域指定生成モードで指定された注目領域が含まれる複数フレームに基づいてパノラマ画像を生成することが好ましい。これにより、注目領域が撮像されている動画中のフレームからパノラマ画像を生成することができ、全体感をもって局所(動画の注目領域)を拡大観察する際に、好適なパノラマ画像を生成することができる。
本発明の更に他の態様に係る内視鏡装置において、動画の時間範囲を指示する時間指定生成モードを設定する時間指定生成モード設定部を備え、パノラマ画像生成部は、時間指定生成モードが設定されると、動画を構成するフレームのうちの時間指定生成モードで指定された時間範囲内の複数フレームに基づいてパノラマ画像を生成することが好ましい。これにより、指定した時間範囲内の動画からパノラマ画像を生成することができ、ユーザが開始時刻及び終了時刻を指定することで、開始時刻から終了時刻までの間にパノラマ画像の生成に適した動画を撮像することができる。
本発明の更に他の態様に係る内視鏡装置において、表示制御部は、パノラマ画像生成部により生成された生成後のパノラマ画像、及びパノラマ画像生成部により生成途中のパノラマ画像を表示器に表示させることが好ましい。パノラマ画像生成部により生成途中のパノラマ画像も表示することで、生成途中のパノラマ画像に含まれない領域を確認することができる。
本発明の更に他の態様に係る内視鏡装置において、表示器に表示された生成途中のパノラマ画像上で、生成途中のパノラマ画像を拡張させる未撮像の拡張領域を指定する第2の指示部を備え、表示制御部は、第2の指示部により拡張領域が指定されると、内視鏡スコープの先端の移動方向を示す第3の情報であって、拡張領域を含む撮像領域を内視鏡スコープで撮像するための内視鏡スコープの先端の移動すべき方向を示す第3の情報を、表示器に表示された現在の動画上に表示させることが好ましい。
パノラマ画像生成部により生成途中のパノラマ画像も表示することで、生成途中のパノラマ画像に含まれない領域を確認することができ、また、ユーザがパノラマ画像に含まれない領域(未撮像の拡張領域)を指定することで、未撮像の拡張領域を撮像するための内視鏡スコープの移動方向を誘導する第3の情報を取得することができ、これによりパノラマ画像に所望の領域が含まれるようにパノラマ画像を拡張することができる。
本発明の更に他の態様に係る内視鏡装置において、白色光に対応する通常画像を取得する通常画像撮影モード、又は白色光に対応する通常画像と特殊光に対応する特殊光画像とを交互に取得するマルチフレーム撮影モードを切り替える撮影モード設定部を備え、パノラマ画像生成部は、マルチフレーム撮影モードに切り替えられると、マルチフレーム撮影モードにより撮像された複数の特殊光画像から撮像領域が重複する特殊光画像間の複数組の特徴点を抽出し、抽出した複数組の特徴点に基づいて複数の特殊光画像と同領域を撮像した複数の通常画像間の調整を行ってパノラマ画像を生成することが好ましい。
白色光に対応する通常画像よりも特殊光画像の方が特徴点を精度よく抽出できる場合が多いため、複数の特殊光画像から撮像領域が重複する特殊光画像間の複数組の特徴点を抽出する。これらの複数組の特徴点に基づいてパノラマ合成用の情報(例えば、射影変換の変換係数)を求め、パノラマ合成用の情報を、特殊光画像と同領域を撮像した通常画像に適用してパノラマ画像を生成する。尚、動画の表示は、時系列の通常画像により行われるが、パノラマ画像生成時にマルチフレーム撮影モードにより通常画像と特殊光画像とを交互に取得することで、パノラマ画像の作成中も通常画像による動画を表示することができるようにしている。
本発明の更に他の態様に係る内視鏡装置において、パノラマ画像生成部は、通常画像撮影モードに切り替えられると、通常画像撮影モードにより撮像された複数の通常画像から撮像領域が重複する通常画像間の複数組の特徴点を抽出し、抽出した複数組の特徴点に基づいて複数の通常画像間の調整を行ってパノラマ画像を生成し、通常画像間の複数組の特徴点の抽出ができない場合に、撮影モード設定部はマルチフレーム撮影モードに切り替えることが好ましい。通常画像間の複数組の特徴点に基づいて複数の通常画像間の調整を行ってパノラマ画像を生成するが、通常画像間の複数組の特徴点の抽出ができない場合にはマルチフレーム撮影モードに切り替え、上記と同様に特殊光画像を利用してパノラマ画像の生成を可能にしている。
本発明の更に他の態様に係る内視鏡装置において、パノラマ画像を生成するパノラマ撮影モードに設定するパノラマ撮影モード設定部を備え、パノラマ画像生成部は、パノラマ撮影モードが設定されると、パノラマ撮影モードが設定された時点を基準にして、パノラマ撮影モードの設定時点の以後に内視鏡スコープにより撮像される動画、パノラマ撮影モードの設定時点の以前に内視鏡スコープにより撮像される動画、又はパノラマ撮影モードの設定時点の前後に内視鏡スコープにより撮像される動画に基づいてパノラマ画像を生成することが好ましい。即ち、パノラマ撮影モードが設定された時点を基準にして取得した動画に基づいてパノラマ画像を生成する。
本発明の更に他の態様に係る内視鏡装置において、パノラマ画像生成部は、パノラマ画像の生成に使用する動画の各フレームの歪みを補正する歪み補正を行い、歪み補正した各フレームに基づいてパノラマ画像を生成することが好ましい。内視鏡画像は、一般に広角画像であるため、歪曲収差等の収差が大きい。そこで、パノラマ画像を生成する前に、パノラマ画像の生成に使用する動画の各フレームの歪みを補正し、これによりパノラマ画像を良好に生成できるようにしている。
本発明の更に他の態様に係る内視鏡画像表示方法は、パノラマ画像生成部が、内視鏡スコープにより撮像される動画に基づいてパノラマ画像を生成するステップと、表示制御部が、内視鏡スコープにより撮像される動画及び生成されたパノラマ画像を表示器に表示させるステップと、表示制御部が、表示器に表示されたパノラマ画像上に、表示器に表示された現在の動画の撮影位置を示す第1の情報を表示させるステップと、表示制御部が、パノラマ画像上の任意の位置に対して、任意の位置を含む撮像領域を内視鏡スコープで撮像するための内視鏡スコープの先端の移動方向の操作を支援する第2の情報を表示させるステップと、を含む。
本発明の更に他の態様に係る内視鏡画像表示方法において、第1の情報を表示させるステップは、動画の各フレームが、パノラマ画像のどの領域に対応するかをテンプレートマッチングにより検出し、テンプレートマッチングにより検出した領域を示す枠情報を第1の情報として、パノラマ画像上に表示させることが好ましい。
本発明の更に他の態様に係る内視鏡画像表示方法において、第1の指示部により表示器に表示されたパノラマ画像上で任意の位置を指定するステップを含み、第2の情報を表示させるステップは、第1の指示部によりパノラマ画像上で任意の位置が指定されると、表示器に表示された現在の動画上に、内視鏡スコープの先端の移動方向を示す第2の情報を表示させることが好ましい。
本発明の更に他の態様に係る内視鏡画像表示方法において、第2の情報を表示させるステップは、第1の指示部によりパノラマ画像上で任意の位置が指定されると、パノラマ画像上の任意の位置と現在の動画の中心位置との相対位置、及びパノラマ画像と現在の動画との相対角度を算出し、算出した相対位置及び相対角度に基づいて任意の位置を含む撮像領域を内視鏡スコープで撮像するための内視鏡スコープの先端の移動すべき方向を決定し、決定した方向を示す指標を第2の情報として表示器に表示された現在の動画上に表示させることが好ましい。
本発明の更に他の態様に係る内視鏡画像表示方法において、第1の情報を表示させるステップは、パノラマ画像と現在の動画との相対角度を算出し、表示器に表示されたパノラマ画像上に、算出した相対角度に基づいてパノラマ画像に対する現在の動画の天地方向を示す情報を第2の情報として表示させることが好ましい。
本発明の更に他の態様に係る内視鏡プロセッサ装置は、内視鏡スコープにより撮像される動画に基づいてパノラマ画像を生成するパノラマ画像生成部と、内視鏡スコープにより撮像される動画及び生成されたパノラマ画像を表示器に表示させる表示制御部と、を備え、表示制御部は、表示器に表示されたパノラマ画像上に、表示器に表示された現在の動画の撮影位置を示す第1の情報を表示させ、かつパノラマ画像上の任意の位置に対して、任意の位置を含む撮像領域を内視鏡スコープで撮像するための内視鏡スコープの先端の移動方向の操作を支援する第2の情報を表示させる。
本発明によれば、内視鏡スコープにより撮像される動画に基づいて生成したパノラマ画像により現在の撮像している動画よりも広い領域を確認することができ、特にパノラマ画像上に表示された第1の情報によりパノラマ画像における現在の動画の撮影位置を確認することができ、更に第2の情報によりパノラマ画像上の任意の位置を含む撮像領域を内視鏡スコープで撮像する際に、内視鏡スコープの先端をどの方向に移動させればよいかが分かり、内視鏡スコープの操作性を向上させることができる。
以下、添付図面に従って本発明に係る内視鏡装置、内視鏡プロセッサ装置及び内視鏡画像表示方法の好ましい実施形態について説明する。
[内視鏡装置の全体構成]
図1は本発明に係る内視鏡装置10の外観斜視図である。
図1は本発明に係る内視鏡装置10の外観斜視図である。
図1に示すように内視鏡装置10は、大別して、被検体内の観察対象を撮像する内視鏡スコープ(ここでは軟性内視鏡)11と、光源装置12と、プロセッサ装置(内視鏡プロセッサ装置)13と、液晶モニタ等の表示器14と、を備えている。
光源装置12は、通常画像の撮像用の白色光、特殊光画像の撮像用の特定の波長帯域の光等の各種の照明光を内視鏡スコープ11へ供給する。
プロセッサ装置13は、内視鏡スコープ11により得られた画像信号に基づいて表示用又は記録用の通常画像及び/又は特殊光画像の画像データを生成する機能、光源装置12を制御する機能の他に、本発明に係る時系列の通常画像からパノラマ画像を生成する機能、通常画像とパノラマ画像とを表示器14に表示させる機能等を有する。ここで、本例のパノラマ画像とは、2以上の通常画像から生成される通常画像よりも観察対象の広い範囲を含めた画像である。
表示器14は、プロセッサ装置13から入力される表示用の画像データに基づき通常画像又は特殊光画像の他、通常画像とパノラマ画像とを表示する。
内視鏡スコープ11は、被検体内に挿入される可撓性の挿入部16と、挿入部16の基端部に連設され、内視鏡スコープ11の把持及び挿入部16の操作に用いられる手元操作部17と、手元操作部17を光源装置12及びプロセッサ装置13に接続するユニバーサルコード18と、を備えている。
挿入部16の先端部である挿入部先端部16a(内視鏡スコープの先端)には、照明レンズ42、対物レンズ44、撮像素子45などが内蔵されている(図2参照)。挿入部先端部16aの後端には、湾曲自在な湾曲部16bが連設されている。また、湾曲部16bの後端には、可撓性を有する可撓管部16cが連設されている。
手元操作部17には、アングルノブ21、操作ボタン22、及び鉗子入口23などが設けられている。アングルノブ21は、湾曲部16bの湾曲方向及び湾曲量を調整する際に回転操作される。操作ボタン22は、送気・送水や吸引等の各種の操作に用いられる。鉗子入口23は、挿入部16内の鉗子チャネルに連通している。また、手元操作部17には、各種の設定を行う内視鏡操作部46(図2参照)等が設けられている。
ユニバーサルコード18には、送気・送水チャンネル、信号ケーブル、及びライトガイドなどが組み込まれている。ユニバーサルコード18の先端部には、光源装置12に接続されるコネクタ部25aと、プロセッサ装置13に接続されるコネクタ部25bとが設けられている。これにより、コネクタ部25aを介して光源装置12から内視鏡スコープ11に照明光が供給され、コネクタ部25bを介して内視鏡スコープ11により得られた画像信号がプロセッサ装置13に入力される。
尚、光源装置12には、電源ボタン、光源を点灯させる点灯ボタン、及び明るさ調節ボタン等の光源操作部12aが設けられ、また、プロセッサ装置13には、電源ボタン、図示しないマウス等のポインティングデバイスからの入力を受け付ける入力部を含むプロセッサ操作部13aが設けられている。
[内視鏡装置の電気的構成]
図2は内視鏡装置10の電気的構成を示すブロック図である。
図2は内視鏡装置10の電気的構成を示すブロック図である。
図2に示すように内視鏡スコープ11は、大別して、ライトガイド40と、照明レンズ42と、対物レンズ44と、撮像素子45と、内視鏡操作部46と、内視鏡制御部47と、ROM(Read Only Memory)48とを有している。
ライトガイド40は、大口径光ファイバ、バンドルファイバなどが用いられる。ライトガイド40は、その入射端がコネクタ部25aを介して光源装置12に挿入されており、その出射端が挿入部16を通って挿入部先端部16a内に設けられた照明レンズ42に対向している。光源装置12からライトガイド40に供給された照明光は、照明レンズ42を通して観察対象に照射される。そして、観察対象で反射及び/又は散乱した照明光は、対物レンズ44に入射する。
対物レンズ44は、入射した照明光の反射光又は散乱光(即ち、観察対象の光学像)を撮像素子45の撮像面に結像させる。
撮像素子45は、CMOS(complementary metal oxide semiconductor)型又はCCD(charge coupled device)型の撮像素子であり、対物レンズ44よりも奥側の位置で対物レンズ44に相対的に位置決め固定されている。撮像素子45の撮像面には、光学像を光電変換する複数の光電変換素子(フォトダイオード)により構成される複数の画素が2次元配列されている。また、本例の撮像素子45の複数の画素の入射面側には、画素毎に赤(R)、緑(G)、青(B)のカラーフィルタが配置され、これによりR画素、G画素、B画素が構成されている。尚、RGBのカラーフィルタのフィルタ配列は、ベイヤ配列が一般的であるが、これに限らない。
撮像素子45は、対物レンズ44により結像される光学像を電気的な画像信号に変換してプロセッサ装置13に出力する。
尚、撮像素子45がCMOS型である場合には、A/D(Analog/Digital)変換器が内蔵されており、撮像素子45からプロセッサ装置13に対してデジタルの画像信号が直接出力される。また、撮像素子45がCCD型である場合には、撮像素子45から出力される画像信号は図示しないA/D変換器等でデジタルな画像信号に変換された後、プロセッサ装置13に出力される。
内視鏡操作部46は、図示しない静止画撮像ボタン、通常画像撮影モード、特殊光画像撮影モード、マルチフレーム撮影モード、又はパノラマ撮影モードを設定する撮影モード設定部、又はパノラマ撮影モード等を切替え設定するパノラマ撮影モード設定部、領域指定生成モード設定部、及び時間指定生成モード設定部等を有している。尚、撮影モード設定部、領域指定生成モード設定部、及び時間指定生成モード設定部は、プロセッサ装置13のプロセッサ操作部13aに設けられていてもよい。
内視鏡制御部47は、内視鏡操作部46での操作に応じてROM48等から読み出した各種プログラムやデータを逐次実行し、主として撮像素子45の駆動を制御する。例えば、通常画像撮影モードの場合、内視鏡制御部47は、撮像素子45のR画素、G画素及びB画素の信号を読み出すように撮像素子45を制御し、特殊光画像撮影モード又はマルチフレーム撮影モードであって、特殊光画像を取得するために照明光としてV-LED32aから紫色光が発光される場合、又はB-LED32bから青色光が発光される場合には、これらの紫色光、青色光の波長帯域に分光感度を有する撮像素子45のB画素の信号のみを読み出すように撮像素子45を制御する。
また、内視鏡制御部47は、プロセッサ装置13のプロセッサ制御部61との間で通信を行い、内視鏡操作部46での操作情報及びROM48に記憶されている内視鏡スコープ11の種類を識別するための識別情報等をプロセッサ装置13に送信する。
光源装置12は、光源制御部31及び光源ユニット32を有している。光源制御部31は、光源ユニット32の制御と、プロセッサ装置13のプロセッサ制御部61との間で通信を行い、各種情報の遣り取りを行う。
光源ユニット32は、例えば複数の半導体光源を有している。本実施形態では、光源ユニット32は、V-LED(Violet Light Emitting Diode)32a、B-LED(Blue Light Emitting Diode)32b、G-LED(Green Light Emitting Diode)32c、及びR-LED(Red Light Emitting Diode)32dの4色のLEDを有する。V-LED32aは、中心波長405nmで、波長帯域380~420nmの紫色光を発光する紫色光源である。B-LED32bは、中心波長460nm、波長帯域420~500nmの青色光を発する青色半導体光源である。G-LED32cは、波長帯域が480~600nmに及ぶ緑色光を発する緑色半導体光源である。R-LED32dは、中心波長620~630nmで、波長帯域が600~650nmの赤色光を発光する赤色半導体光源である。尚、V-LED32aとB-LED32bの中心波長は±5nmから±10nm程度の幅を有する。
これらの各LED32a~32dの点灯や消灯、点灯時の発光量等は、光源制御部31が各々に独立した制御信号を入力するによって各々に制御することができる。通常画像撮影モードの場合、光源制御部31は、V-LED32a、B-LED32b、G-LED32c、及びR-LED32dを全て点灯させる。このため、通常画像撮影モードでは、紫色光、青色光、緑色光、及び赤色光を含む白色光が照明光として用いられる。
一方、特殊観察モードの場合、光源制御部31は、V-LED32a、B-LED32b、G-LED32c、及びR-LED32dのうちのいずれか1つの光源、又は適宜組み合わせた複数の光源を点灯させ、又は複数の光源を点灯させる場合、各光源の発光量(光量比)を制御し、これにより被検体の深度の異なる複数の層の画像の撮像を可能にする。
各LED32a~32dが発する各色の光は、ミラーやレンズ等で形成される光路結合部、及び絞り機構(図示せず)を介して内視鏡スコープ11内に挿通されたライトガイド40に入射される。
尚、光源装置12の照明光は、白色光(白色の波長帯域の光又は複数の波長帯域の光)、或いは1又は複数の特定の波長帯域の光(特殊光)、或いはこれらの組み合わせなど観察目的に応じた各種波長帯域の光が選択される。特殊光の特定の波長帯域は、白色の波長帯域よりも狭い帯域である。
特定の波長帯域の第1例は、例えば可視域の青色帯域又は緑色帯域である。この第1例の波長帯域は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域を含み、且つ第1例の光は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域内にピーク波長を有する。
特定の波長帯域の第2例は、例えば可視域の赤色帯域である。この第2例の波長帯域は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域を含み、且つ第2例の光は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域内にピーク波長を有する。
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域を含み、且つ第3例の光は、上記400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域にピーク波長を有する。
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察(蛍光観察)に用いられ且つこの蛍光物質を励起させる励起光の波長帯域(390nmから470nm)である。
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域を含み、且つ第5例の光は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域にピーク波長を有する。
プロセッサ装置13は、プロセッサ操作部13a、プロセッサ制御部61、ROM62、デジタル信号処理回路(DSP:Digital Signal Processor)63、画像処理部65、表示制御部66、及び記憶部67等を有している。
プロセッサ操作部13aは、電源ボタン、マウスにより表示器14上で指示される座標位置及びクリック(実行指示)等の入力を受け付ける入力部等を含む。
プロセッサ制御部61は、プロセッサ操作部13aでの操作情報、及び内視鏡制御部47を介して受信した内視鏡操作部46での操作情報に応じてROM62から必要なプログラムやデータを読み出して逐次処理することで、プロセッサ装置13の各部を制御するとともに、光源装置12を制御する。尚、プロセッサ制御部61は、図示しないインターフェースを介して接続されたキーボード等の他の外部機器から必要な指示入力を受け付けるようにしてもよい。
内視鏡スコープ11(撮像素子45)から出力される動画の各フレームの画像データを取得する画像取得部の一形態として機能するDSP63は、プロセッサ制御部61の制御の下、内視鏡スコープ11から入力される動画の1フレーム分の画像データに対し、欠陥補正処理、オフセット処理、ホワイトバランス補正、ガンマ補正、及びデモザイク処理等の各種の信号処理を行い、1フレーム分の画像データを生成する。
パノラマ画像生成部としての機能を有する画像処理部65は、DSP63から画像データを入力し、入力した画像データに対して、必要に応じて色変換処理、色彩強調処理、及び構造強調処理等の画像処理を施し、観察対象が写った内視鏡画像を示す画像データを生成する。色変換処理は、画像データに対して3×3のマトリックス処理、階調変換処理、及び3次元ルックアップテーブル処理などにより色の変換を行う処理である。色彩強調処理は、色変換処理済みの画像データに対して、例えば血管と粘膜との色味に差をつける方向に色彩を強調する処理である。構造強調処理は、例えば血管やピットパターン等の観察対象に含まれる特定の組織や構造を強調する処理であり、色彩強調処理後の画像データに対して行う。
画像処理部65により処理された動画の各フレームの画像データは、静止画又は動画の撮影指示があると、撮影指示された静止画又は動画として記憶部67に記録される。また、本例では、パノラマ画像の生成に使用する動画の各フレームの画像データも記憶部67に記録される。パノラマ画像生成用の動画は、パノラマ撮影モードが設定された時点を基準にして、パノラマ撮影モードの設定時点の以後に内視鏡スコープ11により撮像される動画、パノラマ撮影モードの設定時点の以前に内視鏡スコープ11により撮像される動画、又はパノラマ撮影モードの設定時点の前後に内視鏡スコープ11により撮像される動画であり、この動画は、所望のパノラマ画像の生成に必要なフレームを含む一定の撮影期間の動画とすることができ、逐次更新することが可能である。また、パノラマ画像生成用に保存された動画は、パノラマ画像生成が生成されると削除してもよい。
尚、画像処理部65は、内視鏡スコープ11により撮像される動画に基づいてパノラマ画像を生成するパノラマ画像生成部としての機能を有するが、パノラマ画像生成部として機能する場合の画像処理の詳細については後述する。
表示制御部66は、入力する画像データから通常画像、特殊光画像、パノラマ画像を表示器14に表示させるための表示用データを生成し、生成した表示用データを表示器14に出力し、表示器14に表示用画像を表示させる。
表示制御部66は、図3に示すように動画の各フレーム90をマスク画像92に基づいてマスク処理を行い、動画の表示用の通常画像100を生成する。マスク画像92は、通常画像100と同一サイズの矩形画像であり、表示エリア(本例では円形のエリア)を露呈する非マスク部とマスク部(黒部)とを有している。尚、マスク処理は、矩形のフレームから円形の表示用画像を生成する場合に限らず、矩形のフレームの四隅をマスキングした八角形の表示用画像を生成したり、矩形のフレームの左右の両端を円弧状にマスキングした樽型の表示用画像に生成する場合等が考えられる。
表示制御部66は、表示用の通常画像100を表示器14に出力し、表示器14に通常画像100(動画)を表示させ、パノラマ撮影モード設定部によりパノラマ撮影モードが設定され、画像処理部65のパノラマ画像生成部により生成されたパノラマ画像を入力すると、通常画像100とパノラマ画像200(図7参照)とを表示器14に表示させる。
また、表示制御部66は、図7に示すようにパノラマ画像200上に、現在の動画(通常画像100)の撮影位置を示す第1の情報(本例では、円形の通常画像100と同じ領域を示す円形の枠情報202)を表示させる。
更に、表示制御部66は、図8に示すようにパノラマ画像200上の任意の位置204をマウスによりクリックすると(任意の位置が指定されると)、任意の位置204を含む撮像領域を内視鏡スコープ11で撮像するための内視鏡スコープ11の先端の移動すべき方向を示す指標(本例では矢印102)を、現在の動画である通常画像100上に表示させる。
尚、表示器14に枠情報202及び矢印102を表示させる表示制御部66による表示制御の詳細については後述する。
[パノラマ画像の生成]
次に、パノラマ画像生成部として機能する画像処理部65によりパノラマ画像の生成方法について説明する。
次に、パノラマ画像生成部として機能する画像処理部65によりパノラマ画像の生成方法について説明する。
内視鏡操作部46又はプロセッサ操作部13aによりパノラマ撮影モードが設定されると、画像処理部65は、パノラマ画像生成部として機能する。尚、撮影モード設定部により通常画像撮影モードが設定されているものとする。
通常画像撮影モードのもとでパノラマ撮影モードが設定されると、パノラマ画像生成部は、通常画像撮影モードで撮像される動画の各フレーム(通常画像)によりパノラマ画像を生成するが、内視鏡操作部46又はプロセッサ操作部13aにより設定された「領域指定生成モード」又は「時間指定生成モード」にしたがって、以下のようにパノラマ画像を生成する。
<領域指定生成モード>
「領域指定生成モード」は、ユーザ(医師)が、通常画像から注目領域を発見し、注目領域を含む任意の位置を指定すると、パノラマ画像を生成するモードである。
「領域指定生成モード」は、ユーザ(医師)が、通常画像から注目領域を発見し、注目領域を含む任意の位置を指定すると、パノラマ画像を生成するモードである。
即ち、領域指定生成モードが設定された後、第1の指示部として機能するマウスを使用し、表示器14に表示された通常画像上で、医師が注目領域内の任意の位置をクリックして指定すると、パノラマ合成を開始する。パノラマ画像生成部は、クリックされた時刻より以前に撮像され、記憶部67に保持された動画から、その動画を構成するフレームのうちの指定された注目領域が含まれる複数フレームを抽出し、抽出した複数フレームを合成してパノラマ画像を生成する。
図4は、領域指定生成モードでのパノラマ画像の作成方法を概念的に示す図である。
図4において、フレームI1が領域指定時刻のフレームとすると、医師は、破線の枠で示した注目領域内の任意の位置をマウスでクリックする。パノラマ画像生成部は、フレームI1を含む過去のフレーム群(記憶部67に保持された動画)から、注目領域が含まれる複数のフレームI2,I3,I4、I5を抽出する。
パノラマ画像生成部は、フレームI1を含む複数のフレームI1~I5に基づいてパノラマ画像200を生成する。図4に示す例では、5枚のフレームI1~I5を使用してパノラマ画像200を生成しているが、パノラマ合成に使用されるフレーム数は、5枚に限らず、注目領域が撮像されている全てのフレームを抽出してパノラマ合成することが好ましい。
尚、領域指定時刻のフレームI1より過去の時刻のフレーム群からパノラマ合成に使用するフレームを抽出しているが、領域指定時刻のフレームI1よりも未来の時刻(領域指定時刻後に撮像される動画のフレーム群)からのパノラマ合成に使用するフレームを抽出してもよいし、領域指定時刻よりも過去及び未来の両方の時刻に撮像された動画のフレーム群からパノラマ合成に使用するフレームを抽出してもよい。
また、動画のフレーム群から抽出するフレームは、動画のフレームレート(例えば、30フレーム/秒、60フレーム/秒)よりも時間間隔を空けて抽出したり、フレーム間で一定範囲の移動量を有するフレームを抽出することが好ましい。パノラマ合成するフレーム数を少なくし、かつパノラマ合成されるパノラマ画像の領域を拡張するためである。
次に、パノラマ画像生成部によりパノラマ画像を生成する具体的なアルゴリズムは、以下の通りである。
(1) 図5に示すように、あるフレーム間で異なる視点で注目領域が撮像された2枚の画像Ii(i=1,2)が得られたとする。
(2) 画像Iiに対して、特徴点を抽出する。これにはSIFT(Scale-invariant feature transform)やSURF(Speed-Upped Robust Feature)、ORB(Oriented FAST and Rotated BRIEF)などの特徴点アルゴリズムを用いる。この処理によりそれぞれの画像に対し、ni(i=1,2)個の特徴点Pij=(x_ij,y_ij)(j=1,2,…,n)が検出されたとする。ここで(x,y)は画像平面における座標を表す。
(3) 画像Iiに対する特徴点Piが与えられたとき、それぞれの特徴点が持つ特徴量Diをもとに、特徴点同士のマッチングを行う。このとき特徴量Diは特徴点周辺領域の情報をもとに取得された情報がよい。例えばSIFTなら128次元の実数ベクトル、ORBなら256bitのバイナリ列となる。特徴点周辺のW×W領域の画素値としてもよい。画像I1、I2のある特徴点がマッチしているか否かは、その特徴点に対応する特徴量の類似度で評価する。例えば、特徴量がSIFTならそれぞれの実数ベクトルのユークリッド距離がある閾値より小さいときマッチしているとする。
(4) マッチングにより、画像I1、I2間で、マッチしている対応点が4組以上見つかった場合、画像合成を行う。
仮に、合成する基準となる画像を画像I1とした場合は、画像I2を画像I1の座標平面に投影(射影変換)する行列Hを求める。画像I2におけるある特徴点P2=(x_2,y_2)が、画像I1におけるある特徴点P1=(x_1,y_1)とマッチしているとき、次式に示す関係が成り立つ。
マッチした対応点の組に対し、[数1]式を適用し、行列Hの要素に対する連立方程式を解くことで、行列Hが求まる。ここで、行列H中の係数h33は1であるため、8個の係数を求める。4組の対応点(合計8個)の座標から、8個の連立方程式を解くことで、8個の係数(変換係数)を有する行列Hを求めることができる。
4組以上の対応点が見つかった場合は、RANSAC(Random Sampling Consensus)法などでより最適な行列Hを求めることが好ましい。対応点の各組の誤対応や位置のずれなどのノイズの影響を排除し、高精度に行列Hを計算するためである。
行列Hが求められたら、画像I2の全ての画素を行列Hによって変換し、画像I1に重畳することで、合成画像(パノラマ画像200)を得る。
次の画像I3を合成する場合には、基準の画像I1と画像I3との重複領域における4組の対応点を求める。適正な4組の対応点が見つからない場合には、射影変換後の画像I2、又は生成途中のパノラマ画像と画像I3との重複領域における4組の対応点を求め、上記と同様にして画像I3を合成することでパノラマ画像を拡張する。以上のパノラマ合成処理を、パノラマ画像の生成に使用する全ての画像に対して行うことで、所望のパノラマ画像を生成することができる。
<時間指定生成モード>
「時間指定生成モード」は、医師が注目領域を発見し、医師がパノラマ撮影を開始したい時刻にて開始の指示を与えると、パノラマ合成(画像の連結)を始め、医師が終了したい時刻にて終了の指示を与えると、画像の連結を終了するモードである。
「時間指定生成モード」は、医師が注目領域を発見し、医師がパノラマ撮影を開始したい時刻にて開始の指示を与えると、パノラマ合成(画像の連結)を始め、医師が終了したい時刻にて終了の指示を与えると、画像の連結を終了するモードである。
即ち、時間指定生成モードが設定された後、医師がパノラマ撮影(パノラマ合成)を開始したい時刻の指示を与えると、パノラマ画像生成部は、その後、取得した動画に基づいてパノラマ合成を開始し、医師が終了したい時刻の指示を与えると、パノラマ合成を終了する。尚、リアルタイムに動画からパノラマ画像を生成できない場合には、記憶部67に一時保持された動画を使用することができる。
図6は、時間指定生成モードでのパノラマ画像の作成方法を概念的に示す図である。
図6において、フレームI1は、医師により指示されたパノラマ撮影の開始時刻のフレームを示し、フレームI5は、医師により指示されたパノラマ撮影の終了時刻のフレームを示す。
パノラマ画像生成部は、フレームI1を含むパノラマ撮影の開始時刻のフレームから、終了時刻までに撮像された動画のフレーム群から、パノラマ合成に使用する複数のフレームI2,I3,I4、I5を抽出し、フレームI1を含む複数のフレームI1~I5に基づいてパノラマ画像200を生成する。尚、パノラマ画像200の生成は、領域指定生成モードでのパノラマ画像の生成と同様に行うことができる。
また、パノラマ画像生成部は、パノラマ画像の生成に使用する動画の各フレームの歪みを補正する歪み補正を行い、歪み補正した各フレームに基づいてパノラマ画像を生成することが好ましい。
近年の内視鏡スコープは広視野角を実現し、より広い範囲を撮像することが可能になってきている。しかし、広視野角にすることで、撮像される画像に歪みが発生する。行列Hは,平行四辺形や台形を任意の矩形に変換するため、直線性は保たれなければならない。しかし、画像の歪みによって直線性が保たれないため、精度よく行列Hが求められないことが考えられる。
これを解決するために、パノラマ画像生成部は、行列Hを求める前の前処理として、パノラマ画像の生成に使用する動画の各フレームの歪み補正する。
歪み補正は、以下の式によって画像Iの全画素位置を変換する。
ここで、[数2]式中のk1,k2,k3,p1,p2は、歪み係数といい、カメラ固有の値である。歪み係数は拡大率によっても変化するため、各拡大率に応じた歪み係数を使用する。歪み補正は、マッチングの前に行ってもよいし、後に行ってもよい。
<マルチフレーム撮影モードでのパノラマ画像の生成>
次に、撮影モード設定部によりマルチフレーム撮影モードが設定された場合のパノラマ画像の生成方法について説明する。
次に、撮影モード設定部によりマルチフレーム撮影モードが設定された場合のパノラマ画像の生成方法について説明する。
マルチフレーム撮影モードが設定されると、光源装置12は、紫色光、青色光、緑色光、及び赤色光を含む白色光と、V-LED32a、B-LED32b、G-LED32c、及びR-LED32dの点灯が制御された1又は複数の特定の波長帯域の光(特殊光)とを交互に発光し、プロセッサ装置13は、内視鏡スコープ11から白色光下の画像(通常画像)と特殊光下の画像(特殊光画像)とを交互に取得する。
パノラマ画像生成部(画像処理部65)は、パノラマ合成に使用する複数の通常画像に対応する複数の特殊光画像に基づいて、撮像領域が重複する特殊光画像間の複数組の特徴点(4組の対応点)を求め、[数1]式に示した行列Hを算出する。そして、パノラマ画像を生成する場合は、基準の通常画像に対して合成する通常画像を行列Hによって変換し、基準の通常画像に重畳することで合成画像(パノラマ画像)を生成する。
このように特殊光画像を使用してパノラマ合成用のパラメータ([数1]式に示した行列H)を求めるのは、特殊光画像は、被検体の構造(血管)等が見やすくした画像であり、通常画像に比べて多くの特徴点を抽出することができ、精度の高い行列Hを算出することができるからである。
一方、医者は、一般に通常画像により生体内のスクリーニング観察を行うため、表示制御部66は、マルチフレーム撮影モードでは通常画像を表示器14に表示させる。この場合、通常画像のフレームレートが半減するため、前後の通常画像間を補間して補間画像を生成し、通常画像のフレームレートが低減しないようにすることが好ましい。
上記の例では、パノラマ画像生成部は、マルチフレーム撮影モードが設定された場合、常に特殊光画像を使用してパノラマ合成用のパラメータを求めるようにしているが、マルチフレーム撮影モードが設定された場合でも通常画像を使用してパノラマ合成用のパラメータを求め、通常画像では信頼性の高い複数組の対応点が検出できない場合に、特殊光画像を使用してパノラマ合成用のパラメータを求めるようにしてもよい。
同様に、通常画像撮影モードが設定され、通常画像撮影モードで取得される通常画像では信頼性の高い複数組の対応点が検出できない場合には、撮影モード設定部は、通常画像撮影モードからマルチフレーム撮影モードに切り替え、特殊光画像を使用してパノラマ合成用のパラメータを算出することが好ましい。
[動画及びパノラマ画像の表示方法]
前述したように表示制御部66は、図7に示すように表示用の通常画像100を表示器14に出力し、表示器14に通常画像100(動画)を表示させ、パノラマ撮影モードが設定され、画像処理部65のパノラマ画像生成部により生成されたパノラマ画像を入力すると、通常画像100とパノラマ画像200とを表示器14に表示させる。
前述したように表示制御部66は、図7に示すように表示用の通常画像100を表示器14に出力し、表示器14に通常画像100(動画)を表示させ、パノラマ撮影モードが設定され、画像処理部65のパノラマ画像生成部により生成されたパノラマ画像を入力すると、通常画像100とパノラマ画像200とを表示器14に表示させる。
また、表示制御部66は、図7に示すようにパノラマ画像200上に、現在の動画(通常画像100)と同じ領域を示す枠情報202を表示させる。
表示制御部66は、動画の現在の通常画像100が、パノラマ画像200のどの領域に対応するかをテンプレートマッチングにより検出する。テンプレートマッチングは、現在の通常画像100(テンプレート画像)の画像サイズと回転量とを変えながら、テンプレート画像でパノラマ画像200を走査し、テンプレート画像がパノラマ画像200の一部の領域と合致した領域、又は最も一致度の高い領域を検出することで、通常画像100が、パノラマ画像200のどの領域に対応するかを検出する手法である。
表示制御部66は、パノラマ画像200上に、テンプレートマッチングにより検出した現在の通常画像100の領域と同じ領域を示す枠情報202を表示させる。医師は、パノラマ画像200上に表示された枠情報202により、パノラマ画像200のどの領域が現在撮像されているかを容易に把握することができる。
更に、表示制御部66は、図8に示すようにパノラマ画像200上の任意の位置204をマウスによりクリックすると(任意の位置が指定されると)、任意の位置204を含む撮像領域を内視鏡スコープ11で撮像するための内視鏡スコープ11の先端の移動すべき方向を示す矢印102を、現在の通常画像100上に表示させる。
表示制御部66は、マウスによりパノラマ画像200上で任意の位置204がクリックされると、パノラマ画像200上の任意の位置204と現在の動画(枠情報202で示される通常画像100の領域)の中心位置との相対位置、及びパノラマ画像200と現在の通常画像100との相対角度を算出(取得)する。パノラマ画像200上の任意の位置204と現在の動画(通常画像の領域)の中心位置との相対位置、及びパノラマ画像200と現在の通常画像の領域との相対角度は、動画の現在の通常画像が、パノラマ画像200のどの領域に対応するかをテンプレートマッチングにより検出する際に、最もマッチングしたときの通常画像(テンプレート画像)の移動位置及びテンプレート画像の回転量を、それぞれ相対位置及び相対角度として取得することができる。
表示制御部66は、取得した相対位置及び相対角度に基づいて任意の位置204を含む撮像領域を内視鏡スコープ11で撮像するための内視鏡スコープ11の先端の移動すべき方向を決定する。即ち、パノラマ画像200上の通常画像の領域の中心位置(相対位置)から見た任意の位置204の方向と、パノラマ画像200上の通常画像の領域の天地方向(パノラマ画像200に対する通常画像の相対角度に相当する撮像素子45の上下方向)との成す角度を、内視鏡スコープ11の先端の移動すべき方向として算出する。そして、表示制御部66は、算出した方向を示す矢印102を、通常画像100上に表示させる。
図8では、パノラマ画像200の生成時の基準の画像に対して現在の動画が回転していないため(内視鏡スコープ11の先端が基準の画像の撮像時から回転していないため)、パノラマ画像200上の通常画像の領域の中心位置から見た任意の位置204の方向と矢印102の方向とが一致している。
一方、図9に示すようにパノラマ画像200の生成時の基準の画像に対して現在の動画が回転している場合(例えば、時計回り方向に135度回転している場合)、同じ任意の位置204を含む撮像領域を内視鏡スコープ11で撮像する場合の、内視鏡スコープ11の先端の移動すべき方向は、図8に示した矢印102に対して反時計回り方向に135度回転した方向を示す矢印102が表示されることになる。
医師は、任意の位置をクリックしたときに通常画像100上に表示される矢印102の方向に内視鏡スコープ11の先端を移動させることで、指定した任意の位置を含む撮像領域を内視鏡スコープ11で撮像することができる。
矢印102は、指定した任意の位置が内視鏡スコープ11で撮像されると、消去することが好ましい。また、矢印102は、通常画像100に重畳して表示せずに、通常画像100の表示領域外に表示させてもよい。
また、表示制御部66は、パノラマ画像生成部(画像処理部65)により生成されるリアルタイムの生成途中のパノラマ画像を取得することで、生成途中のリアルタイムのパノラマ画像を表示器14に表示させることができる。
また、この場合、表示器14に表示された生成途中のパノラマ画像上で、任意の位置204を指定する場合と同様に、生成途中のパノラマ画像を拡張させる未撮像の拡張領域を、マウス(第2の指示部)で指定されると、表示制御部66は、内視鏡スコープ11の先端の移動方向を示す矢印(第3の情報)であって、拡張領域を含む撮像領域を内視鏡スコープ11で撮像するための内視鏡スコープの先端の移動すべき方向を示す矢印を、通常画像100上に表示することができる。
パノラマ画像生成部により生成途中のパノラマ画像を表示することで、生成途中のパノラマ画像に含まれない領域を確認することができ、また、パノラマ画像を拡張させたい未撮像の領域の画像を取得することができるように、内視鏡スコープ11の先端の移動すべき方向を誘導することができる。
[内視鏡画像表示方法]
次に、本発明に係る内視鏡画像表示方法の実施形態について、図10から図15に示したフローチャートを参照しながら説明する。
次に、本発明に係る内視鏡画像表示方法の実施形態について、図10から図15に示したフローチャートを参照しながら説明する。
<内視鏡画像表示方法の主な流れ>
図10において、通常画像撮影モードが設定されている場合、内視鏡装置10により白色光により動画(通常画像)が撮像される(ステップS10)。
図10において、通常画像撮影モードが設定されている場合、内視鏡装置10により白色光により動画(通常画像)が撮像される(ステップS10)。
撮像された動画は、バッファメモリとして機能する記憶部67に一時的に記憶保持される(ステップS12)。
続いて、プロセッサ制御部61は、内視鏡操作部46又はプロセッサ操作部13aによりパノラマ撮影モードが設定されている否かを判別する(ステップS14)。パノラマ撮影モードが設定されていない場合には、表示制御部66は、通常画像を表示器14(モニタ)に表示させる(ステップS18)。
一方、パノラマ撮影モードが設定されている場合には、ステップS16に遷移し、ここでパノラマ画像が生成されているか否かを判別する。
パノラマ画像が生成されていない場合(「No」の場合)には、パノラマ画像生成部(画像処理部65)は、ステップS12の保持した動画、その後撮像される動画等を使用してパノラマ画像を生成する(ステップS20)。
パノラマ画像が生成されている場合(「Yes」の場合)には、表示制御部66は、現在の通常画像及びパノラマ画像をモニタに表示させる(ステップS30)。
<パノラマ画像の生成方法(1)>
図11は、図10に示したステップS20に遷移した場合のパノラマ画像の生成方法の主な流れを示すフローチャートである。
図11は、図10に示したステップS20に遷移した場合のパノラマ画像の生成方法の主な流れを示すフローチャートである。
図11において、プロセッサ制御部61は、領域指定生成モード設定部又は時間指定生成モード設定部により領域指定生成モード又は時間指定生成モードのいずれが設定されているかを判別する(ステップS21)。
領域指定生成モードが設定されている場合には、ステップS22に遷移し、ここで通常画像内の注目領域が指定されたか否か(例えば、マウスにより注目領域を含む任意の位置がマウスにより指定されたか否か)を判別する。注目領域が指定されたと判別されると、パノラマ画像生成部は、メモリ(記憶部67)に保持された動画から注目領域を含む画像群を抽出し(ステップS23)、抽出した画像群からパノラマ画像を生成する(ステップS40)。
一方、時間指定生成モードが設定されている場合には、ステップS24に遷移し、ここで動画の時間範囲(パノラマ画像の生成に使用する動画の開始時刻及び終了時刻)が指定されたか否かを判別する。動画の時間範囲が指定されると、動画から指定された開始時刻から終了時刻までの時間範囲内の画像群を抽出し(ステップS25)、抽出した画像群からパノラマ画像を生成する(ステップS40)。
この場合、開始時刻が指定されると、その時刻以降に撮像された動画の各フレームに基づいてパノラマ画像の生成を開始し、終了時刻が指定されると、パノラマ合成に使用する新たなフレームを取得せずにパノラマ画像の生成を終了させてもよいし、開始時刻から終了時刻までの時間範囲内の画像群がメモリに保持された後、メモリに保持された動画の各フレームに基づいてパノラマ画像を生成するようにしてもよい。
<パノラマ画像の生成方法(2)>
図12は、図11に示したステップS40に遷移した場合のパノラマ画像の生成方法の具体的なアルゴリズムを示すフローチャートである。
図12は、図11に示したステップS40に遷移した場合のパノラマ画像の生成方法の具体的なアルゴリズムを示すフローチャートである。
図12において、パノラマ画像生成部は、パノラマ画像の生成に使用する通常画像の時系列順を示すパラメータをiとし、パノラマ画像の生成に使用する通常画像の総数をNとすると、まず、パラメータiを1に設定する(ステップS41)。
続いて、パノラマ画像生成部は、通常画像Iiと通常画像Ii+1の2つの画像間の特徴点を抽出し(ステップS42)、2つの画像間の重複領域における互いに対応する複数組の特徴点(本例では4組の対応点)を決定し、4組の対応点の座標から[数1]式の行列Hを求め、合成する通常画像Ii+1の全ての画素を行列Hによって変換(射影変換)し、合成画像(パノラマ画像Pi+1)を生成する(ステップS43)。
次に、パラメータiがN-1(画像合成する回数に相当する値)か否かを判別する(ステップS44)。全ての通常画像のパノラマ合成が終了していない場合(i≠N-1の場合)には、パラメータiを1だけインクリメントし(ステップS45)、ステップS42に遷移させ、全ての通常画像のパノラマ合成が終了した場合(i=N-1の場合)には、パノラマ画像の生成を終了させる。
<通常画像とパノラマ画像の表示方法>
図13は、図11に示したステップS30に遷移した場合の通常画像とパノラマ画像の表示方法を示すフローチャートである。
図13は、図11に示したステップS30に遷移した場合の通常画像とパノラマ画像の表示方法を示すフローチャートである。
図13において、表示制御部66は、画像処理部65から入力する通常画像とパノラマ画像とをモニタ(表示器14)に表示させる(ステップS31)。
続いて、現在の通常画像とパノラマ画像とをテンプレートマッチングし(ステップS31)、テンプレートマッチングの結果からパノラマ画像上の現在の通常画像の領域及びパノラマ画像に対する通常がぞう相対角度を検出(取得)する(ステップS33)。
続いて、表示制御部66は、テンプレートマッチングの結果からパノラマ画像上の現在の通常画像の領域を示す枠情報202をパノラマ画像200上に表示させる(ステップS34、図7参照)。
次に、表示制御部66は、パノラマ画像上の任意の位置が指定されたか否かを判別する(ステップS35)。例えば、図8に示すようにパノラマ画像200上の任意の位置204がマウスによりクリックされると、任意の位置204が指定されたと判別する。
表示制御部66は、ステップS35においてパノラマ画像上の任意の位置が指定されたと判別すると(「Yes」の場合)、任意の位置を含む撮像領域を内視鏡スコープ11で撮像するためのスコープ先端の移動すべき方向を決定する(ステップS36)。尚、スコープ先端の移動すべき方向方は、パノラマ画像200上の任意の位置204の座標、パノラマ画像200上の現在の通常画像の領域の中心の座標、及びステップS33で取得したパノラマ画像200に対する通常画像100の相対角度から求めることができる。
表示制御部66は、ステップS36で決定した方向を示す指標(矢印102)を、通常画像100上に表示させる(ステップS37、図8、図9の矢印102)。
<マルチフレーム撮影モード時のパノラマ画像の生成方法>
図14は、図10に示したステップS20に遷移した場合のパノラマ画像の生成方法の実施形態を示すフローチャートであり、特にマルチフレーム撮影モードが設定された場合に関して示している。
図14は、図10に示したステップS20に遷移した場合のパノラマ画像の生成方法の実施形態を示すフローチャートであり、特にマルチフレーム撮影モードが設定された場合に関して示している。
図14において、撮影モード設定部によりマルチフレーム撮影モードに切り替えられ、又はマルチフレーム撮影モードが設定されると(ステップS50)、光源装置12から白色光と特殊光とが交互に発光され、白色光下の画像(通常画像)と特殊光下の画像(特殊光画像)とが交互に撮像される(ステップS51)。
続いて、パノラマ画像を生成するパノラマ撮影モードが設定され、マルチフレーム撮影モードにより撮像された通常画像と特殊光画像とメモリに一定期間保持されたか否かを判別する(ステップS52)。
パノラマ画像生成部は、メモリに一定期間の動画(通常画像及び特殊光画像)が記憶保持されると(「Yes」の場合)、パノラマ画像の生成に必要な通常画像群及び特殊光画像群と抽出する(ステップS53)。
パノラマ画像生成部は、パノラマ合成に使用する複数の通常画像に対応する複数の特殊光画像に基づいて、撮像領域が重複する特殊光画像間の複数組の特徴点(4組の対応点)を求め、パノラマ画像の生成用のパラメータ([数1]式に示した行列H)を算出する。そして、パノラマ画像を生成する場合は、基準の通常画像に対して合成する通常画像を行列Hによって射影変換し、基準の通常画像に重畳することで合成画像(パノラマ画像)を生成する(ステップS55)。
<通常画像撮影モードとマルチフレーム撮影モードとの切り替え>
図15は、通常画像撮影モードとマルチフレーム撮影モードと切り替えてパノラマ画像を生成する方法を示すフローチャートである。
図15は、通常画像撮影モードとマルチフレーム撮影モードと切り替えてパノラマ画像を生成する方法を示すフローチャートである。
図15において、パノラマ画像生成部は、メモリに保持された動画からパノラマ画像の生成に使用する通常画像群を抽出する(ステップS60)。尚、マルチフレーム撮影モードで撮像された動画の場合、通常画像の動画と特殊光画像の動画のうちの通常画像の動画から通常画像群を抽出する。通常画像群の抽出は、領域指定生成モード又は時間指定生成モードに基づいて行うことができる。
パノラマ画像生成部は、通常画像群のうちの重複領域を有する2つの通常画像間の特徴点を抽出する(ステップS61)。続いて、撮像領域が重複する通常画像間の複数組の特徴点(4組の対応点)が抽出(検出)されたか否かを判別する(ステップS62)。
適切な4組の対応点が検出された場合(「Yes」の場合)、図11及び図12に示したように通常画像群を使用してパノラマ画像を生成する(ステップS63)。
一方、適切な4組の対応点が検出されない場合(「No」の場合)、通常画像撮像モードからマルチフレーム撮影モードに切り替え(ステップS64)、その後、マルチフレーム撮影モードで撮像された動画から抽出した通常画像群と特殊光画像群とを使用し、図14に示したようにパノラマ画像を生成する(ステップS65)。
[内視鏡スコープの先端の移動方向の操作を支援する方法の他の実施形態]
図16及び図17は、それぞれ任意の位置を含む撮像領域を内視鏡スコープで撮像するための内視鏡スコープの先端の移動方向の操作を支援する第2の情報の他の表示例を示す図である。
図16及び図17は、それぞれ任意の位置を含む撮像領域を内視鏡スコープで撮像するための内視鏡スコープの先端の移動方向の操作を支援する第2の情報の他の表示例を示す図である。
図8及び図9に示す実施形態では、表示制御部66は、パノラマ画像200上の任意の位置204をマウスによりクリックすると、任意の位置204を含む撮像領域を内視鏡スコープ11で撮像するための内視鏡スコープ11の先端の移動すべき方向を示す矢印102を、現在の通常画像100上に表示させている。
これに対し、図16及び図17に示す他の実施形態では、ユーザがパノラマ画像200上の任意の位置204を撮像する場合、任意の位置204をマウス等で指定することなく、任意の位置204を含む撮像領域を内視鏡スコープ11で撮像する際の、内視鏡スコープ11の先端の移動すべき方向を、ユーザが認識できる(認識を支援する)情報を表示する。
図16には、図8に示した通常画像100及びパノラマ画像200と同じ通常画像100及びパノラマ画像200が表示されている。
図8では、任意の位置204を含む撮像領域を内視鏡スコープ11で撮像するための内視鏡スコープ11の先端の移動すべき方向を示す矢印102を、現在の動画である通常画像100上に表示させているが、図11では、パノラマ画像200に対するパノラマ画像200上の通常画像100の領域の相対角度を示す情報であって、パノラマ画像200に対する現在の動画の天地方向を示す情報(本例では、矢印210)を表示させている。
パノラマ画像200上の通常画像の領域の天地方向(パノラマ画像200に対する通常画像の相対角度に相当する撮像素子45の上下方向)は、現在の通常画像とパノラマ画像とのテンプレートマッチングにより検出(取得)することができる。
図8に対応する図16では、パノラマ画像200の生成時の基準の画像に対して現在の動画が回転していないため(内視鏡スコープ11の先端が基準の画像の撮像時から回転していないため)、表示器14に表示された通常画像100と、パノラマ画像200内の通常画像100に対応する領域(枠情報202内の領域)とは相似形であり、かつ同じ方向を向いている。
そして、表示制御部66は、パノラマ画像200内の通常画像100に対応する領域の天地方向を示す矢印210を、パノラマ画像200上(枠情報202の近傍)に表示させる。この矢印210の方向は、パノラマ画像200と現在の通常画像100との相対角度により決定することができる。
図16に示す表示状態の場合、内視鏡スコープ11の先端を移動させて任意の位置204を含む領域を内視鏡スコープ11で撮像する場合の、内視鏡スコープ11の先端の移動方向は、矢印210の方向に対する任意の位置204により、スコープ先端の右上方向であることが分かる。これは、図8に示した通常画像100上に表示された矢印102が誘導する操作方向と一致する。
一方、図9に対応する図17では、パノラマ画像200に対して現在の通常画像100が時計回り方向に135度回転しているため、パノラマ画像200内の通常画像100に対応する領域の天地方向を示す矢印210は、図17上で右下方向を示している。
したがって、図17に示す表示状態の場合、内視鏡スコープ11の先端を移動させて任意の位置204を含む領域を内視鏡スコープ11で撮像する場合の、内視鏡スコープ11の先端の移動方向は、矢印210の方向に対する任意の位置204により、スコープ先端の左方向であることが分かる。これは、図9に示した通常画像100上に表示された矢印102が誘導する操作方向と一致する。
[その他]
本実施形態では、パノラマ画像上に現在の動画の撮影位置を示す第1の情報として、現在の動画の領域(パノラマ画像上の領域)を囲む枠情報として表示するようにしたが、これに限らず、パノラマ画像上で現在の動画の領域を認識させる情報であれば如何なるものでもよい。同様に、内視鏡スコープの先端の移動方向の操作を支援する第2の情報として、矢印を表示するようにしたが、方向を視認できるものであれば、如何なる指標であってもよい。
本実施形態では、パノラマ画像上に現在の動画の撮影位置を示す第1の情報として、現在の動画の領域(パノラマ画像上の領域)を囲む枠情報として表示するようにしたが、これに限らず、パノラマ画像上で現在の動画の領域を認識させる情報であれば如何なるものでもよい。同様に、内視鏡スコープの先端の移動方向の操作を支援する第2の情報として、矢印を表示するようにしたが、方向を視認できるものであれば、如何なる指標であってもよい。
また、本実施形態では、パノラマ画像の生成する場合に基準の画像に対して合成対象の画像を射影変換して画像合成するようにしたが、射影変換に限らず、アフィン変換、その他の幾何変換を行って画像合成するようにしてもよい。
また、内視鏡スコープ11により得られた画像信号に基づいて表示用又は記録用の通常画像及び/又は特殊光画像の画像データを生成する機能、光源装置12を制御する機能の他に、本発明に係る時系列の通常画像からパノラマ画像を生成する機能、通常画像とパノラマ画像とを表示器14に表示させる機能等を有するプロセッサ装置13のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の制御部を1つのプロセッサで構成してもよい。複数の制御部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の制御部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の制御部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
更に、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
10 内視鏡装置
11 内視鏡スコープ
12 光源装置
12a 光源操作部
13 プロセッサ装置
13a プロセッサ操作部
14 表示器
16 挿入部
16a 挿入部先端部
16b 湾曲部
16c 可撓管部
17 手元操作部
18 ユニバーサルコード
21 アングルノブ
22 操作ボタン
23 鉗子入口
25a コネクタ部
25b コネクタ部
31 光源制御部
32 光源ユニット
32a V-LED
32b B-LED
32c G-LED
32d R-LED
40 ライトガイド
42 照明レンズ
44 対物レンズ
45 撮像素子
46 内視鏡操作部
47 内視鏡制御部
48、62 ROM
61 プロセッサ制御部
65 画像処理部
66 表示制御部
67 記憶部
100 通常画像
102、210 矢印
200 パノラマ画像
202 枠情報
H 行列
S10~S65 ステップ
11 内視鏡スコープ
12 光源装置
12a 光源操作部
13 プロセッサ装置
13a プロセッサ操作部
14 表示器
16 挿入部
16a 挿入部先端部
16b 湾曲部
16c 可撓管部
17 手元操作部
18 ユニバーサルコード
21 アングルノブ
22 操作ボタン
23 鉗子入口
25a コネクタ部
25b コネクタ部
31 光源制御部
32 光源ユニット
32a V-LED
32b B-LED
32c G-LED
32d R-LED
40 ライトガイド
42 照明レンズ
44 対物レンズ
45 撮像素子
46 内視鏡操作部
47 内視鏡制御部
48、62 ROM
61 プロセッサ制御部
65 画像処理部
66 表示制御部
67 記憶部
100 通常画像
102、210 矢印
200 パノラマ画像
202 枠情報
H 行列
S10~S65 ステップ
Claims (19)
- 内視鏡スコープにより撮像される動画に基づいてパノラマ画像を生成するパノラマ画像生成部と、
前記内視鏡スコープにより撮像される動画及び前記生成されたパノラマ画像を表示器に表示させる表示制御部と、を備え、
前記表示制御部は、
前記表示器に表示されたパノラマ画像上に、前記表示器に表示された現在の動画の撮影位置を示す第1の情報を表示させ、
かつ前記パノラマ画像上の任意の位置に対して、前記任意の位置を含む撮像領域を前記内視鏡スコープで撮像するための前記内視鏡スコープの先端の移動方向の操作を支援する第2の情報を表示させる内視鏡装置。 - 前記表示制御部は、前記動画の各フレームが、前記パノラマ画像のどの領域に対応するかをテンプレートマッチングにより検出し、前記テンプレートマッチングにより検出した領域を示す枠情報を前記第1の情報として、前記パノラマ画像上に表示させる請求項1に記載の内視鏡装置。
- 前記表示器に表示された前記パノラマ画像上で前記任意の位置を指定する第1の指示部を備え、
前記表示制御部は、前記第1の指示部により前記パノラマ画像上で前記任意の位置が指定されると、前記表示器に表示された現在の動画上に、前記内視鏡スコープの先端の移動方向を示す前記第2の情報を表示させる請求項1又は2に記載の内視鏡装置。 - 前記表示制御部は、前記第1の指示部により前記パノラマ画像上で前記任意の位置が指定されると、前記パノラマ画像上の前記任意の位置と前記現在の動画の中心位置との相対位置、及び前記パノラマ画像と前記現在の動画との相対角度を算出し、前記算出した前記相対位置及び前記相対角度に基づいて前記任意の位置を含む撮像領域を前記内視鏡スコープで撮像するための前記内視鏡スコープの先端の移動すべき方向を決定し、前記決定した方向を示す指標を前記第2の情報として前記表示器に表示された現在の動画上に表示させる請求項3に記載の内視鏡装置。
- 前記表示制御部は、前記パノラマ画像と前記現在の動画との相対角度を算出し、前記表示器に表示されたパノラマ画像上に、前記算出した前記相対角度に基づいて前記パノラマ画像に対する前記現在の動画の天地方向を示す情報を前記第2の情報として表示させる請求項1から4のいずれか1項に記載の内視鏡装置。
- 前記動画の注目領域を指定する領域指定生成モードを設定する領域指定生成モード設定部を備え、
前記パノラマ画像生成部は、前記領域指定生成モードが設定されると、前記動画を構成するフレームのうちの前記領域指定生成モードで指定された注目領域が含まれる複数フレームに基づいてパノラマ画像を生成する請求項1から5のいずれか1項に記載の内視鏡装置。 - 前記動画の時間範囲を指示する時間指定生成モードを設定する時間指定生成モード設定部を備え、
前記パノラマ画像生成部は、前記時間指定生成モードが設定されると、前記動画を構成するフレームのうちの前記時間指定生成モードで指定された時間範囲内の複数フレームに基づいてパノラマ画像を生成する請求項1から5のいずれか1項に記載の内視鏡装置。 - 前記表示制御部は、前記パノラマ画像生成部により生成された生成後のパノラマ画像、及び前記パノラマ画像生成部により生成途中のパノラマ画像を前記表示器に表示させる請求項1から7のいずれか1項に記載の内視鏡装置。
- 前記表示器に表示された前記生成途中のパノラマ画像上で、前記生成途中のパノラマ画像を拡張させる未撮像の拡張領域を指定する第2の指示部を備え、
前記表示制御部は、前記第2の指示部により前記拡張領域が指定されると、前記内視鏡スコープの先端の移動方向を示す第3の情報であって、前記拡張領域を含む撮像領域を前記内視鏡スコープで撮像するための前記内視鏡スコープの先端の移動すべき方向を示す第3の情報を、前記表示器に表示された現在の動画上に表示させる請求項8に記載の内視鏡装置。 - 白色光に対応する通常画像を取得する通常画像撮影モード、又は白色光に対応する通常画像と特殊光に対応する特殊光画像とを交互に取得するマルチフレーム撮影モードを切り替える撮影モード設定部を備え、
前記パノラマ画像生成部は、前記マルチフレーム撮影モードに切り替えられると、前記マルチフレーム撮影モードにより撮像された複数の特殊光画像から撮像領域が重複する特殊光画像間の複数組の特徴点を抽出し、前記抽出した複数組の特徴点に基づいて前記複数の特殊光画像と同領域を撮像した複数の通常画像間の調整を行って前記パノラマ画像を生成する請求項1から9のいずれか1項に記載の内視鏡装置。 - 前記パノラマ画像生成部は、通常画像撮影モードに切り替えられると、前記通常画像撮影モードにより撮像された複数の通常画像から撮像領域が重複する通常画像間の複数組の特徴点を抽出し、前記抽出した複数組の特徴点に基づいて前記複数の通常画像間の調整を行って前記パノラマ画像を生成し、前記通常画像間の複数組の特徴点の抽出ができない場合に、前記撮影モード設定部は前記マルチフレーム撮影モードに切り替える請求項10に記載の内視鏡装置。
- 前記パノラマ画像を生成するパノラマ撮影モードに設定するパノラマ撮影モード設定部を備え、
前記パノラマ画像生成部は、前記パノラマ撮影モードが設定されると、前記パノラマ撮影モードが設定された時点を基準にして、前記パノラマ撮影モードの設定時点の以後に前記内視鏡スコープにより撮像される動画、前記パノラマ撮影モードの設定時点の以前に前記内視鏡スコープにより撮像される動画、又は前記パノラマ撮影モードの設定時点の前後に前記内視鏡スコープにより撮像される動画に基づいて前記パノラマ画像を生成する請求項1から11のいずれか1項に記載の内視鏡装置。 - 前記パノラマ画像生成部は、前記パノラマ画像の生成に使用する前記動画の各フレームの歪みを補正する歪み補正を行い、前記歪み補正した各フレームに基づいてパノラマ画像を生成する請求項1から12のいずれか1項に記載の内視鏡装置。
- パノラマ画像生成部が、内視鏡スコープにより撮像される動画に基づいてパノラマ画像を生成するステップと、
表示制御部が、前記内視鏡スコープにより撮像される動画及び前記生成されたパノラマ画像を表示器に表示させるステップと、
前記表示制御部が、前記表示器に表示されたパノラマ画像上に、前記表示器に表示された現在の動画の撮影位置を示す第1の情報を表示させるステップと、
前記表示制御部が、前記パノラマ画像上の任意の位置に対して、前記任意の位置を含む撮像領域を前記内視鏡スコープで撮像するための前記内視鏡スコープの先端の移動方向の操作を支援する第2の情報を表示させるステップと、
を含む内視鏡画像表示方法。 - 前記第1の情報を表示させるステップは、前記動画の各フレームが、前記パノラマ画像のどの領域に対応するかをテンプレートマッチングにより検出し、前記テンプレートマッチングにより検出した領域を示す枠情報を前記第1の情報として、前記パノラマ画像上に表示させる請求項14に記載の内視鏡画像表示方法。
- 第1の指示部により前記表示器に表示された前記パノラマ画像上で前記任意の位置を指定するステップを含み、
前記第2の情報を表示させるステップは、前記第1の指示部により前記パノラマ画像上で前記任意の位置が指定されると、前記表示器に表示された現在の動画上に、前記内視鏡スコープの先端の移動方向を示す前記第2の情報を表示させる請求項14又は15に記載の内視鏡画像表示方法。 - 前記第2の情報を表示させるステップは、前記第1の指示部により前記パノラマ画像上で前記任意の位置が指定されると、前記パノラマ画像上の前記任意の位置と前記現在の動画の中心位置との相対位置、及び前記パノラマ画像と前記現在の動画との相対角度を算出し、前記算出した前記相対位置及び前記相対角度に基づいて前記任意の位置を含む撮像領域を前記内視鏡スコープで撮像するための前記内視鏡スコープの先端の移動すべき方向を決定し、前記決定した方向を示す指標を前記第2の情報として前記表示器に表示された現在の動画上に表示させる請求項16に記載の内視鏡画像表示方法。
- 前記第1の情報を表示させるステップは、前記パノラマ画像と前記現在の動画との相対角度を算出し、前記表示器に表示されたパノラマ画像上に、前記算出した前記相対角度に基づいて前記パノラマ画像に対する前記現在の動画の天地方向を示す情報を前記第2の情報として表示させる請求項14から17のいずれか1項に記載の内視鏡画像表示方法。
- 内視鏡スコープにより撮像される動画に基づいてパノラマ画像を生成するパノラマ画像生成部と、
前記内視鏡スコープにより撮像される動画及び前記生成されたパノラマ画像を表示器に表示させる表示制御部と、を備え、
前記表示制御部は、
前記表示器に表示されたパノラマ画像上に、前記表示器に表示された現在の動画の撮影位置を示す第1の情報を表示させ、
かつ前記パノラマ画像上の任意の位置に対して、前記任意の位置を含む撮像領域を前記内視鏡スコープで撮像するための前記内視鏡スコープの先端の移動方向の操作を支援する第2の情報を表示させる内視鏡プロセッサ装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020514073A JP7179837B2 (ja) | 2018-04-17 | 2019-04-04 | 内視鏡装置、内視鏡画像表示方法及び内視鏡装置の作動方法 |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018079171 | 2018-04-17 | ||
| JP2018-079171 | 2018-04-17 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019203006A1 true WO2019203006A1 (ja) | 2019-10-24 |
Family
ID=68239561
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2019/014956 Ceased WO2019203006A1 (ja) | 2018-04-17 | 2019-04-04 | 内視鏡装置、内視鏡プロセッサ装置及び内視鏡画像表示方法 |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7179837B2 (ja) |
| WO (1) | WO2019203006A1 (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021117136A1 (ja) * | 2019-12-10 | 2021-06-17 | オリンパス株式会社 | 撮像システム及び内視鏡システム |
| CN113014871A (zh) * | 2021-02-20 | 2021-06-22 | 青岛小鸟看看科技有限公司 | 内窥镜图像显示方法、装置及内窥镜手术辅助系统 |
| JPWO2022014258A1 (ja) * | 2020-07-17 | 2022-01-20 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2007077768A1 (ja) * | 2005-12-28 | 2007-07-12 | Olympus Medical Systems Corp. | 被検体内観察システムおよび被検体内観察方法 |
| JP2011010841A (ja) * | 2009-07-01 | 2011-01-20 | Hoya Corp | 内視鏡装置 |
| JP2013085593A (ja) * | 2011-10-14 | 2013-05-13 | Toshiba Corp | 医用画像表示装置 |
| JP2015228954A (ja) * | 2014-06-04 | 2015-12-21 | ソニー株式会社 | 画像処理装置および画像処理方法 |
| JP2016052529A (ja) * | 2015-10-28 | 2016-04-14 | 国立大学法人 千葉大学 | パノラマ画像作成プログラム |
| JP2016182228A (ja) * | 2015-03-26 | 2016-10-20 | ソニー株式会社 | 情報処理装置および方法 |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7381183B2 (en) * | 2003-04-21 | 2008-06-03 | Karl Storz Development Corp. | Method for capturing and displaying endoscopic maps |
| KR101764438B1 (ko) * | 2009-03-26 | 2017-08-02 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 하나 이상의 랜드마크를 향해 내시경 디바이스의 팁을 조종하고 운전자의 내시경 길찾기를 돕기 위한 시각적 안내를 제공하는 시스템 |
| KR20170055526A (ko) * | 2014-09-17 | 2017-05-19 | 타리스 바이오메디컬 엘엘씨 | 방광의 진단 맵핑을 위한 방법 및 시스템 |
-
2019
- 2019-04-04 JP JP2020514073A patent/JP7179837B2/ja active Active
- 2019-04-04 WO PCT/JP2019/014956 patent/WO2019203006A1/ja not_active Ceased
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2007077768A1 (ja) * | 2005-12-28 | 2007-07-12 | Olympus Medical Systems Corp. | 被検体内観察システムおよび被検体内観察方法 |
| JP2011010841A (ja) * | 2009-07-01 | 2011-01-20 | Hoya Corp | 内視鏡装置 |
| JP2013085593A (ja) * | 2011-10-14 | 2013-05-13 | Toshiba Corp | 医用画像表示装置 |
| JP2015228954A (ja) * | 2014-06-04 | 2015-12-21 | ソニー株式会社 | 画像処理装置および画像処理方法 |
| JP2016182228A (ja) * | 2015-03-26 | 2016-10-20 | ソニー株式会社 | 情報処理装置および方法 |
| JP2016052529A (ja) * | 2015-10-28 | 2016-04-14 | 国立大学法人 千葉大学 | パノラマ画像作成プログラム |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021117136A1 (ja) * | 2019-12-10 | 2021-06-17 | オリンパス株式会社 | 撮像システム及び内視鏡システム |
| JPWO2022014258A1 (ja) * | 2020-07-17 | 2022-01-20 | ||
| JP7637683B2 (ja) | 2020-07-17 | 2025-02-28 | 富士フイルム株式会社 | プロセッサ装置、プロセッサ装置の作動方法 |
| CN113014871A (zh) * | 2021-02-20 | 2021-06-22 | 青岛小鸟看看科技有限公司 | 内窥镜图像显示方法、装置及内窥镜手术辅助系统 |
| CN113014871B (zh) * | 2021-02-20 | 2023-11-10 | 青岛小鸟看看科技有限公司 | 内窥镜图像显示方法、装置及内窥镜手术辅助系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2019203006A1 (ja) | 2021-05-13 |
| JP7179837B2 (ja) | 2022-11-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN103561629B (zh) | 内窥镜装置及内窥镜装置的工作方法 | |
| JP5562808B2 (ja) | 内視鏡装置及びプログラム | |
| CN105792727B (zh) | 内窥镜装置 | |
| JP6401800B2 (ja) | 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置 | |
| JP7444163B2 (ja) | 撮像装置、撮像方法、及びプログラム | |
| JP7095693B2 (ja) | 医療用観察システム | |
| US11064144B2 (en) | Imaging element, imaging apparatus, and electronic equipment | |
| JP6150554B2 (ja) | 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム | |
| CN112105286A (zh) | 内窥镜装置、内窥镜操作方法及程序 | |
| EP3886681B1 (en) | Medical imaging systems and methods | |
| WO2017038774A1 (ja) | 撮像システム、処理装置、処理方法及び処理プログラム | |
| JP6346501B2 (ja) | 内視鏡装置 | |
| JP7179837B2 (ja) | 内視鏡装置、内視鏡画像表示方法及び内視鏡装置の作動方法 | |
| JP5509233B2 (ja) | 電子内視鏡装置及びその作動方法 | |
| JP6352673B2 (ja) | 内視鏡装置及び内視鏡装置の操作方法 | |
| JP6128989B2 (ja) | 画像処理装置、内視鏡装置及び画像処理装置の作動方法 | |
| WO2022191058A1 (ja) | 内視鏡画像処理装置、方法及びプログラム | |
| JP2012055412A (ja) | 画像処理装置、内視鏡装置、画像処理方法及びプログラム | |
| CN111989026B (zh) | 内窥镜装置、内窥镜装置的工作方法及记录介质 | |
| JP6168878B2 (ja) | 画像処理装置、内視鏡装置及び画像処理方法 | |
| JP2019076656A (ja) | 電子内視鏡システム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19788195 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2020514073 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 19788195 Country of ref document: EP Kind code of ref document: A1 |