[go: up one dir, main page]

JP2012228346A - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP2012228346A
JP2012228346A JP2011098030A JP2011098030A JP2012228346A JP 2012228346 A JP2012228346 A JP 2012228346A JP 2011098030 A JP2011098030 A JP 2011098030A JP 2011098030 A JP2011098030 A JP 2011098030A JP 2012228346 A JP2012228346 A JP 2012228346A
Authority
JP
Japan
Prior art keywords
image
imaging
organ
abnormality
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011098030A
Other languages
Japanese (ja)
Inventor
Yasuta Aoyanagi
康太 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011098030A priority Critical patent/JP2012228346A/en
Publication of JP2012228346A publication Critical patent/JP2012228346A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)

Abstract

【課題】管状の器官内の撮像箇所を容易に把握し、さらに、撮像されていない非撮像箇所の見落としを防止する。
【解決手段】画像表示装置4は、管状の器官内を移動して時系列で撮像する器官内撮像装置の一例であるカプセル内視鏡2により撮像された複数の画像と、画像毎の器官内撮像装置2の撮像位置及び撮像姿勢とを取得する取得部4cと、画像毎に医学的な異常の可能性を表した異常度を求め、画像毎の撮像位置及び撮像姿勢を用いて、複数の画像を器官の延伸方向及び周方向に対応する複数の区分領域に分類し、区分領域毎に画像の異常度を割り当てた展開図を生成する処理部4dと、その展開図を表示する表示部4eとを備える。
【選択図】図1
An object of the present invention is to easily grasp an imaging location in a tubular organ and prevent oversight of a non-imaging location that has not been imaged.
An image display device (4) includes a plurality of images captured by a capsule endoscope (2) which is an example of an intra-organ imaging device that moves in a tubular organ and captures images in time series, and an intra-organ organ for each image. The acquisition unit 4c that acquires the imaging position and the imaging posture of the imaging device 2, and the degree of abnormality that represents the possibility of a medical abnormality for each image are obtained, and a plurality of imaging positions and orientations for each image are used. A processing unit 4d that classifies the image into a plurality of segmented regions corresponding to the extending direction and the circumferential direction of the organ, and generates a developed view in which the abnormal degree of the image is assigned to each divided region, and a display unit 4e that displays the developed view With.
[Selection] Figure 1

Description

本発明の実施形態は、画像表示装置に関する。   Embodiments described herein relate generally to an image display apparatus.

近年、管状の器官の一つである消化管を対象としたカプセル内視鏡が実用化されており、そのカプセル内視鏡を用いた検査では、約55,000枚の画像が撮像される。このため、それらの画像をひとつひとつ確認することは事実上不可能であり、画像表示の工夫が必要である。専用のワークステーションでは、画像解析手法を用いた効率的な画像表示が提供されており、例えば、タイムバー表示では、撮像時間が横軸にされて画像の異常度が色で示されている。   In recent years, capsule endoscopes targeting the digestive tract, which is one of the tubular organs, have been put into practical use, and about 55,000 images are captured in an examination using the capsule endoscope. For this reason, it is practically impossible to check these images one by one, and it is necessary to devise an image display. The dedicated workstation provides an efficient image display using an image analysis technique. For example, in the time bar display, the imaging time is plotted on the horizontal axis and the degree of image abnormality is indicated by color.

特開2004−337596号公報JP 2004-337596 A 特開2010−240000号公報JP 2010-240000 A

しかしながら、カプセル内視鏡は消化管の蠕動運動で移動するため、移動速度が一定ではなく、撮像時間から消化管上のカプセル内視鏡の位置を正確に判断することはできない。また、カプセル内視鏡の向きは絶えず変化するため、同じ位置で撮像した画像でも異なる箇所が撮影されていたり、まったく撮影されていない箇所があったりする。これらのことから、前述のタイムバー表示では、医師などの作業者は消化管内の撮像箇所を把握することが困難であり、さらに、撮像されていない非撮像箇所を見落とすことがある。   However, since the capsule endoscope moves by the peristaltic movement of the digestive tract, the moving speed is not constant, and the position of the capsule endoscope on the digestive tract cannot be accurately determined from the imaging time. In addition, since the direction of the capsule endoscope is constantly changing, different portions may be photographed or may not be photographed at all even in images captured at the same position. For these reasons, in the above-described time bar display, it is difficult for an operator such as a doctor to grasp the imaging location in the digestive tract, and the non-imaging location that is not imaged may be overlooked.

本発明が解決しようとする課題は、管状の器官内の撮像箇所を容易に把握することができ、さらに、撮像されていない非撮像箇所の見落としを防止することができる画像表示装置を提供することである。   The problem to be solved by the present invention is to provide an image display device that can easily grasp an imaging location in a tubular organ and can prevent oversight of a non-imaging location that is not imaged. It is.

実施形態に係る画像表示装置は、管状の器官内を移動して時系列で撮像する器官内撮像装置により撮像された複数の画像と、画像毎の器官内撮像装置の撮像位置及び撮像姿勢とを取得する取得部と、画像毎に医学的な異常の可能性を表した異常度を求める異常検出手段と、画像毎の撮像位置及び撮像姿勢を用いて、複数の画像を器官の延伸方向及び周方向に対応する複数の区分領域に分類する分類手段と、区分領域毎に画像の異常度を割り当てた展開図を生成する生成手段と、展開図を表示する表示部とを備える。   An image display device according to an embodiment includes a plurality of images captured by an intra-organ imaging device that moves in a tubular organ and images in time series, and an imaging position and an imaging posture of the intra-organ imaging device for each image. Using an acquisition unit to acquire, an abnormality detection means for obtaining an abnormality degree representing the possibility of a medical abnormality for each image, and an imaging position and an imaging posture for each image, a plurality of images are arranged in the extending direction and circumference of the organ. Classification means for classifying into a plurality of divided areas corresponding to directions, generation means for generating a developed view in which the degree of image abnormality is assigned to each divided area, and a display unit for displaying the developed view.

実施形態に係るカプセル内視鏡検査システムの概略構成を示すブロック図である。It is a block diagram showing a schematic structure of a capsule endoscopy system concerning an embodiment. 図1に示すカプセル内視鏡検査システムの画像表示装置が備える処理部が行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which the process part with which the image display apparatus of the capsule endoscopy system shown in FIG. 1 is provided. 消化管の中心線の推定処理を説明するための説明図である。It is explanatory drawing for demonstrating the estimation process of the centerline of a digestive tract. 消化管の区分処理に係る消化管の区画を説明するための説明図である。It is explanatory drawing for demonstrating the division of the digestive tract which concerns on the division | segmentation process of a digestive tract. 消化管の区分処理に係る消化管の区域を説明するための説明図である。It is explanatory drawing for demonstrating the area of the digestive tract which concerns on the division | segmentation process of a digestive tract. 消化管の区分領域とカプセル内視鏡の撮像視野との関係を説明するための説明図である。It is explanatory drawing for demonstrating the relationship between the division area | region of a digestive tract, and the imaging visual field of a capsule endoscope. 消化管の展開図に画像の異常度を示す展開画像を示す図である。It is a figure which shows the expansion | deployment image which shows the abnormal degree of an image in the expansion | deployment figure of a digestive tract. 図7に示す展開画像を含むカプセル内視鏡検査画面を示す図である。It is a figure which shows the capsule endoscopy screen containing the expansion | deployment image shown in FIG.

実施の一形態について図面を参照して説明する。   An embodiment will be described with reference to the drawings.

図1に示すように、本実施形態に係るカプセル内視鏡検査システム1は、管状の器官内を撮像する器官内撮像装置の一例であるカプセル内視鏡2と、そのカプセル内視鏡2からデータを受信する受信装置3と、その受信装置3のデータに基づいて器官内の画像を表示する画像表示装置4とを備えている。   As shown in FIG. 1, a capsule endoscopy system 1 according to the present embodiment includes a capsule endoscope 2 that is an example of an intra-organ imaging device that images a tubular organ, and the capsule endoscope 2. A receiving device 3 that receives data and an image display device 4 that displays an image in the organ based on the data of the receiving device 3 are provided.

カプセル内視鏡2は、管状の器官(例えば、消化管)内を照らす照明部2aと、管状の器官内を撮像する撮像部2bと、カプセル内視鏡2の撮像位置を検出する位置検出部2cと、その撮像位置でのカプセル内視鏡2の撮像姿勢を検出する姿勢検出部2dと、撮像した画像や撮像位置、撮像姿勢などの情報を体外の受信装置3に送信する送信部2eと、それら各部に電力を供給する電源部2fと、各部を制御する制御部2gとを備えている。これらの各部はカプセル筺体内に封入されている。   The capsule endoscope 2 includes an illumination unit 2a that illuminates the inside of a tubular organ (for example, the digestive tract), an imaging unit 2b that images the inside of the tubular organ, and a position detection unit that detects an imaging position of the capsule endoscope 2 2c, a posture detection unit 2d that detects the imaging posture of the capsule endoscope 2 at the imaging position, and a transmission unit 2e that transmits information such as the captured image, the imaging position, and the imaging posture to the reception device 3 outside the body. The power supply unit 2f that supplies power to each unit and the control unit 2g that controls each unit are provided. Each of these parts is enclosed in a capsule housing.

照明部2aは、撮像部2bによる撮像が可能に管状の器官内に光を照射する照明装置である。この照明部2aとしては、例えばLED(発光ダイオード)などが用いられる。なお、カプセル筺体は、内蔵する照明部2aにより器官の内壁に光照射を可能に、例えば先端部分を透明にして形成されている。   The illuminating unit 2a is an illuminating device that irradiates light into a tubular organ that can be imaged by the imaging unit 2b. As this illumination part 2a, LED (light emitting diode) etc. are used, for example. The capsule housing is formed with a transparent tip portion, for example, so that the internal wall of the organ can be irradiated with light by the built-in illumination unit 2a.

撮像部2bは、一定の時間間隔(一定の周期)の時系列で撮像を行う撮像装置である。この撮像部2bとしては、例えばCCD(電荷結合素子)カメラなどが用いられる。なお、カプセル筺体は、前述の照明部2aの光照射に加え、内蔵する撮像部2bにより器官の内壁を撮像可能に、例えば、前述のように先端部分を透明にして形成されている。   The imaging unit 2b is an imaging device that performs imaging in a time series with a constant time interval (a constant cycle). For example, a CCD (charge coupled device) camera or the like is used as the imaging unit 2b. In addition to the light irradiation of the illuminating unit 2a described above, the capsule housing is formed so that the inner wall of the organ can be imaged by the built-in imaging unit 2b.

位置検出部2cは、撮像部2bの撮像と同期してカプセル内視鏡2の撮像位置を検出する検出装置である。この撮像位置は、カプセル内視鏡2の空間的な位置であり、X軸、Y軸及びZ軸により決定される。この空間的な位置検出に関しては、例えば電磁波の強弱を用いた位置検出手段など、周知の様々な位置検出手段を用いることが可能である。   The position detection unit 2c is a detection device that detects the imaging position of the capsule endoscope 2 in synchronization with the imaging of the imaging unit 2b. This imaging position is a spatial position of the capsule endoscope 2 and is determined by the X axis, the Y axis, and the Z axis. For this spatial position detection, various known position detection means such as a position detection means using the strength of electromagnetic waves can be used.

姿勢検出部2dは、撮像部2bの撮像と同期して前述の撮像位置と共に、その撮像位置でのカプセル内視鏡2の撮像姿勢(すなわち撮像方向)を検出する検出装置である。この姿勢検出部2dとしては、例えば加速度センサやジャイロセンサなどを用いた姿勢検出部など、周知の様々な姿勢検出部を用いることが可能である。   The posture detection unit 2d is a detection device that detects the imaging posture (that is, the imaging direction) of the capsule endoscope 2 at the imaging position together with the above-described imaging position in synchronization with the imaging of the imaging unit 2b. As the posture detection unit 2d, various known posture detection units such as a posture detection unit using an acceleration sensor, a gyro sensor, or the like can be used.

送信部2eは、撮像部2bにより撮像された画像と、位置検出部2cにより検出されたカプセル内視鏡2の撮像位置及び姿勢検出部2dにより検出されたカプセル内視鏡2の撮像姿勢とを含む情報を無線で受信装置3に送信する送信装置である。この送信部2eとしては、例えば送信アンテナなどが用いられる。   The transmission unit 2e includes the image captured by the imaging unit 2b, the imaging position of the capsule endoscope 2 detected by the position detection unit 2c, and the imaging posture of the capsule endoscope 2 detected by the posture detection unit 2d. This is a transmission device that wirelessly transmits the included information to the reception device 3. For example, a transmission antenna is used as the transmission unit 2e.

電源部2fは、各部に電力を供給する電力供給装置である。この電源部2fとしては、例えばボタン型の電池などが用いられる。なお、電池は、検査時間に必要となる容量に応じて複数個設けられる。   The power supply unit 2f is a power supply device that supplies power to each unit. For example, a button-type battery is used as the power supply unit 2f. A plurality of batteries are provided according to the capacity required for the inspection time.

制御部2gは、照明部2aにより器官内を照射しながら撮像部2bにより一定の時間間隔(一定の周期)で器官の内壁を撮像する制御を行う。さらに、制御部2gは、撮像部2bにより撮像した画像、位置検出部2cにより検出した撮像位置、さらに、姿勢検出部2dにより検出した撮像姿勢(撮像方向)を含む情報を順次、送信部2eにより受信装置3に送信する制御を行う。   The control unit 2g performs control of imaging the inner wall of the organ at a constant time interval (a constant cycle) by the imaging unit 2b while irradiating the inside of the organ by the illumination unit 2a. Further, the control unit 2g sequentially transmits information including an image captured by the image capturing unit 2b, an image capturing position detected by the position detecting unit 2c, and an image capturing posture (image capturing direction) detected by the posture detecting unit 2d by the transmitting unit 2e. Control to transmit to the receiver 3 is performed.

このカプセル内視鏡2が患者によって飲み込まれると、カプセル内視鏡2は管状の器官内を蠕動運動により進みながら、一定の時間間隔(一定の周期)で撮像を行う。この撮像では、電源部2fからの電力により照射光が照明部2aから器官の内壁に照射され、その内壁により反射された反射光は撮像部2bにより光電変換され、画像データが生成される。このとき、位置検出部2cでは、画像データの生成と同期してカプセル内視鏡2の撮像位置が検出され、同様に、姿勢検出部2dでも、画像データの生成と同期してカプセル内視鏡2の撮像姿勢が検出される。これらの画像データ、カプセル内視鏡2の撮像位置及び撮像姿勢が送信部2eにより無線通信で患者の体外にある受信装置3に送信される。画像データの生成、位置検出部2cによる撮像位置の検出、姿勢検出部2dによる撮像姿勢の検出及びデータの送信は、制御部2gによる制御の下、一定の時間間隔(例えば、数フレーム/秒)で行われる。   When the capsule endoscope 2 is swallowed by a patient, the capsule endoscope 2 performs imaging at a constant time interval (a constant cycle) while moving in a tubular organ by a peristaltic motion. In this imaging, irradiation light is irradiated from the illumination unit 2a to the inner wall of the organ by the power from the power supply unit 2f, and the reflected light reflected by the inner wall is photoelectrically converted by the imaging unit 2b to generate image data. At this time, the position detection unit 2c detects the imaging position of the capsule endoscope 2 in synchronization with the generation of the image data. Similarly, the posture detection unit 2d also detects the capsule endoscope in synchronization with the generation of the image data. 2 imaging postures are detected. The image data, the imaging position and the imaging posture of the capsule endoscope 2 are transmitted to the receiving device 3 outside the patient's body by wireless communication by the transmission unit 2e. The generation of image data, the detection of the imaging position by the position detection unit 2c, the detection of the imaging posture by the posture detection unit 2d, and the transmission of data are controlled at a constant time interval (for example, several frames / second) under the control of the control unit 2g. Done in

受信装置3は、カプセル内視鏡2から送信された情報を無線で受信する受信アンテナなどの受信部3aと、その受信した情報を記憶するフラッシュメモリなどの記憶媒体3bとを備えている。この受信装置3では、前述のカプセル内視鏡2から送信された情報(画像データ、カプセル内視鏡2の撮像位置及び撮像姿勢を含む情報)が受信され、順次、記憶媒体3bに格納される。なお、記憶媒体3bは着脱可能であり、この記憶媒体3bが画像表示装置4に装着され、記憶媒体3b内の全情報が画像表示装置4に入力されることになる。   The receiving device 3 includes a receiving unit 3a such as a receiving antenna that wirelessly receives information transmitted from the capsule endoscope 2, and a storage medium 3b such as a flash memory that stores the received information. The receiving device 3 receives information (image data, information including the imaging position and imaging posture of the capsule endoscope 2) transmitted from the capsule endoscope 2, and sequentially stores the information in the storage medium 3b. . The storage medium 3b is detachable. The storage medium 3b is attached to the image display device 4, and all information in the storage medium 3b is input to the image display device 4.

画像表示装置4は、各部を集中的に制御する制御部4aと、各種プログラムや各種データなどを記憶する記憶部4bと、その記憶部4bから各種データを取得する取得部4cと、各種処理を行う処理部4dと、各種画像を表示する表示部4eと、医師などの作業者からの入力操作を受け付ける操作部4fとを備えている。この画像表示装置4はワークステーションとして機能する。   The image display device 4 includes a control unit 4a that centrally controls each unit, a storage unit 4b that stores various programs and various data, an acquisition unit 4c that acquires various data from the storage unit 4b, and various processes. A processing unit 4d to perform, a display unit 4e for displaying various images, and an operation unit 4f for receiving an input operation from an operator such as a doctor are provided. This image display device 4 functions as a workstation.

制御部4aは、記憶部4bに記憶された各種プログラムや各種データなどに基づいて各部を制御する。さらに、制御部4aは、記憶部4bに記憶された各種プログラムや各種データに基づいて一連のデータ処理や画像を表示する表示処理などを実行する。   The control unit 4a controls each unit based on various programs and various data stored in the storage unit 4b. Furthermore, the control unit 4a executes a series of data processing, display processing for displaying images, and the like based on various programs and various data stored in the storage unit 4b.

記憶部4bは、制御部4aのワークエリアとして機能するメモリに加え、各種プログラム及び各種データを記憶するメモリなどを有している。この記憶部4bとしては、例えばROMやRAM、磁気ディスク装置(HDD)、フラッシュメモリ(半導体ディスク装置)などが用いられる。この記憶部4bには、受信装置3の記憶媒体3b内の全情報(全画像の画像データ、カプセル内視鏡2の撮像位置及び撮像姿勢を含む情報)が記憶される。   The storage unit 4b includes a memory for storing various programs and various data in addition to a memory functioning as a work area for the control unit 4a. For example, a ROM, a RAM, a magnetic disk device (HDD), a flash memory (semiconductor disk device), or the like is used as the storage unit 4b. The storage unit 4b stores all information in the storage medium 3b of the receiving device 3 (information including image data of all images, the imaging position and the imaging posture of the capsule endoscope 2).

取得部4cは、記憶部4bから画像毎に、画像データ、カプセル内視鏡2の撮像位置及び撮像姿勢などの情報を取得し、処理部4dに送信する。なお、情報の取得は、例えば、医師などの作業者が操作部4fを入力操作して、処理部4dによる処理の実行を指示することに応じて行われる。   The acquisition unit 4c acquires information such as image data and the imaging position and imaging posture of the capsule endoscope 2 for each image from the storage unit 4b, and transmits the information to the processing unit 4d. The information is acquired in response to, for example, an operator such as a doctor performing an input operation on the operation unit 4f and instructing the processing unit 4d to execute the process.

処理部4dは、取得部4cから画像毎に、画像データ、カプセル内視鏡2の撮像位置及び撮像姿勢を受信し、画像毎の異常度を求め、求めた画像毎の異常度を示す器官展開図を生成し、生成した展開図を表示部4eに送信する。この処理部4dが、画像毎に医学的な異常の可能性を表した異常度を求める異常検出手段、複数の画像を器官の延伸方向及び周方向に対応する複数の区分領域に分類する分類手段及び区分領域毎に画像の異常度を割り当てた展開図を生成する生成手段として機能する(詳しくは、後述する)。   The processing unit 4d receives the image data, the imaging position and the imaging posture of the capsule endoscope 2 for each image from the acquisition unit 4c, obtains the degree of abnormality for each image, and displays the degree of abnormality for each obtained image. A diagram is generated, and the generated development diagram is transmitted to the display unit 4e. This processing unit 4d is an abnormality detecting means for obtaining the degree of abnormality representing the possibility of a medical abnormality for each image, and a classification means for classifying a plurality of images into a plurality of divided regions corresponding to the extending direction and circumferential direction of the organ. Also, it functions as a generation means for generating a development view in which the degree of image abnormality is assigned to each divided area (details will be described later).

表示部4eは、処理部4dから送信された展開図やその他の画像など、各種画像をカラー表示する表示装置である。この表示部4eとしては、例えば液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイなどが用いられる。   The display unit 4e is a display device that displays various images such as a development view and other images transmitted from the processing unit 4d in color. For example, a liquid crystal display or a CRT (Cathode Ray Tube) display is used as the display unit 4e.

操作部4fは、医師などの作業者により入力操作され、画像表示や画像の切り替え、設定変更などの各種の入力操作を受け付ける入力部である。この操作部4fとしては、例えばマウスやキーボードなどの入力デバイスが用いられる。   The operation unit 4f is an input unit that is input by a worker such as a doctor and receives various input operations such as image display, image switching, and setting change. As the operation unit 4f, for example, an input device such as a mouse or a keyboard is used.

次に、前述の画像表示装置4の処理部4dが行う処理について詳しく説明する。医師などの作業者が操作部4fを入力操作して処理部4dによる処理の実行を指示すると、以下の処理が実行される。なお、ここでは、管状の器官の一例として消化管に対する処理について説明する。   Next, processing performed by the processing unit 4d of the image display device 4 described above will be described in detail. When an operator such as a doctor performs an input operation on the operation unit 4f to instruct execution of processing by the processing unit 4d, the following processing is executed. Here, processing for the digestive tract as an example of a tubular organ will be described.

図2に示すように、まず、処理部4dは、カプセル内視鏡2の位置情報から消化管の中心線L1(図3参照)を推定する(ステップS1)。このステップS1では、記憶部4bに記憶されたカプセル内視鏡2の位置情報(画像毎の撮像位置)をもとに、図3に示すように、消化管の中心線L1を推定する。カプセル内視鏡2の位置情報は、撮像された画像枚数に相当する数の時系列の位置データである。先に述べたようにカプセル内視鏡2自体は消化管の蠕動運動によって移動するため、微視的には細かく揺らぎながら消化管の長手方向に進んでいくが、例えば、カプセル内視鏡2の移動平均を取って平滑化を行うことで、消化管の形状を推定することができ、さらに、例えば小腸のような細い消化管ではその中心線L1を推定することができる。   As shown in FIG. 2, the processing unit 4d first estimates the center line L1 (see FIG. 3) of the digestive tract from the position information of the capsule endoscope 2 (step S1). In this step S1, as shown in FIG. 3, the center line L1 of the digestive tract is estimated based on the position information (capture position for each image) of the capsule endoscope 2 stored in the storage unit 4b. The position information of the capsule endoscope 2 is time-series position data corresponding to the number of captured images. As described above, since the capsule endoscope 2 itself moves due to the peristaltic movement of the digestive tract, the capsule endoscope 2 advances in the longitudinal direction of the digestive tract while being finely shaken. By smoothing by taking a moving average, the shape of the digestive tract can be estimated, and the center line L1 can be estimated in a thin digestive tract such as the small intestine.

図2に戻り、処理部4dは、各画像の異常度を算出する(ステップS2)。このステップS2では、各画像を解析することによって画像毎に異常度を算出する。例えば、処理部4dは、画像内に赤色が有るか否かを判断し、赤色が無いと判断した場合、出血がなく、その画像の異常度は0(ゼロ)であると判定する。一方、赤色が有ると判断した場合には、出血があると判定し、次いで、赤色の濃度が所定値以上であるか否かを判断する。赤色の濃度が所定値以上であると判断した場合には、出血は凝固血であり、その画像の異常度は1であると判定する。一方、赤色の濃度が所定値より小さいと判断した場合には、出血は鮮血であり、その画像の異常度は2であると判定する。このようにして画像の異常度が判定される。なお、出血の出血領域により異常度レベルを決定するようにしても良く、例えば、赤色の面積が所定値以上であるか否かを判断し、赤色の面積が所定値以上であると判断した場合、その画像の異常度は2であると判定し、一方、赤色の面積が所定値より小さいと判断した場合には、その画像の異常度は1であると判定する。ただし、異常度の算出手段としては、前述に限るものではなく、周知の様々な解析手法を用いることが可能である。   Returning to FIG. 2, the processing unit 4d calculates the degree of abnormality of each image (step S2). In step S2, the degree of abnormality is calculated for each image by analyzing each image. For example, the processing unit 4d determines whether or not there is red in the image. If the processing unit 4d determines that there is no red, the processing unit 4d determines that there is no bleeding and the degree of abnormality of the image is 0 (zero). On the other hand, when it is determined that there is red, it is determined that there is bleeding, and then it is determined whether the density of red is equal to or higher than a predetermined value. When it is determined that the density of red is equal to or higher than the predetermined value, it is determined that the bleeding is coagulated blood and the degree of abnormality of the image is 1. On the other hand, when it is determined that the density of red is smaller than the predetermined value, it is determined that the bleeding is fresh blood and the degree of abnormality of the image is 2. In this way, the degree of abnormality of the image is determined. The abnormality level may be determined based on the bleeding area of the bleeding, for example, when it is determined whether the red area is equal to or greater than a predetermined value, and the red area is determined to be equal to or greater than the predetermined value. When the degree of abnormality of the image is determined to be 2, while it is determined that the red area is smaller than the predetermined value, it is determined that the degree of abnormality of the image is 1. However, the means for calculating the degree of abnormality is not limited to the above, and various known analysis methods can be used.

次いで、処理部4dは、各画像を消化管の各区分領域(区間及び区域)に分類する(ステップS3)。各区分領域は、図4に示すように、消化管の長手方向に沿った区間A(n)「n=自然数」と、図5に示すように、それらの一区間内での円周方向に沿った区域B(m)「m=自然数」(図5中では、一例としてm=1〜4とする)とに消化管を区分して設定されている。したがって、各区分領域はR(A(n),B(m))により特定される。このステップS3では、各画像を各区分領域に分類して振り分ける(詳しくは、後述する)。このとき、各画像の分類は、その画像を撮像した時のカプセル内視鏡2の撮像位置によるものではなく、その画像が消化管内においてどの区分領域(区間及び区域)の撮像画像であるかに依存する。なお、区分領域の数及び形状は限定されるものではない。   Next, the processing unit 4d classifies each image into each divided region (section and section) of the digestive tract (step S3). As shown in FIG. 4, each segmented region has a section A (n) “n = natural number” along the longitudinal direction of the digestive tract, and a circumferential direction within those sections as shown in FIG. 5. The gastrointestinal tract is set so as to be divided into a section B (m) along which “m = natural number” (in FIG. 5, m = 1 to 4 as an example). Therefore, each segment area is specified by R (A (n), B (m)). In step S3, each image is classified into each divided area and distributed (details will be described later). At this time, the classification of each image is not based on the imaging position of the capsule endoscope 2 when the image is captured, but to which segmented region (section and section) the image is the captured image in the digestive tract. Dependent. In addition, the number and shape of a division area are not limited.

ここで、前述の分類方法について詳しく説明する。処理部4dは、まず、図6に示すように、カプセル内視鏡2の撮像位置V0(X軸、Y軸及びZ軸により決まる位置)から前述のステップS1で求めた消化管の中心線L1に平行な線を延ばし、消化管中心線ベクトルV1とする。また、カプセル内視鏡2の撮像姿勢に基づいて撮像位置V0からの撮像方向を求め、撮像位置V0から撮像方向に線を延ばし、撮像方向ベクトルV2とする。ここで、カプセル内視鏡2は、消化管内を進行する際、その撮像面側が前方を向いた状態で進んでいくため、カプセル内視鏡2の撮像姿勢が分かれば、その撮像姿勢から撮像方向が判明することになる。   Here, the above-described classification method will be described in detail. First, as shown in FIG. 6, the processing unit 4d starts from the imaging position V0 of the capsule endoscope 2 (a position determined by the X axis, the Y axis, and the Z axis), and the center line L1 of the digestive tract obtained in step S1 described above A line parallel to is extended to be a digestive tract centerline vector V1. Further, an imaging direction from the imaging position V0 is obtained based on the imaging posture of the capsule endoscope 2, and a line is extended from the imaging position V0 to the imaging direction to obtain an imaging direction vector V2. Here, since the capsule endoscope 2 advances in a state where the imaging surface side faces forward when traveling in the digestive tract, if the imaging posture of the capsule endoscope 2 is known, the imaging direction is determined from the imaging posture. Will be revealed.

また、処理部4dは、消化管の中心線L1に沿って仮想的な消化管(管状の仮想器官)を推定し、その仮想の消化管をその延伸方向に沿って一定長さで分割し、それぞれを区間A(n)とし、加えて、それぞれの区間を円周方向に沿って等分し、それぞれを区域B(m)とし、各区分領域R(A(n),B(m))を設定する。ここで、消化管の推定に必要な情報、例えば消化管の太さ(年齢や体格に応じた平均的な太さ、あるいは、他の検査から得られた患者固有の太さ)などの情報は予め記憶部4bに記憶されている。なお、区間及び区域の分割は等分に限定されるものではない。   In addition, the processing unit 4d estimates a virtual digestive tract (tubular virtual organ) along the center line L1 of the digestive tract, divides the virtual digestive tract by a certain length along the extending direction, Each section is defined as a section A (n). In addition, each section is equally divided along the circumferential direction, each section is defined as a section B (m), and each divided region R (A (n), B (m)) Set. Here, information necessary for estimation of the digestive tract, such as the thickness of the digestive tract (average thickness according to age and physique, or patient-specific thickness obtained from other tests) It is stored in advance in the storage unit 4b. In addition, division of a section and an area is not limited to equal division.

次に、処理部4dは、撮像方向ベクトルV2に基づいてカプセル内視鏡2の撮像視野F1を求める。カプセル内視鏡2の視野角は前述の消化管の太さなどの情報と共に予め記憶部4bに記憶されており、処理部4dは、消化管の太さなどの情報を用いて撮像位置V0から消化管までの撮像方向に沿った距離(被写体距離)を算出し、その被写体距離と前述の視野角に基づいて、撮像視野F1、すなわち撮像領域を求める。なお、撮像視野F1自体が予め記憶部4bに記憶されていても良く、この場合、処理部4dはその撮像視野F1を記憶部4bから読み込んで用いる。   Next, the processing unit 4d obtains the imaging field F1 of the capsule endoscope 2 based on the imaging direction vector V2. The viewing angle of the capsule endoscope 2 is stored in advance in the storage unit 4b together with the information such as the thickness of the digestive tract described above, and the processing unit 4d uses the information such as the thickness of the digestive tract from the imaging position V0. The distance (subject distance) along the imaging direction to the digestive tract is calculated, and the imaging visual field F1, that is, the imaging area, is obtained based on the subject distance and the aforementioned viewing angle. The imaging field F1 itself may be stored in the storage unit 4b in advance, and in this case, the processing unit 4d reads the imaging field F1 from the storage unit 4b and uses it.

このように、カプセル内視鏡2の視野角や被写体距離、すなわち撮像視野F1を予め知ることが可能であることから、撮像位置V0から所定の視野角で撮影した場合に消化管内のどの区分領域(区間及び区域)が撮像されるかを算出することができる。ただし、カプセル内視鏡2の撮像方向ベクトルV2が消化管の中心線L1に対して傾き、その撮像視野F1が複数の区分領域にまたがっている場合には、ひとつの画像を領域分割して分類することも可能であるが、ここでは簡単のため、最も占有面積の大きな区分領域にその画像を分類することにする。なお、カプセル内視鏡2の撮像方向ベクトルV2が消化管の中心線L1にほぼ平行となり、カプセル内視鏡2が消化管内を直進する場合には、撮像視野F1が複数の区域(図6中では、四つの領域)にほぼ均等にまたがることになるため、ひとつの画像を領域分割(図6中では、四つに分割)して各区分領域に分類することにする。   As described above, since the viewing angle and subject distance of the capsule endoscope 2, that is, the imaging field of view F1, can be known in advance, any segmented region in the digestive tract when imaged at a predetermined viewing angle from the imaging position V0. It can be calculated whether (section and area) is imaged. However, when the imaging direction vector V2 of the capsule endoscope 2 is inclined with respect to the center line L1 of the digestive tract and the imaging field of view F1 extends over a plurality of divided regions, one image is divided into regions and classified. However, for the sake of simplicity, the image is classified into a segment area having the largest occupation area. When the imaging direction vector V2 of the capsule endoscope 2 is substantially parallel to the center line L1 of the digestive tract and the capsule endoscope 2 goes straight through the digestive tract, the imaging visual field F1 has a plurality of areas (in FIG. 6). In this case, the image data is almost equally spread over four regions), and therefore, one image is divided into regions (divided into four regions in FIG. 6) and classified into respective divided regions.

ここで、図6の例では、撮像位置V0から撮像された画像は、区間A(a)及び区域B(1)により決まる区分領域R(A(a),B(1))に分類される。この分類が全画像に対して実施される。これにより、全画面が各区分領域に割り当てられるが、区分領域の中には、複数個の画像が割り当てられる区分領域も存在することになる。   Here, in the example of FIG. 6, the image captured from the imaging position V0 is classified into segmented regions R (A (a), B (1)) determined by the section A (a) and the section B (1). . This classification is performed on all images. As a result, the entire screen is assigned to each divided area, but there are also divided areas to which a plurality of images are assigned.

図2に戻り、処理部4dは、同一区分領域(区間及び区域)の画像群における異常度を算出する(ステップS4)。このステップS4では、同一区分領域に分類された画像群に対して、統合的な異常度を算出する。前述のステップS2で各画像の異常度が算出されているので、例えば同一区分領域に分類された画像群の異常度の平均値あるいは最大値を統合的な異常度として算出する。   Returning to FIG. 2, the processing unit 4d calculates the degree of abnormality in the image group of the same segmented area (section and section) (step S4). In step S4, an integrated abnormality degree is calculated for the image groups classified into the same segmented area. Since the degree of abnormality of each image is calculated in the above-described step S2, for example, the average value or the maximum value of the degree of abnormality of the image group classified into the same segmented area is calculated as an integrated abnormality degree.

次に、処理部4dは、消化管の各区分領域を示す展開図に各画像の異常度をマッピングする(ステップS5)。このステップS5では、前述のステップS2あるいはステップS4で算出した各区分領域の異常度を展開図上にマッピングする。この展開図は、図7に示すように、横方向のセルが区間を表し、縦方向のセルが区域を表す。例えば、ある区分領域(区間及び区域)の画像に異常があると判断された場合には、その区分領域に相当するセルに色(図7中では、ハッチングで示す)を付ける。このとき、異常度によって色を変える(図7中では、ハッチングの違いで示す)。なお、異常度がゼロである(異常が無い)場合には、そのセルに特定の色(図7中では、白のベタ塗りで示す)を付ける。このようにして、画像が有る区分領域に対応するセルには、異常度を示す色が付けられ、異常度が割り当てられる。また、前述のステップS3の結果、ひとつも分類される画像が存在しない区分領域(区間及び区域)に対しては、その区分領域に対応するセル、すなわち異常度が割り当てられていないセルに特定の色(図7中では、黒のベタ塗りで示す)を付ける。このように画像が無い区分領域に対応するセルには、画像が無いことを示す色が付けられる。   Next, the processing unit 4d maps the degree of abnormality of each image to a development view showing each divided region of the digestive tract (step S5). In step S5, the degree of abnormality of each segmented area calculated in step S2 or step S4 described above is mapped on the development view. In this development view, as shown in FIG. 7, the cells in the horizontal direction represent sections, and the cells in the vertical direction represent sections. For example, when it is determined that there is an abnormality in an image of a certain divided area (section and section), a color (shown by hatching in FIG. 7) is added to a cell corresponding to the divided area. At this time, the color is changed depending on the degree of abnormality (in FIG. 7, it is indicated by a difference in hatching). If the degree of abnormality is zero (no abnormality), a specific color (shown in white in FIG. 7) is assigned to the cell. In this way, the cell corresponding to the segmented area where the image is present is assigned a color indicating the degree of abnormality, and the degree of abnormality is assigned. In addition, as a result of the above-described step S3, for a segmented region (section and segment) in which no image to be classified exists, a cell corresponding to the segmented region, that is, a cell to which no abnormality is assigned is specified. A color (shown in black in FIG. 7) is added. As described above, a color indicating that there is no image is given to the cell corresponding to the divided area where there is no image.

その後、このような異常度及び画像の有無を示す展開図、すなわち展開図画像が表示部4eにより表示される。展開図は、消化管を切り開いたような擬似的な展開図であり、特に、縦横を複数セルに分割しており、ひとつのセルにはその場所を撮影した画像群の総合的な異常度が色付け表示されている。また、セルに対応する画像が存在しない場合には、それがわかる色付け表示が行われている。これにより、消化管の異常箇所やその程度を一覧で観察することができる。さらに、セルの分割は時間ではなく距離に対応しているため、異常箇所の広がりを確認することができ、加えて、管状の器官内の撮像箇所及び撮像されなかった非撮像箇所を一覧で正確に確認することができる。特に、展開図は後続の内視鏡検査における見取り図となり、管状の器官内の撮像箇所を容易に把握することができ、さらに、見落としを防ぐこともできる。その結果、手技の正確性及び安全性を向上させることができる。   Thereafter, a development view showing the degree of abnormality and the presence or absence of an image, that is, a development view image is displayed on the display unit 4e. The developed view is a pseudo-developed view as if the digestive tract was cut open. In particular, the vertical and horizontal directions are divided into multiple cells. It is colored. In addition, when there is no image corresponding to the cell, a colored display for understanding the image is performed. Thereby, the abnormal part of the digestive tract and its extent can be observed in a list. Furthermore, since the division of cells corresponds to distance rather than time, the spread of abnormal locations can be confirmed, and in addition, the imaging location in the tubular organ and the non-imaging location that was not imaged are accurately listed. Can be confirmed. In particular, the developed view becomes a sketch in the subsequent endoscopy, so that the imaging location in the tubular organ can be easily grasped, and oversight can be prevented. As a result, the accuracy and safety of the procedure can be improved.

なお、図8に示すように、カプセル内視鏡検査画像G1では、展開図画像G2及びメイン画像G3が連携されて表示される。展開図画像G2は、消化管の内壁を示す画像(医用画像)そのものではなく画像の異常度に従って色付けしたカラーマップである。このため、診断においては展開図画像G2だけではなく、実際に撮像された画像(医用画像)であるメイン画像G3も参照する必要がある。したがって、医師などの作業者が展開図中の区分領域R(A(a),B(1))に相当するセルをマウスなどの操作部4fにより選択すると、区分領域R(A(a),B(1))に対応したメイン画像G3が表示される。このメイン画像G3としては、例えば、区分領域R(A(a),B(1))に分類された画像群のサムネイルや、区分領域R(A(a),B(1))の異常度を決定する上で優先された代表画像などが表示される。なお、セルは複数同時に選択されても良い。一方、メイン画像G3の表示を切り替えることで、その画像が分類されている区分領域(区間及び区域)に相当するセルをハイライト表示するようにしても良い。   As shown in FIG. 8, in the capsule endoscopy image G1, the development image G2 and the main image G3 are displayed in cooperation. The developed image G2 is a color map colored according to the degree of abnormality of the image, not the image (medical image) itself showing the inner wall of the digestive tract. For this reason, in diagnosis, it is necessary to refer not only to the developed image G2 but also to the main image G3 that is an actually captured image (medical image). Therefore, when an operator such as a doctor selects a cell corresponding to the segmented region R (A (a), B (1)) in the developed view using the operation unit 4f such as a mouse, the segmented region R (A (a), A main image G3 corresponding to B (1)) is displayed. As the main image G3, for example, thumbnails of image groups classified into the segmented region R (A (a), B (1)) and the degree of abnormality of the segmented region R (A (a), B (1)). A representative image or the like prioritized in determining the image is displayed. A plurality of cells may be selected simultaneously. On the other hand, by switching the display of the main image G3, cells corresponding to the divided areas (sections and sections) in which the image is classified may be highlighted.

以上説明したように、本実施形態によれば、画像表示装置4の処理部4dにより、画像毎に医学的な異常の可能性を表した異常度を求め、画像毎のカプセル内視鏡2の撮像位置及び撮像姿勢を用いて、複数の画像を例えば消化管などの管状の器官の延伸方向及び周方向に対応する複数の区分領域に分類し、区分領域毎に画像の異常度を割り当てた展開図を生成し、その生成した展開図を表示部4eにより表示する。これにより、展開図は通常のタイムバー表示と異なり、消化管を切り開いたような画像となり、区分領域毎に画像の異常点及び有無を示すため、消化管の異常箇所やその程度を一覧で観察することが可能となる。特に、区分領域の分割は時間ではなく距離に対応しているため、異常箇所の広がりを確認することも可能となる。加えて、管状の器官内の撮像箇所及び撮像されなかった非撮像箇所を一覧で正確に確認することが可能となる。したがって、管状の器官内の撮像箇所を容易に把握することができ、さらに、撮像されていない非撮像箇所の見落としを防止することができる。   As described above, according to the present embodiment, the processing unit 4d of the image display device 4 obtains the degree of abnormality representing the possibility of a medical abnormality for each image, and the capsule endoscope 2 for each image. Using the imaging position and orientation, multiple images are classified into multiple segment areas corresponding to the stretching direction and circumferential direction of a tubular organ such as the digestive tract, and an image abnormality level is assigned to each segment area. A diagram is generated, and the developed view is displayed on the display unit 4e. As a result, unlike the normal time bar display, the developed view looks like an image that opens up the digestive tract, and shows the abnormal points and extent of the digestive tract in a list to show the abnormal points and presence of the images for each segmented area. It becomes possible to do. In particular, since the division of the divided area corresponds to the distance instead of the time, it is possible to check the spread of the abnormal part. In addition, it is possible to accurately confirm the imaging location in the tubular organ and the non-imaging location that was not imaged in a list. Therefore, the imaging location in the tubular organ can be easily grasped, and further, oversight of a non-imaging location that is not imaged can be prevented.

また、画像毎にカプセル内視鏡2の撮像位置及び撮像姿勢を用いて撮像位置を基準とするカプセル内視鏡2の撮像視野F1を求め、求めた画像毎のカプセル内視鏡2の撮像視野F1に応じて複数の画像を各区分領域に分類することによって、各画像を正確に各区分領域に分類することが可能となり、より正確に撮像箇所や非撮像箇所を把握することができる。なお、この分類方法としては、カプセル内視鏡2の撮像視野F1を用いること以外にも、カプセル内視鏡2の撮像姿勢に基づいて撮像位置を基準とする撮像方向を求め、その撮像位置から撮像方向に延びる直線(撮像方向ベクトル)と、管状の器官の内壁との交点を用いるようにしても良い。ただし、管状の器官には多数の湾曲部分が存在しているため、前述の撮像視野F1を用いた方が分類精度は高くなる。   In addition, the imaging field F1 of the capsule endoscope 2 with respect to the imaging position is obtained using the imaging position and the imaging posture of the capsule endoscope 2 for each image, and the imaging field of the capsule endoscope 2 for each obtained image. By classifying a plurality of images into each segmented area according to F1, it is possible to classify each image into each segmented area accurately, and to grasp an imaging location and a non-imaging location more accurately. In addition to using the imaging field of view F1 of the capsule endoscope 2, as this classification method, an imaging direction based on the imaging position is obtained based on the imaging posture of the capsule endoscope 2, and from the imaging position. You may make it use the intersection of the straight line (imaging direction vector) extended in an imaging direction, and the inner wall of a tubular organ. However, since the tubular organ has a large number of curved portions, the classification accuracy is higher when the above-described imaging field of view F1 is used.

また、画像毎の撮像位置に基づいて管状の器官の延伸方向に延びる器官の中心線L1を求め、求めた中心線L1を軸心とする管状の仮想器官を求め、求めた仮想器官をその延伸方向及び周方向に区分して複数の区分領域に分割することによって、実際の器官経路に則した分割を行うことが可能になるので、より正確な各区分領域に画像を分類することができ、結果として、より正確に画像の異常点及び有無を示す展開図を得ることができる。   Further, the center line L1 of the organ extending in the extending direction of the tubular organ is obtained based on the imaging position for each image, the tubular virtual organ whose axis is the obtained center line L1 is obtained, and the obtained virtual organ is extended. By dividing into directions and circumferential directions and dividing into a plurality of divided regions, it becomes possible to divide according to the actual organ path, so it is possible to classify images into more accurate divided regions, As a result, it is possible to obtain a developed view showing the abnormal points and presence / absence of the image more accurately.

また、同じ区分領域に画像を複数個分類した場合には、その区分領域の画像群の異常度の平均値又は最大値を求め、その区分領域に画像の異常度(画像群の総合的な異常度)として割り当てることによって、複数個の画像が同じ区分領域に分類された場合でも、区分領域毎の異常度を展開図に正確に示すことが可能となるので、より正確に画像の異常点を示す展開図を得ることができ、結果として、より正確な観察を行うことができる。   In addition, when multiple images are classified into the same segmented area, the average value or maximum value of the degree of abnormality of the image group in the segmented area is obtained, and the degree of image abnormality (total abnormality of the image group) is calculated in the segmented area. As a result, even if multiple images are classified into the same segmented area, the degree of abnormality for each segmented area can be accurately shown in the development view, so that the abnormal point of the image can be more accurately identified. The developed view shown can be obtained, and as a result, more accurate observation can be performed.

以上、本発明の一実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although one embodiment of the present invention has been described above, this embodiment is presented as an example and is not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

2 カプセル内視鏡(器官内撮像装置)
4 画像表示装置
4c 取得部
4d 処理部
4e 表示部
2 Capsule endoscope (Intra-organ imaging device)
4 image display device 4c acquisition unit 4d processing unit 4e display unit

Claims (4)

管状の器官内を移動して時系列で撮像する器官内撮像装置により撮像された複数の画像と、前記画像毎の前記器官内撮像装置の撮像位置及び撮像姿勢とを取得する取得部と、
前記画像毎に医学的な異常の可能性を表した異常度を求める異常検出手段と、
前記画像毎の前記撮像位置及び前記撮像姿勢を用いて、前記複数の画像を前記器官の延伸方向及び周方向に対応する複数の区分領域に分類する分類手段と、
前記区分領域毎に前記画像の異常度を割り当てた展開図を生成する生成手段と、
前記展開図を表示する表示部と、
を備えることを特徴とする画像表示装置。
An acquisition unit that acquires a plurality of images captured by an intra-organ imaging device that moves in a tubular organ and images in time series, and an imaging position and an imaging posture of the intra-organ imaging device for each image;
Abnormality detection means for obtaining an abnormality degree representing the possibility of a medical abnormality for each image,
Classifying means for classifying the plurality of images into a plurality of segment regions corresponding to the extending direction and the circumferential direction of the organ using the imaging position and the imaging posture for each image;
Generating means for generating a development view in which the degree of abnormality of the image is assigned to each of the divided areas;
A display unit for displaying the developed view;
An image display device comprising:
前記分類手段は、前記画像毎に前記撮像位置及び前記撮像姿勢を用いて前記撮像位置を基準とする前記器官内撮像装置の撮像視野を求め、求めた前記画像毎の前記器官内撮像装置の撮像視野に応じて前記複数の画像を前記複数の区分領域に分類することを特徴とする請求項1記載の画像表示装置。   The classification means obtains an imaging field of view of the intra-organ imaging device with respect to the imaging position using the imaging position and the imaging orientation for each image, and images the intra-organ imaging device for each obtained image. The image display device according to claim 1, wherein the plurality of images are classified into the plurality of divided regions according to a field of view. 前記分類手段は、前記画像毎の撮像位置に基づいて前記器官の延伸方向に延びる前記器官の中心線を求め、求めた前記中心線を軸心とする管状の仮想器官を求め、求めた前記仮想器官をその延伸方向及び周方向に区分して前記複数の区分領域に分割することを特徴とする請求項1又は2記載の画像表示装置。   The classification means obtains a center line of the organ extending in the extending direction of the organ based on an imaging position for each image, obtains a tubular virtual organ having the obtained center line as an axis, and obtains the obtained virtual 3. The image display device according to claim 1, wherein the organ is divided into the plurality of divided regions by dividing the organ into the extending direction and the circumferential direction. 前記分類手段は、同じ前記区分領域に前記画像を複数個分類した場合、その区分領域の画像群の前記異常度の平均値又は最大値を求め、前記区分領域に前記画像の異常度として割り当てることを特徴とする請求項1、2又は3記載の画像表示装置。   When the plurality of images are classified into the same segmented area, the classifying unit obtains an average value or a maximum value of the degree of abnormality of the image group of the segmented area, and assigns it to the segmented area as the degree of abnormality of the image. The image display device according to claim 1, 2, or 3.
JP2011098030A 2011-04-26 2011-04-26 Image display device Withdrawn JP2012228346A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011098030A JP2012228346A (en) 2011-04-26 2011-04-26 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011098030A JP2012228346A (en) 2011-04-26 2011-04-26 Image display device

Publications (1)

Publication Number Publication Date
JP2012228346A true JP2012228346A (en) 2012-11-22

Family

ID=47430445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011098030A Withdrawn JP2012228346A (en) 2011-04-26 2011-04-26 Image display device

Country Status (1)

Country Link
JP (1) JP2012228346A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014192512A1 (en) * 2013-05-31 2014-12-04 オリンパスメディカルシステムズ株式会社 Medical device
JP2015204948A (en) * 2014-04-18 2015-11-19 オリンパス株式会社 Capsule endoscope system, capsule endoscope, receiving device, imaging control method for capsule endoscope, and program
JP2016063868A (en) * 2014-09-22 2016-04-28 オリンパス株式会社 Image display device, image display method, and image display program
WO2019003597A1 (en) * 2017-06-26 2019-01-03 オリンパス株式会社 Image processing device, capsule endoscope system, method for operating image processing device, and program for operating image processing device
WO2020203705A1 (en) * 2019-04-02 2020-10-08 Hoya株式会社 Electronic endoscope system and data processing device
JP2021141969A (en) * 2020-03-10 2021-09-24 独立行政法人国立病院機構 Endoscope device
JP2022010852A (en) * 2020-06-29 2022-01-17 キヤノンメディカルシステムズ株式会社 Surgery support system and surgery support method
WO2023175916A1 (en) * 2022-03-18 2023-09-21 オリンパスメディカルシステムズ株式会社 Medical assistance system and image display method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014192512A1 (en) * 2013-05-31 2014-12-04 オリンパスメディカルシステムズ株式会社 Medical device
JP5676063B1 (en) * 2013-05-31 2015-02-25 オリンパスメディカルシステムズ株式会社 Medical device and method of operating medical device
JP2015204948A (en) * 2014-04-18 2015-11-19 オリンパス株式会社 Capsule endoscope system, capsule endoscope, receiving device, imaging control method for capsule endoscope, and program
US10159403B2 (en) 2014-04-18 2018-12-25 Olympus Corporation Capsule endoscope system, capsule endoscope, reception apparatus, imaging control method of capsule endoscope, and computer readable storage device
JP2016063868A (en) * 2014-09-22 2016-04-28 オリンパス株式会社 Image display device, image display method, and image display program
WO2019003597A1 (en) * 2017-06-26 2019-01-03 オリンパス株式会社 Image processing device, capsule endoscope system, method for operating image processing device, and program for operating image processing device
WO2020203705A1 (en) * 2019-04-02 2020-10-08 Hoya株式会社 Electronic endoscope system and data processing device
CN112930136A (en) * 2019-04-02 2021-06-08 Hoya株式会社 Electronic endoscope system and data processing device
JPWO2020203705A1 (en) * 2019-04-02 2021-06-10 Hoya株式会社 Electronic endoscopy system and data processing equipment
CN112930136B (en) * 2019-04-02 2023-07-25 Hoya株式会社 Electronic endoscope system and data processing device
US12011142B2 (en) 2019-04-02 2024-06-18 Hoya Corporation Electronic endoscope system
JP2021141969A (en) * 2020-03-10 2021-09-24 独立行政法人国立病院機構 Endoscope device
JP2022010852A (en) * 2020-06-29 2022-01-17 キヤノンメディカルシステムズ株式会社 Surgery support system and surgery support method
JP7658724B2 (en) 2020-06-29 2025-04-08 キヤノンメディカルシステムズ株式会社 Surgery support system and operation method of the support system
WO2023175916A1 (en) * 2022-03-18 2023-09-21 オリンパスメディカルシステムズ株式会社 Medical assistance system and image display method

Similar Documents

Publication Publication Date Title
JP2012228346A (en) Image display device
JP5676058B1 (en) Endoscope system and method for operating endoscope system
US8353816B2 (en) Endoscopy system and method therefor
JP5771757B2 (en) Endoscope system and method for operating endoscope system
US7603160B2 (en) Intra-subject position display system
US9517001B2 (en) Capsule endoscope system
US9661995B2 (en) Capsule endoscope system, operating method of image display, and computer-readable recording medium
JP5750669B2 (en) Endoscope system
JP6411834B2 (en) Image display apparatus, image display method, and image display program
JP6141559B1 (en) Medical device, medical image generation method, and medical image generation program
US10835113B2 (en) Method and apparatus for travelled distance measuring by a capsule camera in the gastrointestinal tract
US20140163357A1 (en) Position detection apparatus, capsule endoscope system, and computer-readable recording medium
US12342082B2 (en) Program, information processing method, and endoscope system for generating a composite endoscopic image
US20240233310A1 (en) Information processing apparatus, information processing system and method for processing information
KR20230134765A (en) Method for detecting and displaying gastric lesion using machine learning and device for the same
JP2016077683A (en) Receiving device and capsule-type endoscope system
JP2009089910A (en) Imaging direction discriminating apparatus, imaging direction discriminating method, imaging direction discriminating program, and computer-readable recording medium recording the imaging direction discriminating program
Abu-Kheil et al. Trajectory analysis of endoscopic capsule images: A feasibility study

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701