[go: up one dir, main page]

JP2008301877A - Apparatus and program for processing image - Google Patents

Apparatus and program for processing image Download PDF

Info

Publication number
JP2008301877A
JP2008301877A JP2007149120A JP2007149120A JP2008301877A JP 2008301877 A JP2008301877 A JP 2008301877A JP 2007149120 A JP2007149120 A JP 2007149120A JP 2007149120 A JP2007149120 A JP 2007149120A JP 2008301877 A JP2008301877 A JP 2008301877A
Authority
JP
Japan
Prior art keywords
tube
image
region
movement amount
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007149120A
Other languages
Japanese (ja)
Other versions
JP5408843B2 (en
Inventor
Yamato Kanda
大和 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2007149120A priority Critical patent/JP5408843B2/en
Priority to PCT/JP2008/059363 priority patent/WO2008149674A1/en
Priority to EP08753040.8A priority patent/EP2163183A4/en
Publication of JP2008301877A publication Critical patent/JP2008301877A/en
Priority to US12/621,122 priority patent/US8107704B2/en
Application granted granted Critical
Publication of JP5408843B2 publication Critical patent/JP5408843B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To estimate the amount of movement of an imaging device in a lumen by a simple structure. <P>SOLUTION: An arithmetic section 13 acquires image data of an image captured by the imager 2 moving through the lumen of the body of a subject 1 from a portable recording medium 4 mounted on an external interface 10. A movement estimation section 13d estimates the amount of movement of the imaging device 2 in the lumen by processing the image of the interior of the lumen. A position estimation section 13e estimates the position of the imaging device 2 in the lumen at the time when the image of the interior of the lumen is captured on the basis of the amount of movement of the imaging device 2 estimated by the movement estimation section 13d. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、体内の管空内を移動する撮像機により撮像された時系列の管空内画像をもとに、撮像機の管空内での位置を推定することができる画像処理装置および画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus and an image that can estimate the position of the image pickup device in the tube based on the time-series tube image taken by the image pickup device that moves inside the tube in the body. It relates to a processing program.

近年、カプセル型内視鏡に代表されるように、消化管等の体内の管空内を移動しながら時系列の管空内画像を順次撮像する医用の撮像機が開発されている。この撮像機は、患者の口から飲み込まれた後、管空内を蠕動運動等により移動しながら順次画像を撮像して体外の受信装置に送信し、最終的に体外に排出される。医師は、体外の受信装置で受信した時系列の管空内画像を診断用のワークステーション等で確認し、患部を発見した場合には、必要に応じて再度患者の体内に医療処置具を挿入したり、患者の体を切開する等して、組織採取や止血、患部切除といった医療処置をおこなう。   In recent years, as represented by a capsule endoscope, a medical imaging machine that sequentially captures time-series images in a tube while moving in a tube such as a digestive tract has been developed. After being swallowed from the patient's mouth, the imager sequentially captures images while moving in the tube by a peristaltic motion and the like, transmits them to an external receiver, and is finally discharged out of the body. The doctor confirms the time-series in-pipe images received by the external receiving device on a diagnostic workstation, etc., and if he finds the affected area, insert the medical treatment tool into the patient's body again if necessary. Or incising the patient's body to perform medical procedures such as tissue sampling, hemostasis, and excision of the affected area.

このような医療処置を効率よく行うためには、目標の患部が管空内のどこにあるのかという情報が必要となるが、撮像機が患部を撮像した場合、撮像時の撮像機の位置は患部の付近に相当する。したがって、撮像時の撮像機の位置を把握しておけば、患部の位置を推定することができる。   In order to perform such medical treatment efficiently, information on where the target affected part is in the tube is necessary. However, when the image pickup device picks up the affected part, the position of the image pickup unit at the time of imaging is the affected part. It corresponds to the vicinity of. Therefore, if the position of the imaging device at the time of imaging is grasped, the position of the affected part can be estimated.

撮像時の撮像機の位置に関する情報は、体内での空間的な座標よりも、管空の入口や出口、あるいは特定の臓器の開始位置または終了位置から管空に沿ってどの程度の位置で撮像したのかという情報が有用である。例えば、小腸のように体内で形を変える臓器では、撮像時の撮像機の位置を座標で把握しても、臓器が変形してしまうと、特定した位置と実際の患部の位置とが一致しなくなる。撮像時の撮像機の位置を、管空の入口等の基点からの距離によって把握すれば、臓器が変形した場合であっても患部の位置を知ることができる。ここで、カプセル型内視鏡の管空内における所定の位置からの移動量を算出するものとしては、撮像機内にある磁界発生用の単心コイルにより発生した磁界を、体外に配置した複数のコイルによって検出することによって求めるものが知られている(特許文献1参照)。   Information on the position of the imager at the time of imaging is taken at the position along the tube from the entrance and exit of the tube, or the start position or end position of a specific organ, rather than the spatial coordinates in the body. Information on whether or not it was done is useful. For example, in an organ whose shape changes in the body, such as the small intestine, even if the position of the imaging device at the time of imaging is grasped by coordinates, if the organ is deformed, the specified position matches the actual position of the affected part. Disappear. If the position of the imaging device at the time of imaging is grasped by the distance from the base point such as the entrance of the tube, the position of the affected part can be known even when the organ is deformed. Here, the amount of movement of the capsule endoscope from a predetermined position in the tube is calculated by using a plurality of magnetic fields generated by a single-core coil for generating a magnetic field in the imaging device arranged outside the body. What is calculated | required by detecting with a coil is known (refer patent document 1).

特開2005−198789号公報JP 2005-198789 A

しかしながら、特許文献1では、所定の位置からのカプセル型内視鏡の移動量を求めるために、カプセル型内視鏡内に単心コイルを設ける必要があり、カプセル型内視鏡が大型化するという問題がある。また、患者の体外に移動量検出用のコイルを配置せねばならず、システムの構成が複雑化し、コストが増大するという問題もある。   However, in Patent Document 1, in order to obtain the amount of movement of the capsule endoscope from a predetermined position, it is necessary to provide a single core coil in the capsule endoscope, which increases the size of the capsule endoscope. There is a problem. In addition, a coil for detecting the amount of movement must be disposed outside the patient's body, which complicates the system configuration and increases the cost.

本発明は、上記に鑑みてなされたものであって、簡易な構成によって撮像機の管空内での移動量を推定することができる画像処理装置および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus and an image processing program capable of estimating the amount of movement of the image pickup device in the tube with a simple configuration. .

上述した課題を解決し、目的を達成するため、この発明にかかる画像処理装置は、体内の管空内を移動する撮像機により撮像された時系列の管空内画像を処理して、撮像機の移動量を推定する撮像機移動量推定手段を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention processes a time-series tube image captured by an imager that moves inside a tube in the body, An image pickup device movement amount estimation means for estimating the movement amount of the image pickup device is provided.

また、この発明にかかる画像処理プログラムは、コンピュータに、体内の管空内を移動する撮像機により撮像された時系列の管空内画像を処理して、撮像機の移動量を推定する撮像機移動量推定ステップ、前記撮像機移動量推定ステップで複数枚の前記管空内画像を処理することで推定した複数の移動量の値を累積することにより、各管空内画像を撮像した際の前記管空内での前記撮像機の位置を推定する位置推定ステップ、を実行させることを特徴とする。   In addition, an image processing program according to the present invention is a computer that processes a time-series image in a tube taken by a camera that moves inside a tube in the body and estimates the amount of movement of the imager. By accumulating a plurality of movement amount values estimated by processing a plurality of the tube interior images in the movement amount estimation step and the imaging device movement amount estimation step, each of the tube interior images is captured. A position estimating step of estimating a position of the imaging device in the tube.

また、この発明にかかる画像処理プログラムは、体内の管空内を移動する撮像機により撮像された時系列の管空内画像を処理するコンピュータに、異なる時刻の管空内画像において管空内の所定部位を抽出する所定部位抽出ステップ、前記所定部位の位置をもとに前記撮像機の移動量を推定する移動量推定ステップ、を実行させることを特徴とする。   In addition, an image processing program according to the present invention allows a computer that processes time-series tube images captured by an imaging device moving in a tube in the body to store the tube images in the tube images at different times. A predetermined part extracting step for extracting a predetermined part and a movement amount estimating step for estimating a movement amount of the imaging device based on the position of the predetermined part are executed.

本発明に係る画像処理装置によれば、撮像機が時系列で撮像した画像を処理することによって撮像機の体内の管空内での移動量を推定することができるので、撮像機の管空内での位置の推定を、簡易な構成によって実現できる。   According to the image processing apparatus of the present invention, it is possible to estimate the amount of movement of the image pickup device in the tube by processing the images taken in time series by the image pickup device. The position can be estimated with a simple configuration.

以下、本発明を実施するための最良の形態である画像処理装置について、図面を参照して説明する。   Hereinafter, an image processing apparatus which is the best mode for carrying out the present invention will be described with reference to the drawings.

(実施の形態)
図1は、本発明の実施の形態である画像処理装置を含む画像処理得システムの全体構成を示す概略模式図である。なお、本実施の形態では、体内の管空内の画像(以下、管空内画像という。)を撮像する撮像機の一例として、カプセル型内視鏡を用いる。このカプセル型内視鏡は、撮像機能や無線機能、撮像部位を照明する照明機能等を具備するものであって、例えば、検査のために人や動物等の被検体の口から飲込まれて被検体内部に導入される。そして、自然排出されるまでの間、食道、胃、小腸、大腸等の内部の管空内画像を順次撮像して取得し、体外に無線送信する。
(Embodiment)
FIG. 1 is a schematic diagram showing the overall configuration of an image processing acquisition system including an image processing apparatus according to an embodiment of the present invention. Note that in this embodiment, a capsule endoscope is used as an example of an imaging device that captures an image of the inside of the body (hereinafter referred to as an intraluminal image). This capsule endoscope has an imaging function, a wireless function, an illumination function for illuminating an imaging part, and is swallowed from the mouth of a subject such as a person or an animal for examination. It is introduced into the subject. And until it is spontaneously discharged, it sequentially captures and obtains intraluminal images inside the esophagus, stomach, small intestine, large intestine, etc., and wirelessly transmits it outside the body.

図1に示すように、画像処理システムは、被検体1内部の管空内画像を撮像する撮像機(カプセル型内視鏡)2、撮像機2から無線送信される管空内画像データを受信する受信装置3、受信装置3によって受信された管空内画像をもとに、撮像機2によって撮像された管空内画像を処理する画像処理装置5等を備える。受信装置3と画像処理装置5との間の管空内画像のデータの受け渡しには、例えば携帯型の記録媒体(携帯型記録媒体)4が使用される。   As shown in FIG. 1, the image processing system receives an intravascular image data wirelessly transmitted from an imaging device (capsule endoscope) 2 that captures an intraluminal image inside the subject 1 and the imaging device 2. A receiving device 3 that includes the image processing device 5 that processes the intraluminal image captured by the imaging device 2 based on the intraluminal image received by the receiving device 3. For example, a portable recording medium (portable recording medium) 4 is used for the transfer of the intraluminal image data between the receiving device 3 and the image processing device 5.

受信装置3は、被検体1の体外表面に貼付される複数の受信用アンテナ群A1〜Anを介して撮像機2から送信された無線信号を受信する無線ユニット3aと、無線ユニット3aが受信した無線信号の処理等をおこなう受信本体ユニット3bとを備え、無線ユニット3aと受信本体ユニット3bとは、コネクタ等を介して着脱可能に接続される。この受信装置3は、携帯型記録媒体4の着脱が自在に構成されており、撮像機2によって撮像された被検体1内部の管空内画像の画像データを受信し、時系列順に携帯型記録媒体4に蓄積する。本実施の形態では、携帯型記録媒体4に、管空の入口での時刻t(0)から、管空の出口での時刻t(T)までの間に撮像された管空内画像の画像データが時系列順に蓄積されることとする。ここで、管空の入口での時刻t(0)は、例えば撮像機2が被検体内部に導入された時刻に相当し、管空の出口における時刻t(T)は、撮像機2が体外に排出された時刻に相当する。   The receiving device 3 receives a wireless signal transmitted from the imaging device 2 via a plurality of receiving antenna groups A1 to An attached to the external surface of the subject 1, and the wireless unit 3a receives the wireless signal. And a receiving body unit 3b for processing a wireless signal. The wireless unit 3a and the receiving body unit 3b are detachably connected via a connector or the like. The receiving device 3 is configured so that the portable recording medium 4 can be freely attached and detached. The receiving device 3 receives the image data of the intraluminal image inside the subject 1 imaged by the imaging device 2 and performs portable recording in time series. Accumulate in medium 4. In the present embodiment, an image of the tube interior image captured on the portable recording medium 4 from the time t (0) at the entrance of the tube to the time t (T) at the exit of the tube. It is assumed that data is accumulated in chronological order. Here, the time t (0) at the entrance of the tube is equivalent to, for example, the time when the imaging device 2 is introduced into the subject, and the time t (T) at the exit of the tube is outside the body. It corresponds to the time when it was discharged.

画像処理装置5は、携帯型記録媒体4を着脱自在に装着し、この携帯型記録媒体4に蓄積された管空内画像の画像データを取得する外部インターフェース10と、画像処理装置5全体の動作を制御する制御部11と、記憶部12と、管空内画像をもとにその撮像時における撮像機2の位置を推定するための種々の演算処理を行う演算部13と、各種の指示情報を入力する入力部14と、演算部13の演算結果等を表示出力する表示部15とを備える。   The image processing apparatus 5 is detachably mounted with a portable recording medium 4, and an external interface 10 that acquires image data of an intraluminal image stored in the portable recording medium 4 and the overall operation of the image processing apparatus 5. A control unit 11 that controls the image, a storage unit 12, a calculation unit 13 that performs various calculation processes for estimating the position of the image pickup device 2 at the time of imaging based on the image in the tube, and various instruction information Is input, and a display unit 15 that displays and outputs the calculation result of the calculation unit 13 and the like.

記憶部12は、更新記憶可能なフラッシュメモリ等のROMやRAMといった各種ICメモリ、内蔵或いはデータ通信端子で接続されたハードディスク、CD−ROM等の情報記憶媒体及びその読取装置等によって実現されるものであり、画像処理装置5の動作に係るプログラムや、画像処理装置5の備える種々の機能を実現するためのプログラム、これらプログラムの実行に係るデータ等が格納される。また、演算部13が管空内画像を処理して撮像時の撮像機2の位置を推定するための画像処理プログラム12aが格納される。   The storage unit 12 is realized by various IC memories such as ROM and RAM such as flash memory that can be updated and stored, a hard disk connected by a built-in or data communication terminal, an information storage medium such as a CD-ROM, and a reading device thereof. A program relating to the operation of the image processing apparatus 5, a program for realizing various functions of the image processing apparatus 5, data relating to execution of these programs, and the like are stored. In addition, an image processing program 12a is stored for the calculation unit 13 to process the image in the tube and estimate the position of the imaging device 2 at the time of imaging.

演算部13は、構造領域抽出部13aと、対応領域抽出部13bと、管空深部抽出部13cと、移動量推定部13dと、位置推定部13eとを備える。構造領域抽出部13aは、管空内を移動する撮像機2によって撮像された一の管空内画像の中から、構造領域を抽出する。対応領域抽出部13bは、一の管空内画像とは異なる時刻に撮像された他の管空内画像の中から、構造領域抽出部13aによって一の管空内画像の中から抽出された構造領域に対応する対応領域を抽出する。管空深部抽出部13cは、一の管空内画像の中から、撮像機2の進行方向奥側の管空部分(以下、「管空深部」と称す。)を抽出する。移動量推定部13dは、一の管空内画像中の構造領域と、他の管空内画像中の対応領域と、管空深部との位置関係をもとに、一の管空内画像の撮像時から他の管空内画像の撮像時までに移動した撮像機2の移動量を推定する。位置推定部13eは、移動量推定部13dによって推定された撮像機2の移動量をもとに、各管空内画像が撮像された際の管空内での撮像機2の位置を推定する。   The calculation unit 13 includes a structure region extraction unit 13a, a corresponding region extraction unit 13b, a duct depth extraction unit 13c, a movement amount estimation unit 13d, and a position estimation unit 13e. The structure region extraction unit 13a extracts a structure region from one tube interior image captured by the image pickup device 2 moving in the tube. The corresponding region extraction unit 13b extracts the structure extracted from the one intraluminal image by the structural region extraction unit 13a from the other intraluminal image captured at a time different from that of the one intraductal image. A corresponding area corresponding to the area is extracted. The tubular deep part extracting unit 13c extracts a tubular part (hereinafter referred to as “pipe deep part”) on the far side in the traveling direction of the image pickup device 2 from one tubular image. Based on the positional relationship between the structural region in one tube image, the corresponding region in the other tube image, and the deep tube portion, the movement amount estimation unit 13d The amount of movement of the image pickup device 2 that has moved from the time of imaging to the time of imaging of another image in the tube is estimated. The position estimation unit 13e estimates the position of the image pickup device 2 in the tube air when each tube image is picked up based on the movement amount of the image pickup device 2 estimated by the movement amount estimation unit 13d. .

図2は、画像処理装置5の演算部13が行う演算処理手順を示す全体フローチャートである。なお、ここで説明する処理は、演算部13が記憶部12に格納された画像処理プログラム12aを実行することにより実現される。   FIG. 2 is an overall flowchart showing a calculation processing procedure performed by the calculation unit 13 of the image processing apparatus 5. Note that the processing described here is realized by the arithmetic unit 13 executing the image processing program 12a stored in the storage unit 12.

図2に示すように、演算部13は、先ず、処理対象の管空内画像の時系列順序を示す符号iを「0」に初期化する(ステップS101)。そして、演算部13は、外部インターフェース10および制御部11を介して処理対象の管空内画像である時刻t(i)の管空内画像と、この管空内画像と時系列的に連続する管空内画像である時刻t(i+1)の管空内画像とを取得する(ステップS102)。なお、ここでは、時系列的に連続する管空内画像を取得することとしたが、互いの管空内画像に管空内の共通部分が映る場合であれば、必ずしも時系列的に連続した管空内画像を取得する必要はない。   As shown in FIG. 2, the calculation unit 13 first initializes a code i indicating the time-series order of the target intraluminal images to “0” (step S <b> 101). Then, the calculation unit 13 continues through the external interface 10 and the control unit 11 in time-series with the tube image at time t (i), which is the tube image to be processed, and the tube image. A tube interior image at time t (i + 1), which is a tube interior image, is acquired (step S102). In addition, although it was decided here to acquire the tube images that are continuous in time series, if the common part in the tube images is reflected in each tube image, it is not always continuous in time series. There is no need to acquire a tube image.

図3は、撮像機2によって撮像された管空内画像の一例を示す図である。管空内画像には、管空内の粘膜(以下、「管空粘膜」と称す。)21、管空内を浮遊する内容物22や泡23等に加え、撮像機2の進行方向奥側の管空深部24が映る。なお、撮像機2によって撮像される管空内画像は、各画素位置においてR(赤),G(緑),B(青)の各色成分に対する画素レベル(画素値)を持つカラー画像である。   FIG. 3 is a diagram illustrating an example of an intraluminal image captured by the imaging device 2. In the tube interior image, in addition to the mucosa (hereinafter referred to as “tubule mucosa”) 21 in the tube lumen, the contents 22 floating in the tube lumen, the bubbles 23 and the like, the back side in the traveling direction of the image pickup device 2 This shows the deep tube section 24. The intraluminal image captured by the imaging device 2 is a color image having pixel levels (pixel values) for the respective color components of R (red), G (green), and B (blue) at each pixel position.

そして、図2に示すように、構造領域抽出部13aが時刻t(i)の管空内画像の中から構造領域を抽出する構造領域抽出処理を実行し(ステップS103)、対応領域抽出部13bが時刻t(i+1)の管空内画像の中から対応領域を抽出する対応領域抽出処理を実行し(ステップS104)、管空深部抽出部13cが時刻t(i),t(i+1)の各管空内画像の中から管空深部を抽出する管空深部抽出処理を実行し(ステップS105)、移動量推定部13dが時刻t(i)からt(i+1)までの撮像機2の移動量を推定する移動量推定処理を実行する(ステップS106)。   Then, as shown in FIG. 2, the structural region extraction unit 13a executes a structural region extraction process for extracting the structural region from the tube image at time t (i) (step S103), and the corresponding region extraction unit 13b. Executes a corresponding region extraction process for extracting a corresponding region from the image in the tube at time t (i + 1) (step S104), and the tube deep portion extraction unit 13c performs each of the times t (i) and t (i + 1). Tube depth extraction processing is performed to extract the tube depth from the tube inner image (step S105), and the amount of movement of the image pickup device 2 from the time t (i) to t (i + 1) is determined by the movement amount estimation unit 13d. The movement amount estimation process for estimating the value is executed (step S106).

そして、ステップS106の移動量推定処理の後、演算部13が、時系列順序を示す符号をインクリメントしてi=i+1とし(ステップS107)、次に処理対象とする時刻t(i)の管空内画像の有無をt(i)≦t(T)により判定する。ここで、t(T)は、処理対象とする管空内画像に係る最終の時刻である。t(i)≦t(T)の場合には(ステップS108:Yes)、ステップS101〜ステップS107の処理を再度実行する。なお、時系列的に連続した管空内画像を処理する場合には、ステップS105の管空深部抽出処理によって時刻t(i+1)の管空内画像から抽出した管空深部を記憶部12に保持しておくことにより、次にこの時刻t(i+1)の管空内画像を時刻t(i)の管空内画像としてステップS102からステップS107の処理を再度実行する場合に、これを利用することができ、これによって計算負荷を軽減できる。一方、t(i)>t(T)の場合には(ステップS108:No)、ステップS109に移行し、位置推定部13eが各管空内画像が撮像された際の撮像機2の位置を推定する位置推定処理を実行する(ステップS109)。そして、演算部13が、位置推定処理の結果に基づいて、各管空内画像が撮像された際の管空内での撮像機2の位置情報を出力して(ステップS110)、画像処理装置5における演算部13の演算処理を終了する。例えば、演算部13は、制御部11を介して位置情報を表示部15に表示出力させる。   Then, after the movement amount estimation process in step S106, the calculation unit 13 increments the code indicating the time series order to i = i + 1 (step S107), and the tube at time t (i) to be processed next. The presence / absence of the inner image is determined by t (i) ≦ t (T). Here, t (T) is the final time relating to the intraluminal image to be processed. If t (i) ≦ t (T) (step S108: Yes), the processing from step S101 to step S107 is executed again. In addition, when processing tube-in-tube images continuous in time series, the tube-in-pipe portion extracted from the tube-in-tube image at time t (i + 1) by the tube-in-tube deep portion extraction process in step S105 is stored in the storage unit 12. By using this, the tube image at time t (i + 1) is used as the tube image at time t (i), and this is used when the processing from step S102 to step S107 is executed again. This can reduce the calculation load. On the other hand, when t (i)> t (T) (step S108: No), the process proceeds to step S109, and the position estimation unit 13e determines the position of the image pickup device 2 when each tube aerial image is captured. A position estimation process for estimation is executed (step S109). Then, based on the result of the position estimation process, the calculation unit 13 outputs position information of the image pickup device 2 in the tube when each tube image is captured (step S110), and the image processing device 5 finishes the calculation process of the calculation unit 13. For example, the calculation unit 13 causes the display unit 15 to display and output position information via the control unit 11.

次に、演算部13の各部が実行する処理について、詳細に説明する。先ず、図2のステップS103による構造領域抽出処理について説明する。この構造領域抽出処理では、構造領域抽出部13aは、時刻t(i)の管空内画像の中から複数の構造領域を抽出する。構造領域とは、異なる時刻に撮像された管空内画像間(この処理では、図2のステップS102で取得された時刻(i)の管空内画像と、この管空内画像と時系列的に連続する時刻(i+1)の管空内画像との間)で対応付けが可能な領域であり、例えば、管空粘膜上の局所的な部位を特徴付ける構造(以下、「特徴構造」と称す。)が映る領域である。通常管空粘膜にはしわがあり、表面には部分的に血管が透けて見えるのが一般的である。これら管空粘膜のしわや表面に透けて見える血管は、各部で形状が異なり他とは識別が可能なので、特徴構造といえる。構造領域抽出部13aは、これら特徴構造が明確に映る領域を抽出する。   Next, processing executed by each unit of the calculation unit 13 will be described in detail. First, the structure region extraction process in step S103 of FIG. 2 will be described. In this structure area extraction process, the structure area extraction unit 13a extracts a plurality of structure areas from the in-tube image at time t (i). The structure region is a region between tube images taken at different times (in this process, the tube images at time (i) acquired in step S102 in FIG. 2 and the tube images and time series Between the images at the time (i + 1) that are continuous with each other) and can be associated with each other, for example, a structure that characterizes a local part on the tubular mucous membrane (hereinafter referred to as “characteristic structure”). ). Generally, there is a wrinkle in the tubular mucous membrane, and it is common that blood vessels are partially seen through the surface. These wrinkles of the luminal mucosa and blood vessels that can be seen through the surface are different in shape from each other and can be distinguished from others, and thus can be said to be characteristic structures. The structure region extraction unit 13a extracts a region where these feature structures are clearly reflected.

図4は、構造領域抽出処理の詳細な処理手順を示すフローチャートである。構造領域抽出部13aは、例えば、時刻t(i)の管空内画像の左上位置を初期位置として所定サイズの矩形領域を設定し、この矩形領域の位置を所定量ずつずらしながら管空内画像の右下位置まで走査させることにより、この時刻t(i)の管空内画像中の構造領域を探索する。   FIG. 4 is a flowchart showing a detailed processing procedure of the structure area extraction processing. For example, the structural region extraction unit 13a sets a rectangular region of a predetermined size with the upper left position of the tube inner image at time t (i) as an initial position, and shifts the position of the rectangular region by a predetermined amount while moving the tube inner image. By scanning to the lower right position of the image, the structural region in the image in the tube at this time t (i) is searched.

先ず、構造領域抽出部13aは、時刻t(i)の管空内画像上の初期位置に所定サイズの矩形領域を設定する(ステップS301)。そして、構造領域抽出部13aは、設定した矩形領域内の色に関する特徴量を求める(ステップS302)。ここで、色に関する特徴量とは、例えば、設定した矩形領域内のRGB平均値やRGBヒストグラム、或いは矩形領域内の各画素のRGB値から2次的に計算される色比,色差,色相,彩度等の平均値やヒストグラム等である。   First, the structure area extraction unit 13a sets a rectangular area of a predetermined size at an initial position on the image in the tube at time t (i) (step S301). Then, the structure area extraction unit 13a obtains a feature amount related to the color in the set rectangular area (step S302). Here, the color-related feature amount is, for example, an RGB average value or RGB histogram in a set rectangular area, or a color ratio, color difference, hue, or the like that is secondarily calculated from the RGB values of each pixel in the rectangular area. An average value such as saturation and a histogram.

次に、構造領域抽出部13aは、ステップS302で求めた矩形領域内の色に関する特徴量と、予め設定した管空粘膜の色に関する特徴量との類似度を算出する(ステップS303)。例えば、構造領域抽出部13aは、互いの特徴量を各々一つの特徴ベクトルと考えた場合のベクトル先端間の距離や、ベクトル同士のなす角の余弦等を、類似度として算出する。   Next, the structural region extraction unit 13a calculates the similarity between the feature amount relating to the color in the rectangular region obtained in step S302 and the preset feature amount relating to the color of the tubular mucosa (step S303). For example, the structural region extraction unit 13a calculates, as the similarity, a distance between vector tips, a cosine of an angle formed by the vectors, and the like when each feature amount is considered as one feature vector.

次に、構造領域抽出部13aは、ステップS303で算出した類似度と、予め閾値として設定される基準類似度とを比較し、設定した矩形領域が管空粘膜上の領域かを判定する。例えば、構造領域抽出部13aは、算出した類似度が基準類似度以上ならば、設定した矩形領域が管空粘膜を映した領域と判定し(ステップS304:Yes)、ステップS305に移行する。一方、算出した類似度が基準類似度未満の場合には、設定した矩形領域が、例えば内容物や泡を映した領域であって、管空粘膜を映した領域ではないと判定し(ステップS304:No)、ステップS306に移行する。   Next, the structure area extraction unit 13a compares the similarity calculated in step S303 with a reference similarity set in advance as a threshold, and determines whether the set rectangular area is an area on the tubular mucous membrane. For example, if the calculated similarity is greater than or equal to the reference similarity, the structural region extraction unit 13a determines that the set rectangular region is a region that reflects the tubular mucosa (step S304: Yes), and proceeds to step S305. On the other hand, if the calculated similarity is less than the reference similarity, it is determined that the set rectangular area is, for example, an area showing contents or bubbles, and is not an area showing the tubular mucous membrane (step S304). : No), the process proceeds to step S306.

ステップS305では、構造領域抽出部13aは、矩形領域内の画素値の分布範囲を算出する。算出された分布範囲は、現時点での矩形領域の位置に係る情報と対応付けられて記憶部12に保持される。画素値の分布範囲としては、矩形領域内のRGB色成分毎の画素値の分布範囲を算出して、これらの中から最も広い分布範囲を選出することとしてもよいし、特定の色成分の分布範囲を算出してもよい。得られた分布範囲が狭い場合には、矩形領域内の画素値は一様な状態であり、特徴構造が映っている可能性は低い。一方、得られた分布範囲が広い場合には、矩形領域に特徴構造が映っている可能性が高い。なお、画素値の分布範囲は、矩形領域内の全画素を用いて算出しなくてもよい。例えば、矩形領域内の所定方向の画素列の画素値を用いて分布範囲を算出してもよいし、直交する2方向の画素列の画素値を用いて分布範囲を算出してもよく、結果として矩形領域内の全画素を用いて算出する場合と比べて計算負荷を軽減することができる。   In step S305, the structure area extraction unit 13a calculates a distribution range of pixel values in the rectangular area. The calculated distribution range is stored in the storage unit 12 in association with information on the position of the rectangular area at the current time. As the distribution range of pixel values, the distribution range of pixel values for each RGB color component in the rectangular area may be calculated, and the widest distribution range may be selected from these, or the distribution of specific color components A range may be calculated. When the obtained distribution range is narrow, the pixel values in the rectangular area are in a uniform state, and it is unlikely that the feature structure is reflected. On the other hand, when the obtained distribution range is wide, there is a high possibility that the feature structure is reflected in the rectangular area. The pixel value distribution range may not be calculated using all the pixels in the rectangular area. For example, the distribution range may be calculated using pixel values of pixel columns in a predetermined direction within the rectangular area, or the distribution range may be calculated using pixel values of two orthogonal pixel columns. As compared with the case where the calculation is performed using all the pixels in the rectangular area, the calculation load can be reduced.

そして、構造領域抽出部13aは、時刻t(i)の管空内画像上での設定領域の走査が終了するまで(ステップS306:No)、矩形領域の位置を変更し(ステップS307)、ステップS302〜ステップS306の処理を繰り返し実行する。そして、時刻t(i)の管空内画像上での設定領域の走査が終了した場合には(ステップS306:Yes)、ステップS308に移行する。ステップS308では、構造領域抽出部13aは、ステップS305で分布範囲を算出した矩形領域の中から、その分布範囲が広いものから順に所定数個を選出し、特徴構造が映る構造領域として抽出する。このとき、各構造領域が重ならないように矩形領域を選出する。選出された構造領域に係るデータは、記憶部12に保持される。そして、構造領域抽出部13aは、図2のステップS103にリターンする。   Then, the structural region extraction unit 13a changes the position of the rectangular region (step S307) until the scanning of the setting region on the tube inner image at time t (i) ends (step S306: No). The processes from S302 to S306 are repeatedly executed. Then, when the scanning of the set area on the image in the tube at time t (i) is completed (step S306: Yes), the process proceeds to step S308. In step S308, the structural region extraction unit 13a selects a predetermined number from the rectangular region whose distribution range has been calculated in step S305 in order from the wide distribution range, and extracts it as a structural region in which the feature structure is reflected. At this time, a rectangular area is selected so that the structure areas do not overlap. Data relating to the selected structure area is held in the storage unit 12. Then, the structure area extraction unit 13a returns to step S103 in FIG.

図5は、構造領域抽出処理の結果を示す模式図であり、図3に例示した管空内画像を時刻t(i)の管空内画像として構造領域抽出処理を行った結果抽出された構造領域の一例を示している。図5の例では、構造領域として、4つの構造領域T1,T4,T3,T4が抽出されており、この構造領域抽出処理によって、管空内に浮遊する内容物22や泡23等が映る領域を避け、しわや血管を含む管空粘膜の領域21の特徴構造が映る構造領域が抽出される。   FIG. 5 is a schematic diagram showing the result of the structure area extraction process. The structure extracted as a result of the structure area extraction process using the tube interior image illustrated in FIG. 3 as the tube interior image at time t (i). An example of the area is shown. In the example of FIG. 5, four structural regions T1, T4, T3, and T4 are extracted as the structural regions, and by this structural region extraction processing, the contents 22 and bubbles 23 that float in the tube are reflected. , And a structural region in which the characteristic structure of the region 21 of the hollow mucosa including wrinkles and blood vessels is reflected is extracted.

次に、図2のステップS104による対応領域抽出処理について説明する。この対応領域抽出処理では、対応領域抽出部13bは、時刻t(i+1)の管空内画像の中から、構造領域抽出処理の結果時刻t(i)の管空内画像の中から抽出された各構造領域と同一箇所と判断される領域を、対応領域として抽出する。具体的には、対応領域抽出部13bは、構造領域抽出処理によって抽出された各構造領域をテンプレートに設定し、公知のテンプレートマッチング処理を行って、時刻t(i+1)の管空内画像から、各テンプレートに類似する領域を検出する。テンプレートマッチングの手法としては、例えば、“CG−ARTS協会,ディジタル画像処理,202p,テンプレートマッチング”で開示された手法を用いることができる。なお、マッチングの探索範囲は各テンプレートの中心座標(xj,yj)(j=1,2,・・・,N(N:テンプレート数))を中心に、管空内画像の時系列的な変化量を考慮して設定すればよい。また高速化のために、疎密探索法、残差逐次検討法等を用いても良い。例えば、“CG−ARTS協会,ディジタル画像処理,206p,高速探索法”で開示された手法を用いることができる。結果的に、時刻t(i)の管空内画像の中から抽出した各構造領域それぞれに対応するテンプレート毎に、時刻t(i+1)の管空内画像の中から最も類似する領域の座標(xj’,yj’)と、その類似度とが得られる。マッチング時の類似度が低いテンプレートに関しては、同一箇所と判断せずに、対応領域として抽出しない。また、このようにマッチングの結果対応領域が抽出されなかった構造領域は、以後の処理で使用しない。 Next, the corresponding area extraction process in step S104 of FIG. 2 will be described. In the corresponding region extraction process, the corresponding region extraction unit 13b is extracted from the tube image at time t (i) as a result of the structure region extraction process from the tube image at time t (i + 1). An area determined to be the same as each structural area is extracted as a corresponding area. Specifically, the corresponding region extraction unit 13b sets each structural region extracted by the structural region extraction process as a template, performs a known template matching process, and from the tube inner image at time t (i + 1), A region similar to each template is detected. As a template matching method, for example, the method disclosed in “CG-ARTS Association, Digital Image Processing, 202p, Template Matching” can be used. The matching search range is centered on the center coordinates (x j , y j ) (j = 1, 2,..., N (N: number of templates)) of each template in time series of the tube interior image. It may be set in consideration of the amount of change. Further, in order to increase the speed, a sparse / dense search method, a residual successive examination method, or the like may be used. For example, the technique disclosed in “CG-ARTS Association, Digital Image Processing, 206p, Fast Search Method” can be used. As a result, for each template corresponding to each structural region extracted from the tube interior image at time t (i), the coordinates of the most similar region from the tube interior image at time t (i + 1) ( x j ', y j ') and their similarity. A template having a low similarity at the time of matching is not determined as the same portion and is not extracted as a corresponding region. In addition, the structure area in which the corresponding area is not extracted as a result of matching is not used in the subsequent processing.

図6は、対応領域抽出処理の結果を示す模式図であり、図5に例示した管空内画像と時系列的に連続するt(i+1)の管空内画像をもとに、各構造領域T1〜T4をそれぞれテンプレートとしてマッチングを行った結果抽出された対応領域の一例を示している。図6の例では、図5の構造領域T1に対応する対応領域T1’、構造領域T2に対応する対応領域T2’、構造領域T3に対応する対応領域T3’、構造領域T4に対応する対応領域T4’が、それぞれ抽出されている。また、図6において、各テンプレートの探索範囲ST1’〜ST4’を破線によって示している。例えば、図5に示すt(i)の管空内画像中の構造領域T1に着目すれば、この構造領域T1をテンプレートとしたマッチングが、図6に示すt(i+1)の管空内画像中の破線で示す探索範囲ST1’で行われ、検出された類似度の高い領域が対応領域T1’として抽出される。   FIG. 6 is a schematic diagram showing the result of the corresponding region extraction process. Each structural region is based on the tube interior image of t (i + 1) time-sequentially continuous with the tube interior image illustrated in FIG. An example of corresponding areas extracted as a result of matching using T1 to T4 as templates is shown. In the example of FIG. 6, the corresponding region T1 ′ corresponding to the structural region T1 in FIG. 5, the corresponding region T2 ′ corresponding to the structural region T2, the corresponding region T3 ′ corresponding to the structural region T3, and the corresponding region corresponding to the structural region T4. T4 ′ is extracted. In FIG. 6, the search ranges ST1 'to ST4' for each template are indicated by broken lines. For example, if attention is paid to the structure region T1 in the tube interior image at t (i) shown in FIG. 5, matching using the structure region T1 as a template is performed in the tube interior image at t (i + 1) shown in FIG. A region having a high degree of similarity is extracted as the corresponding region T1 ′.

次に、図2のステップS105による管空深部抽出処理について説明する。この管空深部抽出処理では、管空深部抽出部13cは、時刻t(i),t(i+1)の各管空内画像の中から、管空深部を抽出し、その重心位置を算出する。管空深部は、撮像機2から距離が離れているため、撮像機2からの照明が届きにくく、暗い領域として得られる。この暗い画素が集まっている領域を管空深部として抽出し、その重心位置を求める。なお、図3,5,6に示す管空内画像では、管空を理解し易いように模式的に管空深部の中心を明るく示しているが、実際には中心部分も暗い。管空深部抽出部13cは、時刻t(i),t(i+1)の各管空内画像の中から暗い画素が集まる領域(暗部)を管空深部として抽出し、その重心位置を求める。   Next, the tube-pipe deep part extraction process by step S105 of FIG. 2 is demonstrated. In the tube deep portion extraction process, the tube deep portion extractor 13c extracts the tube deep portion from the tube interior images at times t (i) and t (i + 1), and calculates the position of the center of gravity. Since the distance from the image pickup device 2 is far away from the image pickup device 2, it is difficult for the illumination from the image pickup device 2 to reach the tube deep portion and is obtained as a dark region. The area where the dark pixels are gathered is extracted as the deep tube portion, and the position of the center of gravity is obtained. In the tube interior images shown in FIGS. 3, 5, and 6, the center of the deep tube portion is schematically shown bright so that the tube space can be easily understood, but the center portion is actually dark. The deep tube portion extraction unit 13c extracts a region (dark portion) where dark pixels gather from the tube internal images at times t (i) and t (i + 1) as the deep tube portion, and obtains the position of the center of gravity.

図7は、管空深部抽出処理の詳細な処理手順を示すフローチャートである。管空深部抽出部13cは、時刻t(i)の管空内画像およびt(i+1)の管空内画像をそれぞれ処理対象とし、ループAの処理をそれぞれ実行する(ステップS501〜ステップS506)。ここで、ループA内の処理の説明において、処理対象とする管空内画像を「対象管空内画像」と称す。   FIG. 7 is a flowchart showing a detailed processing procedure of the deep tube extraction processing. The deep tube portion extraction unit 13c executes the processing of loop A with the tube internal image at time t (i) and the tube internal image at t (i + 1) as processing targets (steps S501 to S506). Here, in the description of the processing in the loop A, the tube interior image to be processed is referred to as “target tube interior image”.

ループAでは、先ず、対象管空内画像を構成する各画素のG値と、予め設定される所定の閾値とを比較し、対象管空内画像の各画素の中から、G値が所定の閾値以下の画素を暗部画素として抽出する(ステップS502)。ここでG値を用いるのは、血液中のヘモグロビンの吸収帯域の波長に近く、感度や解像度が高いことから、対象管空内画像の明暗情報をよく表すためである。なお、G値以外の色成分の値を用いて暗部画素を抽出することとしてもよい。あるいは、公知の変換技術を用いて算出した明暗情報を示す値を用いて暗部画素を抽出することとしてもよい。例えば、YCbCr変換によって算出した輝度や、HSI変換によって算出した明度を用いることができる。また、G値に対して予め設定される所定の閾値を設定することとしたが、対象管空内画像を構成する各画素のG値分布を算出し、公知の判別分析法等を用いて設定することとしてもよい。判別分析法の手法としては、例えば、“CG−ARTS協会,ディジタル画像処理,175p,判別分析法”で開示された手法を用いることができる。   In the loop A, first, the G value of each pixel constituting the target tube aerial image is compared with a predetermined threshold value, and the G value is determined from among the pixels of the target tube aerial image. Pixels below the threshold are extracted as dark pixels (step S502). The G value is used here because it is close to the wavelength of the absorption band of hemoglobin in the blood and has high sensitivity and resolution, and therefore expresses the light / dark information of the target tube aerial image well. Note that the dark pixel may be extracted using the value of the color component other than the G value. Or it is good also as extracting a dark part pixel using the value which shows the brightness information calculated using the well-known conversion technique. For example, the brightness calculated by YCbCr conversion and the brightness calculated by HSI conversion can be used. Also, a predetermined threshold value set in advance for the G value is set. However, the G value distribution of each pixel constituting the target tube aerial image is calculated and set using a known discriminant analysis method or the like. It is good to do. As the method of discriminant analysis, for example, the method disclosed in “CG-ARTS Association, Digital Image Processing, 175p, Discriminant Analysis” can be used.

続いて、管空深部抽出部13cは、ステップS502で抽出した暗部画素に対して公知のラベリング処理を行って、隣接する暗部画素群に固有の値(ラベル)を付ける(ステップS503)。これにより、対象管空内画像中の暗部領域を認識することができる。ラベリング処理の手法としては、例えば、“CG−ARTS協会,ディジタル画像処理,181p,ラベリング”で開示された手法を用いることができる。   Subsequently, the deep tube extraction unit 13c performs a known labeling process on the dark pixel extracted in step S502, and attaches a unique value (label) to the adjacent dark pixel group (step S503). Thereby, the dark part area | region in a target tube aerial image can be recognized. As a labeling processing method, for example, the method disclosed in “CG-ARTS Association, Digital Image Processing, 181p, Labeling” can be used.

続いて、管空深部抽出部13cは、ステップS503で認識した対象管空内画像中の各暗部領域の面積をそれぞれ算出し、面積が最も大きい暗部領域を管空深部として抽出する(ステップS504)。管空内画像には、例えば管空粘膜のしわの影等、管空深部以外の暗部領域も存在するが、通常これらの領域は管空深部に比べて面積が小さいので、管空深部との識別が可能である。そして、管空深部抽出部13cは、管空深部として抽出した暗部領域の重心位置を算出する(ステップS505)。抽出された管空深部の領域や、この管空深部の重心位置に係るデータは、対象管空内画像の識別情報と対応付けられて記憶部12に保持される。そして、管空深部抽出部13cは、時刻t(i)の管空内画像およびt(i+1)の管空内画像それぞれについてループAの処理を実行したならば、図2のステップS105にリターンする。   Subsequently, the deep tube portion extraction unit 13c calculates the area of each dark region in the target tube image recognized in step S503, and extracts the dark region having the largest area as the deep tube portion (step S504). . In the intraluminal image, there are dark areas other than the deep part of the tube, such as wrinkled shadows of the tubular mucous membrane, but these areas are usually smaller in area than the deep part of the tube. Identification is possible. Then, the deep tube portion extraction unit 13c calculates the position of the center of gravity of the dark region extracted as the deep tube portion (step S505). The extracted region of the deep tube portion and the data relating to the gravity center position of the deep tube portion are stored in the storage unit 12 in association with the identification information of the target tube image. Then, when the process of loop A is executed for each of the tube image at time t (i) and the tube image at time t (i + 1), the tube depth extraction unit 13c returns to step S105 in FIG. .

図8は、図5に例示したt(i+1)の管空内画像に対する管空深部抽出処理の結果を示す模式図である。図8の例では、管空深部抽出処理の結果、斜線領域31で示す暗部領域が管空深部として抽出され、その重心位置33が算出される。   FIG. 8 is a schematic diagram illustrating a result of the tube hollow depth extraction process for the tube inner image of t (i + 1) illustrated in FIG. In the example of FIG. 8, the dark space region indicated by the hatched region 31 is extracted as the deep tube portion as a result of the deep tube portion extraction process, and the barycentric position 33 is calculated.

次に、図2のステップS106による移動量推定処理について説明する。この移動量推定処理では、移動量推定部13dは、構造領域抽出部13aが時刻t(i)の管空内画像の中から抽出した構造領域の位置と、対応領域抽出部13bが時刻t(i+1)の管空内画像の中から抽出した対応領域の位置と、管空深部抽出部13cが時刻t(i)管空内画像およびt(i+1)の管空内画像の中から抽出した管空深部およびその重心位置とをもとに、時刻t(i)からt(i+1)までの撮像機2の移動量を推定する。推定された移動量は、記憶部12に格納・蓄積される。   Next, the movement amount estimation processing in step S106 in FIG. 2 will be described. In this movement amount estimation process, the movement amount estimation unit 13d uses the structure region extraction unit 13a to extract the position of the structure region extracted from the tube image at time t (i), and the corresponding region extraction unit 13b uses the time t (i). The position of the corresponding region extracted from the tube interior image of i + 1) and the tube extracted from the tube interior image at time t (i) and the tube interior image of t (i + 1) by the tube space depth extraction unit 13c. The amount of movement of the imaging device 2 from time t (i) to t (i + 1) is estimated based on the sky depth and the center of gravity position. The estimated movement amount is stored / accumulated in the storage unit 12.

図9は、移動量推定処理を説明するための管空内と撮像機2のモデル図であり、時刻t(i)において管空内の特徴構造51を含む管空内画像を撮像した撮像機2の撮像状況モデルを上段に示し、時刻t(i+1)において特徴構造51を含む管空内画像を撮像した撮像機2の撮像状況モデルを下段に示している。図9の下段に示す撮像状況モデルでは、上段に示す撮像状況モデルに対して、その撮像位置(撮像機2の位置)の変化と撮像方向の変化とが見られる。ここで、Dは、時刻t(i)における撮像機2から管空粘膜の特徴構造51までの距離を管空内壁面上に投影した特徴構造距離を表し、D’は、時刻t(i+1)における撮像機2から管空粘膜の特徴構造51までの距離を管空内壁面上に投影した特徴構造距離を表す。Oは撮像機2が有するレンズ等の光学系の主点に相当する光学中心である。Rは管空半径である。この管空半径Rとしては、例えば平均的な管空半径を用いる。   FIG. 9 is a model diagram of the inside of the tube and the image pickup device 2 for explaining the movement amount estimation processing, and an image pickup device that picks up an image inside the tube including the feature structure 51 inside the tube at time t (i). 2 shows the imaging situation model of the imaging device 2 that has captured the image in the tube including the feature structure 51 at time t (i + 1). In the imaging situation model shown in the lower part of FIG. 9, changes in the imaging position (position of the imaging device 2) and changes in the imaging direction are seen with respect to the imaging situation model shown in the upper part. Here, D represents the feature structure distance obtained by projecting the distance from the imaging device 2 to the feature structure 51 of the tubular mucous membrane at the time t (i) onto the inner wall surface of the tube, and D ′ represents the time t (i + 1). Represents a feature structure distance obtained by projecting the distance from the image pickup device 2 to the feature structure 51 of the tubular mucous membrane on the inner wall surface of the tube. O is an optical center corresponding to a principal point of an optical system such as a lens included in the image pickup device 2. R is the hollow radius. For example, an average tube radius is used as the tube radius R.

また、図9上段のモデル図において、この撮像状況モデルによって撮像機2の撮像素子上に投影されて得られる管空内画像の画像座標53aを示している。この画像座標53aは、撮像機2の光軸52と交わる位置を原点とした座標系であり、fは、撮像機2の光学中心Oから撮像素子までの距離である。ここで、この撮像状況モデルによって得られる管空内画像中の特徴構造51が映る構造領域の中心の座標を、構造領域中心座標T(xT,yT)とし、この管空内画像における管空深部の重心位置の座標を管空深部重心座標C(xC,yC)とする。また、θを、時刻t(i)における、光学中心Oから管空深部方向へのベクトルOCと光学中心Oから特徴構造51へのベクトルOTとの成す角とする。   Further, in the upper model diagram of FIG. 9, image coordinates 53 a of an intraluminal image obtained by being projected onto the image pickup device of the image pickup device 2 by this image pickup state model are shown. The image coordinate 53a is a coordinate system with the position intersecting with the optical axis 52 of the image pickup device 2 as the origin, and f is the distance from the optical center O of the image pickup device 2 to the image pickup device. Here, the coordinates of the center of the structure region in which the feature structure 51 in the tube interior image obtained by this imaging situation model is shown are the structure region center coordinates T (xT, yT), and the tube space depth portion in this tube interior image The center-of-gravity position coordinates of the tube are defined as the deep-pipe portion center-of-gravity coordinates C (xC, yC). In addition, θ is an angle formed by a vector OC from the optical center O toward the deep tube portion and a vector OT from the optical center O to the feature structure 51 at time t (i).

同様にして、図9下段のモデル図において、この撮像状況モデルによって得られる管空内画像の画像座標53bを示している。この画像座標53bは、撮像機2の光軸52と交わる位置を原点とした座標系であり、fは、撮像機2の光学中心Oから撮像素子までの距離である。ここで、この撮像状況モデルによって得られる管空内画像中の特徴構造51が映る対応領域の中心の座標を、対応領域中心座標T’(xT’,yT’)とし、この管空内画像における管空深部の重心位置の座標を管空深部重心座標C’(xC’,yC’)とする。また、θ’を、時刻t(i+1)における、光学中心Oから管空深部の重心方向54へのベクトルOC’と光学中心Oから特徴構造51へのベクトルOT’とのなす角とする。   Similarly, in the model diagram in the lower part of FIG. 9, the image coordinates 53b of the intraluminal image obtained by this imaging state model are shown. The image coordinate 53b is a coordinate system with the position intersecting with the optical axis 52 of the image pickup device 2 as the origin, and f is the distance from the optical center O of the image pickup device 2 to the image pickup device. Here, the coordinates of the center of the corresponding region in which the feature structure 51 in the image inside the tube obtained by this imaging situation model is shown is the corresponding region center coordinate T ′ (xT ′, yT ′), and The coordinate of the gravity center position of the deep tube portion is defined as the deep tube portion gravity center coordinate C ′ (xC ′, yC ′). Further, θ ′ is an angle formed by a vector OC ′ from the optical center O to the center of gravity 54 of the tube air depth portion and a vector OT ′ from the optical center O to the feature structure 51 at time t (i + 1).

ここで、図9上段の撮像状況モデルの特徴構造距離D,構造領域中心座標T,管空深部重心座標C,距離f,管空半径Rから、次式(1)が得られる。なお、δは、撮像機2の撮像素子のピッチを表す。距離fおよび撮像素子のピッチδの各カメラパラメータの値は、事前に取得しておく。

Figure 2008301877
Here, the following equation (1) is obtained from the characteristic structure distance D, the structure region center coordinate T, the tube depth deep barycenter coordinate C, the distance f, and the tube radius radii R of the imaging state model in the upper part of FIG. Note that δ represents the pitch of the image pickup device of the image pickup device 2. The values of the camera parameters such as the distance f and the imaging element pitch δ are acquired in advance.
Figure 2008301877

同様にして、図下段の撮像状況モデルの特徴構造距離D’,構造領域中心座標T’,管空深部重心座標C’,距離f,管空半径Rから、から、次式(2)が得られる。

Figure 2008301877
Similarly, the following equation (2) is obtained from the characteristic structure distance D ′, the structure region center coordinate T ′, the tube depth deep center coordinate C ′, the distance f, and the tube radius R of the imaging state model in the lower part of the figure. It is done.
Figure 2008301877

そして、式(1)および式(2)から次式(3)が得られる。

Figure 2008301877
Then, the following equation (3) is obtained from the equations (1) and (2).
Figure 2008301877

式(3)を変形すると、次式(4)が得られる。

Figure 2008301877
When Expression (3) is transformed, the following Expression (4) is obtained.
Figure 2008301877

式(4)が示すD−D’は、時刻t(i)およびt(i+1)の各時刻での撮像機2から管空粘膜の特徴構造51までの距離を管空内壁面上に投影した特徴構造距離の差分であり、図9下段に示す時刻t(i)からt(i+1)までの撮像機2の移動量dに相当する。このようにしてD−D’を求めることにより、時刻t(i)からt(i+1)までの撮像機2の移動量を推定することができる。具体的には、移動量推定部13dは、構造領域抽出処理によって抽出された各構造領域に対応する特徴構造それぞれについてD−D’を求める。そして、移動量推定部13dは、求めた複数の移動量の値の平均値を算出して、撮像機2の時刻t(i)からt(i+1)までの移動量と推定する。   DD ′ represented by the equation (4) is a projection of the distance from the imaging device 2 to the characteristic structure 51 of the tubular mucosa at each time of time t (i) and t (i + 1) on the inner wall surface of the tube. This is the difference between the feature structure distances and corresponds to the movement amount d of the image pickup device 2 from the time t (i) to t (i + 1) shown in the lower part of FIG. By obtaining D-D ′ in this way, it is possible to estimate the amount of movement of the imaging device 2 from time t (i) to t (i + 1). Specifically, the movement amount estimation unit 13d obtains D-D ′ for each feature structure corresponding to each structure region extracted by the structure region extraction process. Then, the movement amount estimation unit 13d calculates an average value of the obtained plurality of movement amount values, and estimates the movement amount from time t (i) to t (i + 1) of the imaging device 2.

次に、図2のステップS109による位置推定処理について説明する。この位置推定処理では、位置推定部13eは、移動量推定処理の結果推定されて記憶部12に蓄積された時刻t(i)からt(i+1)までの撮像機2の移動量の累積値を求め、各管空内画像を撮像した際の撮像機2の位置を推定する。この累積値は、管空の入口での時刻t(0)から管空の出口での時刻t(T)までの撮像機2の移動距離に相当する。なお、求めた累積値を、撮像機2が管空入口から出口まで移動した移動量の総和、すなわち管空の全長で割ることにより、各時刻における管空内での撮像機2の相対的な位置を割り出すこととしてもよい。   Next, the position estimation process in step S109 in FIG. 2 will be described. In this position estimation process, the position estimation unit 13e calculates the accumulated value of the movement amount of the imaging device 2 from time t (i) to t (i + 1) estimated as a result of the movement amount estimation process and accumulated in the storage unit 12. Then, the position of the image pickup device 2 at the time of capturing each tube image is estimated. This accumulated value corresponds to the moving distance of the image pickup device 2 from the time t (0) at the entrance of the tube to the time t (T) at the exit of the tube. The obtained cumulative value is divided by the total amount of movement of the image pickup device 2 from the tube inlet to the outlet, that is, the total length of the tube empty, so that the relative value of the image pickup device 2 in the tube air at each time is calculated. The position may be determined.

図10は、位置推定処理の結果を示す模式図であり、横軸を時刻t、縦軸を管空入口から管空出口までの撮像機2の相対的な位置として、推定された撮像機2の相対的な位置の時系列変化を示している。これによれば、患部を映した管空内画像の撮像時刻をもとに、この管空内画像を撮像した際の管空内での撮像機2の管空入口または管空出口からの相対的な位置を知ることができ、患部の位置を推定することが可能となる。   FIG. 10 is a schematic diagram showing the result of the position estimation process, where the horizontal axis indicates time t and the vertical axis indicates the relative position of the image sensor 2 from the tube empty inlet to the tube empty outlet. The time-series change of the relative position of is shown. According to this, based on the imaging time of the tube interior image showing the affected part, relative to the tube entrance or tube exit of the image pickup device 2 in the tube atmosphere when the tube interior image is captured. It is possible to know the actual position and to estimate the position of the affected part.

このように本実施の形態では、撮像機2が時系列で撮像した管空内画像を処理することによって、撮像機内や患者の体外に別途装置を設けることなく、簡易な構成で撮像機2の移動量を推定し、各管空内画像を撮像した際の撮像機2の管空内における位置を推定することができる。この結果、撮像機に移動量測定用の単心コイル等の装置を別途内蔵した場合のように撮像機が大型化したり、システムの構成が複雑化するようなことはなく、撮像機や体外装置をコンパクトかつ低コストで生産することができる。   As described above, in the present embodiment, by processing the intraluminal images captured in time series by the image pickup device 2, the image pickup device 2 can be configured with a simple configuration without providing a separate device inside the image pickup device or outside the patient's body. The amount of movement can be estimated, and the position of the image pickup device 2 in the tube space when each tube image is captured can be estimated. As a result, there is no need to increase the size of the image pickup device or complicate the system configuration as if the image pickup device had a separate device such as a single-core coil for measuring the amount of movement. Can be produced in a compact and low-cost manner.

なお、撮像機2が患部を撮像した場合の撮像機2の位置は、患部の近傍であって、患部の位置と完全には同一ではない。しかしながら、患部が映る管空内画像を利用して、患者の管空内へ医療処置具を挿入する際の挿入ルートを経口からとすべきか経腔からとすべきかを判断する場合であるとか、患者の体を切開する位置を特定臓器の上部に近い方とすべきか下部に近い方とすべきかを判断する場合等には、患部の位置を厳密に把握せずともよい。この場合、本実施の形態によって患部の大体の位置の情報が得られれば、その後の組織採取や止血、患部切除等の医療処置でこの位置の情報を役立てることができる。   Note that the position of the image pickup device 2 when the image pickup device 2 images the affected area is in the vicinity of the affected area and is not completely the same as the position of the affected area. However, using the intraluminal image of the affected area, it is a case where it is determined whether the insertion route when inserting the medical treatment tool into the patient's intraluminal should be taken from the oral cavity or the transcavity, When it is determined whether the position where the patient's body should be incised should be closer to the upper part of the specific organ or closer to the lower part, the position of the affected part may not be strictly grasped. In this case, if information on the approximate position of the affected area can be obtained by this embodiment, the information on this position can be used in subsequent medical procedures such as tissue collection, hemostasis, and excision of the affected area.

また、本実施の形態では、管空入口から出口までを対象に説明を行ったが、小腸または大腸等の特定の臓器の開始位置または終了位置等を基点とした撮像機2の位置を推定してもよい。これによれば、特定の臓器の開始位置または終了位置から管空に沿ってどの程度の位置に患部があるかという情報を得ることができる。   In the present embodiment, the description has been made from the tube entrance to the exit, but the position of the imaging device 2 is estimated based on the start position or end position of a specific organ such as the small intestine or large intestine. May be. According to this, it is possible to obtain information on how much the affected part is located along the lumen from the start position or end position of a specific organ.

また、本実施の形態では、構造領域を管空深部よりも先に抽出したが、管空深部を先に抽出し、この位置にもとづいて構造領域を抽出してもよく、例えば管空深部を囲むように構造領域を抽出してもよい。   Further, in the present embodiment, the structural region is extracted before the deep tube portion, but the deep tube portion may be extracted first, and the structural region may be extracted based on this position. You may extract a structure area | region so that it may surround.

また、本実施の形態では、所定サイズの矩形領域を走査しながら構造領域として適当な複数の領域を抽出する方法を示したが、構造領域の形状は矩形である必要はなく任意の形状でもよい。たとえば矩形領域内の画素ごとに、管空粘膜の画素か否かの判定を行い、管空粘膜でないと判定された画素を除いた任意形状の領域を構造領域として抽出することもできる。   In the present embodiment, a method of extracting a plurality of appropriate regions as a structure region while scanning a rectangular region of a predetermined size has been described. However, the shape of the structure region does not have to be a rectangle and may be an arbitrary shape. . For example, it is possible to determine whether each pixel in the rectangular area is a pixel of the tubular mucous membrane, and to extract a region having an arbitrary shape excluding pixels determined not to be the tubular mucous membrane as a structural region.

また、予め所定サイズの格子状に管空内画像を分割し、各分割領域において図4に示したステップS302〜S305を行い、最後に、分布範囲が大きな分割領域から順に所定個数の分割領域を構造領域として抽出してもよく、結果として構造領域を抽出するための計算負荷を軽減できる。ここで、構造領域を複数抽出せず、一つだけ抽出することにすれば計算負荷はさらに軽減できる。   In addition, the image in the tube is divided in advance into a grid of a predetermined size, and steps S302 to S305 shown in FIG. 4 are performed in each divided region. Finally, a predetermined number of divided regions are sequentially arranged from the divided region having the largest distribution range. The structure area may be extracted, and as a result, the calculation load for extracting the structure area can be reduced. Here, the calculation load can be further reduced by extracting only one structural region without extracting a plurality of structural regions.

画像処理装置を含む画像処理得システムの全体構成を示す概略模式図である。1 is a schematic diagram illustrating an overall configuration of an image processing acquisition system including an image processing apparatus. 画像処理装置の演算部が行う演算処理手順を示す全体フローチャートである。It is a whole flowchart which shows the arithmetic processing procedure which the calculating part of an image processing apparatus performs. 撮像機によって撮像された管空内画像の一例を示す図である。It is a figure which shows an example of the tube interior image imaged with the imaging device. 構造領域抽出処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a structure area | region extraction process. 構造領域抽出処理の結果を示す模式図である。It is a schematic diagram which shows the result of a structure area | region extraction process. 対応領域抽出処理の結果を示す模式図である。It is a schematic diagram which shows the result of a corresponding area extraction process. 管空深部抽出処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a deep-pipe part extraction process. 管空深部抽出処理の結果を示す模式図である。It is a schematic diagram which shows the result of a tube air deep part extraction process. 移動量推定処理を説明するための管空内と撮像機のモデル図である。It is a model figure of the inside of a tube and an image pick-up machine for explaining movement amount presumption processing. 位置推定処理の結果を示す模式図である。It is a schematic diagram which shows the result of a position estimation process.

符号の説明Explanation of symbols

1 被検体
2 撮像機
3 受信装置
A1〜An 受信用アンテナ群
3a 無線ユニット
3b 受信本体ユニット
4 携帯型記録媒体
5 画像処理装置
10 外部インターフェース
11 制御部
12 記憶部
12a 画像処理プログラム
13 演算部
13a 構造領域抽出部
13b 対応領域抽出部
13c 管空深部抽出部
13d 移動量推定部
13e 位置推定部
14 入力部
15 表示部
DESCRIPTION OF SYMBOLS 1 Subject 2 Imaging device 3 Receiving device A1-An Receiving antenna group 3a Wireless unit 3b Reception main body unit 4 Portable recording medium 5 Image processing device 10 External interface 11 Control unit 12 Storage unit 12a Image processing program 13 Calculation unit 13a Structure Region extraction unit 13b Corresponding region extraction unit 13c Tube air depth extraction unit 13d Movement amount estimation unit 13e Position estimation unit 14 Input unit 15 Display unit

Claims (12)

体内の管空内を移動する撮像機により撮像された時系列の管空内画像を処理して、撮像機の移動量を推定する撮像機移動量推定手段を備えることを特徴とする画像処理装置。   An image processing apparatus comprising: an imager movement amount estimation means for processing a time-series tube image captured by an imager moving within a body tube and estimating a movement amount of the imager . 前記撮像機移動量推定手段は、
異なる時刻の管空内画像において管空内の所定部位を抽出する所定部位抽出手段と、
前記所定部位の位置をもとに前記撮像機の移動量を推定する移動量推定手段と、
を備えることを特徴とする請求項1に記載の画像処理装置。
The imaging device movement amount estimation means includes
Predetermined part extracting means for extracting a predetermined part in the tube in the tube image at different times;
A movement amount estimating means for estimating a movement amount of the imaging device based on the position of the predetermined part;
The image processing apparatus according to claim 1, further comprising:
前記所定部位抽出手段は、
前記管空内画像より構造領域を抽出する構造領域抽出手段と、
前記構造領域を抽出した管空内画像とは異なる時刻の管空内画像より構造領域と対応する対応領域を抽出する対応領域抽出手段と、
前記管空内画像より前記管空内の奥が映る部分である管空深部を抽出する管空深部抽出手段と、
を備え、前記所定部位として前記構造領域と前記対応領域と前記管空深部とを抽出し、
前記移動量推定手段は、前記構造領域と前記対応領域と前記管空深部の位置をもとに前記撮像機の移動量を推定することを特徴とする請求項2に記載の画像処理装置。
The predetermined part extracting means includes
A structure region extracting means for extracting a structure region from the tube interior image;
Corresponding region extracting means for extracting a corresponding region corresponding to the structural region from the tubular image at a different time from the tubular image from which the structural region has been extracted;
A tube deep portion extracting means for extracting a tube deep portion that is a portion in which the depth in the tube is reflected from the tube hollow image;
And extracting the structural region, the corresponding region and the tube air depth as the predetermined portion,
The image processing apparatus according to claim 2, wherein the movement amount estimation unit estimates a movement amount of the image pickup device based on the positions of the structure area, the corresponding area, and the deep tube portion.
前記構造領域抽出手段は、前記管空内の粘膜が映る領域を前記構造領域として抽出することを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the structural region extracting unit extracts a region in which the mucous membrane in the duct is reflected as the structural region. 前記構造領域抽出手段は、前記管空内の粘膜のしわ、または前記管空内の粘膜表面の血管の少なくとも一方が映る領域を前記構造領域として抽出することを特徴とする請求項3または4に記載の画像処理装置。   5. The structure area extracting unit extracts an area in which at least one of a wrinkle of a mucous membrane in the duct and a blood vessel on a mucosal surface in the duct is reflected as the structure area. The image processing apparatus described. 前記構造領域抽出手段は、画素値の分布範囲が所定の閾値より大きな領域を前記構造領域として抽出することを特徴とする請求項3〜5のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the structural region extracting unit extracts a region having a pixel value distribution range larger than a predetermined threshold as the structural region. 前記構造領域抽出手段は、前記管空内画像内の複数の領域を前記構造領域として抽出することを特徴とする請求項3〜6のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the structural region extraction unit extracts a plurality of regions in the intraluminal image as the structural region. 前記対応領域抽出手段は、異なる時刻の体内の管空内画像間において、前記構造領域をテンプレートとしたマッチング処理を行い、マッチング時の類似度が所定の閾値より高い領域を、前記対応領域として抽出することを特徴とする請求項3〜7のいずれか一つに記載の画像処理装置。   The corresponding region extraction means performs matching processing using the structural region as a template between in-vivo images in the body at different times, and extracts a region whose similarity at the time of matching is higher than a predetermined threshold as the corresponding region The image processing apparatus according to claim 3, wherein the image processing apparatus is an image processing apparatus. 前記管空深部抽出手段は、前記管空内画像内の暗い画素が集まる領域を前記管空深部として抽出することを特徴とする請求項3〜8のいずれか一つに記載の画像処理装置。   The image processing apparatus according to any one of claims 3 to 8, wherein the tube-pipe deep portion extraction unit extracts a region where dark pixels gather in the tube-pipe image as the tube-pipe deep portion. 前記撮像機移動量推定手段で複数枚の前記管空内画像を処理することで推定した複数の移動量の値を累積することにより、各管空内画像を撮像した際の前記管空内での前記撮像機の位置を推定する位置推定手段をさらに備えることを特徴とする請求項1〜9のいずれか一つに記載の画像処理装置。   By accumulating a plurality of movement amount values estimated by processing the plurality of tube images in the image pickup device movement amount estimation means, the tube images at the time of capturing each tube image are captured. The image processing apparatus according to claim 1, further comprising a position estimation unit that estimates a position of the imaging device. コンピュータに、
体内の管空内を移動する撮像機により撮像された時系列の管空内画像を処理して、撮像機の移動量を推定する撮像機移動量推定ステップ、
前記撮像機移動量推定ステップで複数枚の前記管空内画像を処理することで推定した複数の移動量の値を累積することにより、各管空内画像を撮像した際の前記管空内での前記撮像機の位置を推定する位置推定ステップ、
を実行させることを特徴とする画像処理プログラム。
On the computer,
An imager movement amount estimation step for processing a time-series tube aerial image captured by an imager moving within a body tube and estimating an amount of movement of the imager;
By accumulating a plurality of movement amount values estimated by processing a plurality of the images in the tube in the image pickup device movement amount estimation step, in the tube atmosphere when each tube image is captured. A position estimating step for estimating the position of the imager;
An image processing program for executing
体内の管空内を移動する撮像機により撮像された時系列の管空内画像を処理するコンピュータに、
異なる時刻の管空内画像において管空内の所定部位を抽出する所定部位抽出ステップ、
前記所定部位の位置をもとに前記撮像機の移動量を推定する移動量推定ステップ、
を実行させることを特徴とする画像処理プログラム。
A computer that processes time-series tube images taken by an imager that moves inside the tube.
A predetermined part extraction step for extracting a predetermined part in the tube in the tube image at different times;
A movement amount estimation step for estimating a movement amount of the imaging device based on the position of the predetermined part;
An image processing program for executing
JP2007149120A 2007-06-05 2007-06-05 Image processing apparatus and image processing program Expired - Fee Related JP5408843B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007149120A JP5408843B2 (en) 2007-06-05 2007-06-05 Image processing apparatus and image processing program
PCT/JP2008/059363 WO2008149674A1 (en) 2007-06-05 2008-05-21 Image processing device, image processing program and image processing method
EP08753040.8A EP2163183A4 (en) 2007-06-05 2008-05-21 Image processing device, image processing program and image processing method
US12/621,122 US8107704B2 (en) 2007-06-05 2009-11-18 Image processing device, image processing program and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007149120A JP5408843B2 (en) 2007-06-05 2007-06-05 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2008301877A true JP2008301877A (en) 2008-12-18
JP5408843B2 JP5408843B2 (en) 2014-02-05

Family

ID=40231125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007149120A Expired - Fee Related JP5408843B2 (en) 2007-06-05 2007-06-05 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5408843B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120008860A1 (en) * 2010-07-07 2012-01-12 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
WO2012063623A1 (en) 2010-11-08 2012-05-18 オリンパスメディカルシステムズ株式会社 Image display apparatus and capsule endoscopy system
WO2013015104A1 (en) 2011-07-22 2013-01-31 オリンパスメディカルシステムズ株式会社 Capsule-type endoscope system, image display method, and image display program
US9196938B2 (en) 2010-07-06 2015-11-24 Samsung Sdi Co., Ltd. Battery module
JP2018153345A (en) * 2017-03-16 2018-10-04 富士フイルム株式会社 Endoscope positioning device, method and program
JP2018169793A (en) * 2017-03-30 2018-11-01 株式会社日立製作所 Image processing device
JP2019027972A (en) * 2017-08-01 2019-02-21 株式会社日立製作所 Inspection system for inside of pipeline facility
WO2020121380A1 (en) * 2018-12-10 2020-06-18 オリンパス株式会社 Image processing device, method for operating image processing device, and program for operating image processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124681A (en) * 1996-10-18 1998-05-15 Ricoh Co Ltd Portable information processing apparatus and information processing method
JP2005334331A (en) * 2004-05-27 2005-12-08 Olympus Corp Capsule dosing system
JP2006334297A (en) * 2005-06-06 2006-12-14 Olympus Medical Systems Corp Image display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124681A (en) * 1996-10-18 1998-05-15 Ricoh Co Ltd Portable information processing apparatus and information processing method
JP2005334331A (en) * 2004-05-27 2005-12-08 Olympus Corp Capsule dosing system
JP2006334297A (en) * 2005-06-06 2006-12-14 Olympus Medical Systems Corp Image display device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9196938B2 (en) 2010-07-06 2015-11-24 Samsung Sdi Co., Ltd. Battery module
US20120008860A1 (en) * 2010-07-07 2012-01-12 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
US9053533B2 (en) * 2010-07-07 2015-06-09 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium for extracting a dark portion area from an intraluminal image
WO2012063623A1 (en) 2010-11-08 2012-05-18 オリンパスメディカルシステムズ株式会社 Image display apparatus and capsule endoscopy system
US8711205B2 (en) 2010-11-08 2014-04-29 Olympus Medical Systems Corp. Image display device and capsule endoscope system
WO2013015104A1 (en) 2011-07-22 2013-01-31 オリンパスメディカルシステムズ株式会社 Capsule-type endoscope system, image display method, and image display program
US9661995B2 (en) 2011-07-22 2017-05-30 Olympus Corporation Capsule endoscope system, operating method of image display, and computer-readable recording medium
JP2018153345A (en) * 2017-03-16 2018-10-04 富士フイルム株式会社 Endoscope positioning device, method and program
JP2018169793A (en) * 2017-03-30 2018-11-01 株式会社日立製作所 Image processing device
JP2019027972A (en) * 2017-08-01 2019-02-21 株式会社日立製作所 Inspection system for inside of pipeline facility
WO2020121380A1 (en) * 2018-12-10 2020-06-18 オリンパス株式会社 Image processing device, method for operating image processing device, and program for operating image processing device
JPWO2020121380A1 (en) * 2018-12-10 2021-10-28 オリンパス株式会社 Image processing device, digestive tract shape model generation method, and image processing device operation program

Also Published As

Publication number Publication date
JP5408843B2 (en) 2014-02-05

Similar Documents

Publication Publication Date Title
JP7756621B2 (en) Endoscope system, operation method and program for medical image processing device, and recording medium
JP5408843B2 (en) Image processing apparatus and image processing program
US8107704B2 (en) Image processing device, image processing program and image processing method
JP5291955B2 (en) Endoscopy system
KR100890102B1 (en) Medical image processing apparatus, and medical image processing method
JP5147308B2 (en) Image extraction apparatus and image extraction program
JP6177458B2 (en) Image processing apparatus and endoscope system
JP6405138B2 (en) Image processing apparatus, image processing method, and image processing program
WO2014136579A1 (en) Endoscope system and endoscope system operation method
JP2004337596A (en) Device, method and program for displaying image
WO2006035437A2 (en) System and method to detect a transition in an image stream
US8086005B2 (en) Medical image processing apparatus and medical image processing method
WO2008012968A1 (en) Medical image processing device and medical image processing method
JP4956694B2 (en) Information processing apparatus and capsule endoscope system
JPWO2014168128A1 (en) Endoscope system and method for operating endoscope system
JPWO2008136098A1 (en) Medical image processing apparatus and medical image processing method
JP5078486B2 (en) Medical image processing apparatus and method of operating medical image processing apparatus
WO2019130868A1 (en) Image processing device, processor device, endoscope system, image processing method, and program
WO2017212725A1 (en) Medical observation system
CN116940274A (en) Shape measurement system for endoscope and shape measurement method for endoscope
JP2007307396A (en) Image display device, image display method and image display program
JP4749732B2 (en) Medical image processing device
JP2007307397A (en) Image display device, image display method and image display program
US20240000299A1 (en) Image processing apparatus, image processing method, and program
US20240013389A1 (en) Medical information processing apparatus, endoscope system, medical information processing method, and medical information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131105

R151 Written notification of patent or utility model registration

Ref document number: 5408843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees