JP2008301877A - Apparatus and program for processing image - Google Patents
Apparatus and program for processing image Download PDFInfo
- Publication number
- JP2008301877A JP2008301877A JP2007149120A JP2007149120A JP2008301877A JP 2008301877 A JP2008301877 A JP 2008301877A JP 2007149120 A JP2007149120 A JP 2007149120A JP 2007149120 A JP2007149120 A JP 2007149120A JP 2008301877 A JP2008301877 A JP 2008301877A
- Authority
- JP
- Japan
- Prior art keywords
- tube
- image
- region
- movement amount
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 67
- 238000003384 imaging method Methods 0.000 claims abstract description 60
- 238000000605 extraction Methods 0.000 claims description 66
- 238000000034 method Methods 0.000 claims description 45
- 239000000284 extract Substances 0.000 claims description 16
- 210000004400 mucous membrane Anatomy 0.000 claims description 11
- 210000004204 blood vessel Anatomy 0.000 claims description 4
- 230000037303 wrinkles Effects 0.000 claims description 4
- 238000001727 in vivo Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 10
- 230000005484 gravity Effects 0.000 description 9
- 239000002775 capsule Substances 0.000 description 8
- 210000004877 mucosa Anatomy 0.000 description 7
- 210000000056 organ Anatomy 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 210000000214 mouth Anatomy 0.000 description 3
- 210000000813 small intestine Anatomy 0.000 description 3
- 230000023597 hemostasis Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 210000002429 large intestine Anatomy 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 102000001554 Hemoglobins Human genes 0.000 description 1
- 108010054147 Hemoglobins Proteins 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 210000003238 esophagus Anatomy 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000002572 peristaltic effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000005239 tubule Anatomy 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Endoscopes (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、体内の管空内を移動する撮像機により撮像された時系列の管空内画像をもとに、撮像機の管空内での位置を推定することができる画像処理装置および画像処理プログラムに関するものである。 The present invention relates to an image processing apparatus and an image that can estimate the position of the image pickup device in the tube based on the time-series tube image taken by the image pickup device that moves inside the tube in the body. It relates to a processing program.
近年、カプセル型内視鏡に代表されるように、消化管等の体内の管空内を移動しながら時系列の管空内画像を順次撮像する医用の撮像機が開発されている。この撮像機は、患者の口から飲み込まれた後、管空内を蠕動運動等により移動しながら順次画像を撮像して体外の受信装置に送信し、最終的に体外に排出される。医師は、体外の受信装置で受信した時系列の管空内画像を診断用のワークステーション等で確認し、患部を発見した場合には、必要に応じて再度患者の体内に医療処置具を挿入したり、患者の体を切開する等して、組織採取や止血、患部切除といった医療処置をおこなう。 In recent years, as represented by a capsule endoscope, a medical imaging machine that sequentially captures time-series images in a tube while moving in a tube such as a digestive tract has been developed. After being swallowed from the patient's mouth, the imager sequentially captures images while moving in the tube by a peristaltic motion and the like, transmits them to an external receiver, and is finally discharged out of the body. The doctor confirms the time-series in-pipe images received by the external receiving device on a diagnostic workstation, etc., and if he finds the affected area, insert the medical treatment tool into the patient's body again if necessary. Or incising the patient's body to perform medical procedures such as tissue sampling, hemostasis, and excision of the affected area.
このような医療処置を効率よく行うためには、目標の患部が管空内のどこにあるのかという情報が必要となるが、撮像機が患部を撮像した場合、撮像時の撮像機の位置は患部の付近に相当する。したがって、撮像時の撮像機の位置を把握しておけば、患部の位置を推定することができる。 In order to perform such medical treatment efficiently, information on where the target affected part is in the tube is necessary. However, when the image pickup device picks up the affected part, the position of the image pickup unit at the time of imaging is the affected part. It corresponds to the vicinity of. Therefore, if the position of the imaging device at the time of imaging is grasped, the position of the affected part can be estimated.
撮像時の撮像機の位置に関する情報は、体内での空間的な座標よりも、管空の入口や出口、あるいは特定の臓器の開始位置または終了位置から管空に沿ってどの程度の位置で撮像したのかという情報が有用である。例えば、小腸のように体内で形を変える臓器では、撮像時の撮像機の位置を座標で把握しても、臓器が変形してしまうと、特定した位置と実際の患部の位置とが一致しなくなる。撮像時の撮像機の位置を、管空の入口等の基点からの距離によって把握すれば、臓器が変形した場合であっても患部の位置を知ることができる。ここで、カプセル型内視鏡の管空内における所定の位置からの移動量を算出するものとしては、撮像機内にある磁界発生用の単心コイルにより発生した磁界を、体外に配置した複数のコイルによって検出することによって求めるものが知られている(特許文献1参照)。 Information on the position of the imager at the time of imaging is taken at the position along the tube from the entrance and exit of the tube, or the start position or end position of a specific organ, rather than the spatial coordinates in the body. Information on whether or not it was done is useful. For example, in an organ whose shape changes in the body, such as the small intestine, even if the position of the imaging device at the time of imaging is grasped by coordinates, if the organ is deformed, the specified position matches the actual position of the affected part. Disappear. If the position of the imaging device at the time of imaging is grasped by the distance from the base point such as the entrance of the tube, the position of the affected part can be known even when the organ is deformed. Here, the amount of movement of the capsule endoscope from a predetermined position in the tube is calculated by using a plurality of magnetic fields generated by a single-core coil for generating a magnetic field in the imaging device arranged outside the body. What is calculated | required by detecting with a coil is known (refer patent document 1).
しかしながら、特許文献1では、所定の位置からのカプセル型内視鏡の移動量を求めるために、カプセル型内視鏡内に単心コイルを設ける必要があり、カプセル型内視鏡が大型化するという問題がある。また、患者の体外に移動量検出用のコイルを配置せねばならず、システムの構成が複雑化し、コストが増大するという問題もある。
However, in
本発明は、上記に鑑みてなされたものであって、簡易な構成によって撮像機の管空内での移動量を推定することができる画像処理装置および画像処理プログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus and an image processing program capable of estimating the amount of movement of the image pickup device in the tube with a simple configuration. .
上述した課題を解決し、目的を達成するため、この発明にかかる画像処理装置は、体内の管空内を移動する撮像機により撮像された時系列の管空内画像を処理して、撮像機の移動量を推定する撮像機移動量推定手段を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention processes a time-series tube image captured by an imager that moves inside a tube in the body, An image pickup device movement amount estimation means for estimating the movement amount of the image pickup device is provided.
また、この発明にかかる画像処理プログラムは、コンピュータに、体内の管空内を移動する撮像機により撮像された時系列の管空内画像を処理して、撮像機の移動量を推定する撮像機移動量推定ステップ、前記撮像機移動量推定ステップで複数枚の前記管空内画像を処理することで推定した複数の移動量の値を累積することにより、各管空内画像を撮像した際の前記管空内での前記撮像機の位置を推定する位置推定ステップ、を実行させることを特徴とする。 In addition, an image processing program according to the present invention is a computer that processes a time-series image in a tube taken by a camera that moves inside a tube in the body and estimates the amount of movement of the imager. By accumulating a plurality of movement amount values estimated by processing a plurality of the tube interior images in the movement amount estimation step and the imaging device movement amount estimation step, each of the tube interior images is captured. A position estimating step of estimating a position of the imaging device in the tube.
また、この発明にかかる画像処理プログラムは、体内の管空内を移動する撮像機により撮像された時系列の管空内画像を処理するコンピュータに、異なる時刻の管空内画像において管空内の所定部位を抽出する所定部位抽出ステップ、前記所定部位の位置をもとに前記撮像機の移動量を推定する移動量推定ステップ、を実行させることを特徴とする。 In addition, an image processing program according to the present invention allows a computer that processes time-series tube images captured by an imaging device moving in a tube in the body to store the tube images in the tube images at different times. A predetermined part extracting step for extracting a predetermined part and a movement amount estimating step for estimating a movement amount of the imaging device based on the position of the predetermined part are executed.
本発明に係る画像処理装置によれば、撮像機が時系列で撮像した画像を処理することによって撮像機の体内の管空内での移動量を推定することができるので、撮像機の管空内での位置の推定を、簡易な構成によって実現できる。 According to the image processing apparatus of the present invention, it is possible to estimate the amount of movement of the image pickup device in the tube by processing the images taken in time series by the image pickup device. The position can be estimated with a simple configuration.
以下、本発明を実施するための最良の形態である画像処理装置について、図面を参照して説明する。 Hereinafter, an image processing apparatus which is the best mode for carrying out the present invention will be described with reference to the drawings.
(実施の形態)
図1は、本発明の実施の形態である画像処理装置を含む画像処理得システムの全体構成を示す概略模式図である。なお、本実施の形態では、体内の管空内の画像(以下、管空内画像という。)を撮像する撮像機の一例として、カプセル型内視鏡を用いる。このカプセル型内視鏡は、撮像機能や無線機能、撮像部位を照明する照明機能等を具備するものであって、例えば、検査のために人や動物等の被検体の口から飲込まれて被検体内部に導入される。そして、自然排出されるまでの間、食道、胃、小腸、大腸等の内部の管空内画像を順次撮像して取得し、体外に無線送信する。
(Embodiment)
FIG. 1 is a schematic diagram showing the overall configuration of an image processing acquisition system including an image processing apparatus according to an embodiment of the present invention. Note that in this embodiment, a capsule endoscope is used as an example of an imaging device that captures an image of the inside of the body (hereinafter referred to as an intraluminal image). This capsule endoscope has an imaging function, a wireless function, an illumination function for illuminating an imaging part, and is swallowed from the mouth of a subject such as a person or an animal for examination. It is introduced into the subject. And until it is spontaneously discharged, it sequentially captures and obtains intraluminal images inside the esophagus, stomach, small intestine, large intestine, etc., and wirelessly transmits it outside the body.
図1に示すように、画像処理システムは、被検体1内部の管空内画像を撮像する撮像機(カプセル型内視鏡)2、撮像機2から無線送信される管空内画像データを受信する受信装置3、受信装置3によって受信された管空内画像をもとに、撮像機2によって撮像された管空内画像を処理する画像処理装置5等を備える。受信装置3と画像処理装置5との間の管空内画像のデータの受け渡しには、例えば携帯型の記録媒体(携帯型記録媒体)4が使用される。
As shown in FIG. 1, the image processing system receives an intravascular image data wirelessly transmitted from an imaging device (capsule endoscope) 2 that captures an intraluminal image inside the
受信装置3は、被検体1の体外表面に貼付される複数の受信用アンテナ群A1〜Anを介して撮像機2から送信された無線信号を受信する無線ユニット3aと、無線ユニット3aが受信した無線信号の処理等をおこなう受信本体ユニット3bとを備え、無線ユニット3aと受信本体ユニット3bとは、コネクタ等を介して着脱可能に接続される。この受信装置3は、携帯型記録媒体4の着脱が自在に構成されており、撮像機2によって撮像された被検体1内部の管空内画像の画像データを受信し、時系列順に携帯型記録媒体4に蓄積する。本実施の形態では、携帯型記録媒体4に、管空の入口での時刻t(0)から、管空の出口での時刻t(T)までの間に撮像された管空内画像の画像データが時系列順に蓄積されることとする。ここで、管空の入口での時刻t(0)は、例えば撮像機2が被検体内部に導入された時刻に相当し、管空の出口における時刻t(T)は、撮像機2が体外に排出された時刻に相当する。
The receiving device 3 receives a wireless signal transmitted from the
画像処理装置5は、携帯型記録媒体4を着脱自在に装着し、この携帯型記録媒体4に蓄積された管空内画像の画像データを取得する外部インターフェース10と、画像処理装置5全体の動作を制御する制御部11と、記憶部12と、管空内画像をもとにその撮像時における撮像機2の位置を推定するための種々の演算処理を行う演算部13と、各種の指示情報を入力する入力部14と、演算部13の演算結果等を表示出力する表示部15とを備える。
The image processing apparatus 5 is detachably mounted with a portable recording medium 4, and an
記憶部12は、更新記憶可能なフラッシュメモリ等のROMやRAMといった各種ICメモリ、内蔵或いはデータ通信端子で接続されたハードディスク、CD−ROM等の情報記憶媒体及びその読取装置等によって実現されるものであり、画像処理装置5の動作に係るプログラムや、画像処理装置5の備える種々の機能を実現するためのプログラム、これらプログラムの実行に係るデータ等が格納される。また、演算部13が管空内画像を処理して撮像時の撮像機2の位置を推定するための画像処理プログラム12aが格納される。
The
演算部13は、構造領域抽出部13aと、対応領域抽出部13bと、管空深部抽出部13cと、移動量推定部13dと、位置推定部13eとを備える。構造領域抽出部13aは、管空内を移動する撮像機2によって撮像された一の管空内画像の中から、構造領域を抽出する。対応領域抽出部13bは、一の管空内画像とは異なる時刻に撮像された他の管空内画像の中から、構造領域抽出部13aによって一の管空内画像の中から抽出された構造領域に対応する対応領域を抽出する。管空深部抽出部13cは、一の管空内画像の中から、撮像機2の進行方向奥側の管空部分(以下、「管空深部」と称す。)を抽出する。移動量推定部13dは、一の管空内画像中の構造領域と、他の管空内画像中の対応領域と、管空深部との位置関係をもとに、一の管空内画像の撮像時から他の管空内画像の撮像時までに移動した撮像機2の移動量を推定する。位置推定部13eは、移動量推定部13dによって推定された撮像機2の移動量をもとに、各管空内画像が撮像された際の管空内での撮像機2の位置を推定する。
The
図2は、画像処理装置5の演算部13が行う演算処理手順を示す全体フローチャートである。なお、ここで説明する処理は、演算部13が記憶部12に格納された画像処理プログラム12aを実行することにより実現される。
FIG. 2 is an overall flowchart showing a calculation processing procedure performed by the
図2に示すように、演算部13は、先ず、処理対象の管空内画像の時系列順序を示す符号iを「0」に初期化する(ステップS101)。そして、演算部13は、外部インターフェース10および制御部11を介して処理対象の管空内画像である時刻t(i)の管空内画像と、この管空内画像と時系列的に連続する管空内画像である時刻t(i+1)の管空内画像とを取得する(ステップS102)。なお、ここでは、時系列的に連続する管空内画像を取得することとしたが、互いの管空内画像に管空内の共通部分が映る場合であれば、必ずしも時系列的に連続した管空内画像を取得する必要はない。
As shown in FIG. 2, the
図3は、撮像機2によって撮像された管空内画像の一例を示す図である。管空内画像には、管空内の粘膜(以下、「管空粘膜」と称す。)21、管空内を浮遊する内容物22や泡23等に加え、撮像機2の進行方向奥側の管空深部24が映る。なお、撮像機2によって撮像される管空内画像は、各画素位置においてR(赤),G(緑),B(青)の各色成分に対する画素レベル(画素値)を持つカラー画像である。
FIG. 3 is a diagram illustrating an example of an intraluminal image captured by the
そして、図2に示すように、構造領域抽出部13aが時刻t(i)の管空内画像の中から構造領域を抽出する構造領域抽出処理を実行し(ステップS103)、対応領域抽出部13bが時刻t(i+1)の管空内画像の中から対応領域を抽出する対応領域抽出処理を実行し(ステップS104)、管空深部抽出部13cが時刻t(i),t(i+1)の各管空内画像の中から管空深部を抽出する管空深部抽出処理を実行し(ステップS105)、移動量推定部13dが時刻t(i)からt(i+1)までの撮像機2の移動量を推定する移動量推定処理を実行する(ステップS106)。
Then, as shown in FIG. 2, the structural
そして、ステップS106の移動量推定処理の後、演算部13が、時系列順序を示す符号をインクリメントしてi=i+1とし(ステップS107)、次に処理対象とする時刻t(i)の管空内画像の有無をt(i)≦t(T)により判定する。ここで、t(T)は、処理対象とする管空内画像に係る最終の時刻である。t(i)≦t(T)の場合には(ステップS108:Yes)、ステップS101〜ステップS107の処理を再度実行する。なお、時系列的に連続した管空内画像を処理する場合には、ステップS105の管空深部抽出処理によって時刻t(i+1)の管空内画像から抽出した管空深部を記憶部12に保持しておくことにより、次にこの時刻t(i+1)の管空内画像を時刻t(i)の管空内画像としてステップS102からステップS107の処理を再度実行する場合に、これを利用することができ、これによって計算負荷を軽減できる。一方、t(i)>t(T)の場合には(ステップS108:No)、ステップS109に移行し、位置推定部13eが各管空内画像が撮像された際の撮像機2の位置を推定する位置推定処理を実行する(ステップS109)。そして、演算部13が、位置推定処理の結果に基づいて、各管空内画像が撮像された際の管空内での撮像機2の位置情報を出力して(ステップS110)、画像処理装置5における演算部13の演算処理を終了する。例えば、演算部13は、制御部11を介して位置情報を表示部15に表示出力させる。
Then, after the movement amount estimation process in step S106, the
次に、演算部13の各部が実行する処理について、詳細に説明する。先ず、図2のステップS103による構造領域抽出処理について説明する。この構造領域抽出処理では、構造領域抽出部13aは、時刻t(i)の管空内画像の中から複数の構造領域を抽出する。構造領域とは、異なる時刻に撮像された管空内画像間(この処理では、図2のステップS102で取得された時刻(i)の管空内画像と、この管空内画像と時系列的に連続する時刻(i+1)の管空内画像との間)で対応付けが可能な領域であり、例えば、管空粘膜上の局所的な部位を特徴付ける構造(以下、「特徴構造」と称す。)が映る領域である。通常管空粘膜にはしわがあり、表面には部分的に血管が透けて見えるのが一般的である。これら管空粘膜のしわや表面に透けて見える血管は、各部で形状が異なり他とは識別が可能なので、特徴構造といえる。構造領域抽出部13aは、これら特徴構造が明確に映る領域を抽出する。
Next, processing executed by each unit of the
図4は、構造領域抽出処理の詳細な処理手順を示すフローチャートである。構造領域抽出部13aは、例えば、時刻t(i)の管空内画像の左上位置を初期位置として所定サイズの矩形領域を設定し、この矩形領域の位置を所定量ずつずらしながら管空内画像の右下位置まで走査させることにより、この時刻t(i)の管空内画像中の構造領域を探索する。
FIG. 4 is a flowchart showing a detailed processing procedure of the structure area extraction processing. For example, the structural
先ず、構造領域抽出部13aは、時刻t(i)の管空内画像上の初期位置に所定サイズの矩形領域を設定する(ステップS301)。そして、構造領域抽出部13aは、設定した矩形領域内の色に関する特徴量を求める(ステップS302)。ここで、色に関する特徴量とは、例えば、設定した矩形領域内のRGB平均値やRGBヒストグラム、或いは矩形領域内の各画素のRGB値から2次的に計算される色比,色差,色相,彩度等の平均値やヒストグラム等である。
First, the structure
次に、構造領域抽出部13aは、ステップS302で求めた矩形領域内の色に関する特徴量と、予め設定した管空粘膜の色に関する特徴量との類似度を算出する(ステップS303)。例えば、構造領域抽出部13aは、互いの特徴量を各々一つの特徴ベクトルと考えた場合のベクトル先端間の距離や、ベクトル同士のなす角の余弦等を、類似度として算出する。
Next, the structural
次に、構造領域抽出部13aは、ステップS303で算出した類似度と、予め閾値として設定される基準類似度とを比較し、設定した矩形領域が管空粘膜上の領域かを判定する。例えば、構造領域抽出部13aは、算出した類似度が基準類似度以上ならば、設定した矩形領域が管空粘膜を映した領域と判定し(ステップS304:Yes)、ステップS305に移行する。一方、算出した類似度が基準類似度未満の場合には、設定した矩形領域が、例えば内容物や泡を映した領域であって、管空粘膜を映した領域ではないと判定し(ステップS304:No)、ステップS306に移行する。
Next, the structure
ステップS305では、構造領域抽出部13aは、矩形領域内の画素値の分布範囲を算出する。算出された分布範囲は、現時点での矩形領域の位置に係る情報と対応付けられて記憶部12に保持される。画素値の分布範囲としては、矩形領域内のRGB色成分毎の画素値の分布範囲を算出して、これらの中から最も広い分布範囲を選出することとしてもよいし、特定の色成分の分布範囲を算出してもよい。得られた分布範囲が狭い場合には、矩形領域内の画素値は一様な状態であり、特徴構造が映っている可能性は低い。一方、得られた分布範囲が広い場合には、矩形領域に特徴構造が映っている可能性が高い。なお、画素値の分布範囲は、矩形領域内の全画素を用いて算出しなくてもよい。例えば、矩形領域内の所定方向の画素列の画素値を用いて分布範囲を算出してもよいし、直交する2方向の画素列の画素値を用いて分布範囲を算出してもよく、結果として矩形領域内の全画素を用いて算出する場合と比べて計算負荷を軽減することができる。
In step S305, the structure
そして、構造領域抽出部13aは、時刻t(i)の管空内画像上での設定領域の走査が終了するまで(ステップS306:No)、矩形領域の位置を変更し(ステップS307)、ステップS302〜ステップS306の処理を繰り返し実行する。そして、時刻t(i)の管空内画像上での設定領域の走査が終了した場合には(ステップS306:Yes)、ステップS308に移行する。ステップS308では、構造領域抽出部13aは、ステップS305で分布範囲を算出した矩形領域の中から、その分布範囲が広いものから順に所定数個を選出し、特徴構造が映る構造領域として抽出する。このとき、各構造領域が重ならないように矩形領域を選出する。選出された構造領域に係るデータは、記憶部12に保持される。そして、構造領域抽出部13aは、図2のステップS103にリターンする。
Then, the structural
図5は、構造領域抽出処理の結果を示す模式図であり、図3に例示した管空内画像を時刻t(i)の管空内画像として構造領域抽出処理を行った結果抽出された構造領域の一例を示している。図5の例では、構造領域として、4つの構造領域T1,T4,T3,T4が抽出されており、この構造領域抽出処理によって、管空内に浮遊する内容物22や泡23等が映る領域を避け、しわや血管を含む管空粘膜の領域21の特徴構造が映る構造領域が抽出される。
FIG. 5 is a schematic diagram showing the result of the structure area extraction process. The structure extracted as a result of the structure area extraction process using the tube interior image illustrated in FIG. 3 as the tube interior image at time t (i). An example of the area is shown. In the example of FIG. 5, four structural regions T1, T4, T3, and T4 are extracted as the structural regions, and by this structural region extraction processing, the
次に、図2のステップS104による対応領域抽出処理について説明する。この対応領域抽出処理では、対応領域抽出部13bは、時刻t(i+1)の管空内画像の中から、構造領域抽出処理の結果時刻t(i)の管空内画像の中から抽出された各構造領域と同一箇所と判断される領域を、対応領域として抽出する。具体的には、対応領域抽出部13bは、構造領域抽出処理によって抽出された各構造領域をテンプレートに設定し、公知のテンプレートマッチング処理を行って、時刻t(i+1)の管空内画像から、各テンプレートに類似する領域を検出する。テンプレートマッチングの手法としては、例えば、“CG−ARTS協会,ディジタル画像処理,202p,テンプレートマッチング”で開示された手法を用いることができる。なお、マッチングの探索範囲は各テンプレートの中心座標(xj,yj)(j=1,2,・・・,N(N:テンプレート数))を中心に、管空内画像の時系列的な変化量を考慮して設定すればよい。また高速化のために、疎密探索法、残差逐次検討法等を用いても良い。例えば、“CG−ARTS協会,ディジタル画像処理,206p,高速探索法”で開示された手法を用いることができる。結果的に、時刻t(i)の管空内画像の中から抽出した各構造領域それぞれに対応するテンプレート毎に、時刻t(i+1)の管空内画像の中から最も類似する領域の座標(xj’,yj’)と、その類似度とが得られる。マッチング時の類似度が低いテンプレートに関しては、同一箇所と判断せずに、対応領域として抽出しない。また、このようにマッチングの結果対応領域が抽出されなかった構造領域は、以後の処理で使用しない。
Next, the corresponding area extraction process in step S104 of FIG. 2 will be described. In the corresponding region extraction process, the corresponding
図6は、対応領域抽出処理の結果を示す模式図であり、図5に例示した管空内画像と時系列的に連続するt(i+1)の管空内画像をもとに、各構造領域T1〜T4をそれぞれテンプレートとしてマッチングを行った結果抽出された対応領域の一例を示している。図6の例では、図5の構造領域T1に対応する対応領域T1’、構造領域T2に対応する対応領域T2’、構造領域T3に対応する対応領域T3’、構造領域T4に対応する対応領域T4’が、それぞれ抽出されている。また、図6において、各テンプレートの探索範囲ST1’〜ST4’を破線によって示している。例えば、図5に示すt(i)の管空内画像中の構造領域T1に着目すれば、この構造領域T1をテンプレートとしたマッチングが、図6に示すt(i+1)の管空内画像中の破線で示す探索範囲ST1’で行われ、検出された類似度の高い領域が対応領域T1’として抽出される。 FIG. 6 is a schematic diagram showing the result of the corresponding region extraction process. Each structural region is based on the tube interior image of t (i + 1) time-sequentially continuous with the tube interior image illustrated in FIG. An example of corresponding areas extracted as a result of matching using T1 to T4 as templates is shown. In the example of FIG. 6, the corresponding region T1 ′ corresponding to the structural region T1 in FIG. 5, the corresponding region T2 ′ corresponding to the structural region T2, the corresponding region T3 ′ corresponding to the structural region T3, and the corresponding region corresponding to the structural region T4. T4 ′ is extracted. In FIG. 6, the search ranges ST1 'to ST4' for each template are indicated by broken lines. For example, if attention is paid to the structure region T1 in the tube interior image at t (i) shown in FIG. 5, matching using the structure region T1 as a template is performed in the tube interior image at t (i + 1) shown in FIG. A region having a high degree of similarity is extracted as the corresponding region T1 ′.
次に、図2のステップS105による管空深部抽出処理について説明する。この管空深部抽出処理では、管空深部抽出部13cは、時刻t(i),t(i+1)の各管空内画像の中から、管空深部を抽出し、その重心位置を算出する。管空深部は、撮像機2から距離が離れているため、撮像機2からの照明が届きにくく、暗い領域として得られる。この暗い画素が集まっている領域を管空深部として抽出し、その重心位置を求める。なお、図3,5,6に示す管空内画像では、管空を理解し易いように模式的に管空深部の中心を明るく示しているが、実際には中心部分も暗い。管空深部抽出部13cは、時刻t(i),t(i+1)の各管空内画像の中から暗い画素が集まる領域(暗部)を管空深部として抽出し、その重心位置を求める。
Next, the tube-pipe deep part extraction process by step S105 of FIG. 2 is demonstrated. In the tube deep portion extraction process, the tube
図7は、管空深部抽出処理の詳細な処理手順を示すフローチャートである。管空深部抽出部13cは、時刻t(i)の管空内画像およびt(i+1)の管空内画像をそれぞれ処理対象とし、ループAの処理をそれぞれ実行する(ステップS501〜ステップS506)。ここで、ループA内の処理の説明において、処理対象とする管空内画像を「対象管空内画像」と称す。
FIG. 7 is a flowchart showing a detailed processing procedure of the deep tube extraction processing. The deep tube
ループAでは、先ず、対象管空内画像を構成する各画素のG値と、予め設定される所定の閾値とを比較し、対象管空内画像の各画素の中から、G値が所定の閾値以下の画素を暗部画素として抽出する(ステップS502)。ここでG値を用いるのは、血液中のヘモグロビンの吸収帯域の波長に近く、感度や解像度が高いことから、対象管空内画像の明暗情報をよく表すためである。なお、G値以外の色成分の値を用いて暗部画素を抽出することとしてもよい。あるいは、公知の変換技術を用いて算出した明暗情報を示す値を用いて暗部画素を抽出することとしてもよい。例えば、YCbCr変換によって算出した輝度や、HSI変換によって算出した明度を用いることができる。また、G値に対して予め設定される所定の閾値を設定することとしたが、対象管空内画像を構成する各画素のG値分布を算出し、公知の判別分析法等を用いて設定することとしてもよい。判別分析法の手法としては、例えば、“CG−ARTS協会,ディジタル画像処理,175p,判別分析法”で開示された手法を用いることができる。 In the loop A, first, the G value of each pixel constituting the target tube aerial image is compared with a predetermined threshold value, and the G value is determined from among the pixels of the target tube aerial image. Pixels below the threshold are extracted as dark pixels (step S502). The G value is used here because it is close to the wavelength of the absorption band of hemoglobin in the blood and has high sensitivity and resolution, and therefore expresses the light / dark information of the target tube aerial image well. Note that the dark pixel may be extracted using the value of the color component other than the G value. Or it is good also as extracting a dark part pixel using the value which shows the brightness information calculated using the well-known conversion technique. For example, the brightness calculated by YCbCr conversion and the brightness calculated by HSI conversion can be used. Also, a predetermined threshold value set in advance for the G value is set. However, the G value distribution of each pixel constituting the target tube aerial image is calculated and set using a known discriminant analysis method or the like. It is good to do. As the method of discriminant analysis, for example, the method disclosed in “CG-ARTS Association, Digital Image Processing, 175p, Discriminant Analysis” can be used.
続いて、管空深部抽出部13cは、ステップS502で抽出した暗部画素に対して公知のラベリング処理を行って、隣接する暗部画素群に固有の値(ラベル)を付ける(ステップS503)。これにより、対象管空内画像中の暗部領域を認識することができる。ラベリング処理の手法としては、例えば、“CG−ARTS協会,ディジタル画像処理,181p,ラベリング”で開示された手法を用いることができる。
Subsequently, the deep
続いて、管空深部抽出部13cは、ステップS503で認識した対象管空内画像中の各暗部領域の面積をそれぞれ算出し、面積が最も大きい暗部領域を管空深部として抽出する(ステップS504)。管空内画像には、例えば管空粘膜のしわの影等、管空深部以外の暗部領域も存在するが、通常これらの領域は管空深部に比べて面積が小さいので、管空深部との識別が可能である。そして、管空深部抽出部13cは、管空深部として抽出した暗部領域の重心位置を算出する(ステップS505)。抽出された管空深部の領域や、この管空深部の重心位置に係るデータは、対象管空内画像の識別情報と対応付けられて記憶部12に保持される。そして、管空深部抽出部13cは、時刻t(i)の管空内画像およびt(i+1)の管空内画像それぞれについてループAの処理を実行したならば、図2のステップS105にリターンする。
Subsequently, the deep tube
図8は、図5に例示したt(i+1)の管空内画像に対する管空深部抽出処理の結果を示す模式図である。図8の例では、管空深部抽出処理の結果、斜線領域31で示す暗部領域が管空深部として抽出され、その重心位置33が算出される。
FIG. 8 is a schematic diagram illustrating a result of the tube hollow depth extraction process for the tube inner image of t (i + 1) illustrated in FIG. In the example of FIG. 8, the dark space region indicated by the hatched
次に、図2のステップS106による移動量推定処理について説明する。この移動量推定処理では、移動量推定部13dは、構造領域抽出部13aが時刻t(i)の管空内画像の中から抽出した構造領域の位置と、対応領域抽出部13bが時刻t(i+1)の管空内画像の中から抽出した対応領域の位置と、管空深部抽出部13cが時刻t(i)管空内画像およびt(i+1)の管空内画像の中から抽出した管空深部およびその重心位置とをもとに、時刻t(i)からt(i+1)までの撮像機2の移動量を推定する。推定された移動量は、記憶部12に格納・蓄積される。
Next, the movement amount estimation processing in step S106 in FIG. 2 will be described. In this movement amount estimation process, the movement
図9は、移動量推定処理を説明するための管空内と撮像機2のモデル図であり、時刻t(i)において管空内の特徴構造51を含む管空内画像を撮像した撮像機2の撮像状況モデルを上段に示し、時刻t(i+1)において特徴構造51を含む管空内画像を撮像した撮像機2の撮像状況モデルを下段に示している。図9の下段に示す撮像状況モデルでは、上段に示す撮像状況モデルに対して、その撮像位置(撮像機2の位置)の変化と撮像方向の変化とが見られる。ここで、Dは、時刻t(i)における撮像機2から管空粘膜の特徴構造51までの距離を管空内壁面上に投影した特徴構造距離を表し、D’は、時刻t(i+1)における撮像機2から管空粘膜の特徴構造51までの距離を管空内壁面上に投影した特徴構造距離を表す。Oは撮像機2が有するレンズ等の光学系の主点に相当する光学中心である。Rは管空半径である。この管空半径Rとしては、例えば平均的な管空半径を用いる。
FIG. 9 is a model diagram of the inside of the tube and the
また、図9上段のモデル図において、この撮像状況モデルによって撮像機2の撮像素子上に投影されて得られる管空内画像の画像座標53aを示している。この画像座標53aは、撮像機2の光軸52と交わる位置を原点とした座標系であり、fは、撮像機2の光学中心Oから撮像素子までの距離である。ここで、この撮像状況モデルによって得られる管空内画像中の特徴構造51が映る構造領域の中心の座標を、構造領域中心座標T(xT,yT)とし、この管空内画像における管空深部の重心位置の座標を管空深部重心座標C(xC,yC)とする。また、θを、時刻t(i)における、光学中心Oから管空深部方向へのベクトルOCと光学中心Oから特徴構造51へのベクトルOTとの成す角とする。
Further, in the upper model diagram of FIG. 9, image coordinates 53 a of an intraluminal image obtained by being projected onto the image pickup device of the
同様にして、図9下段のモデル図において、この撮像状況モデルによって得られる管空内画像の画像座標53bを示している。この画像座標53bは、撮像機2の光軸52と交わる位置を原点とした座標系であり、fは、撮像機2の光学中心Oから撮像素子までの距離である。ここで、この撮像状況モデルによって得られる管空内画像中の特徴構造51が映る対応領域の中心の座標を、対応領域中心座標T’(xT’,yT’)とし、この管空内画像における管空深部の重心位置の座標を管空深部重心座標C’(xC’,yC’)とする。また、θ’を、時刻t(i+1)における、光学中心Oから管空深部の重心方向54へのベクトルOC’と光学中心Oから特徴構造51へのベクトルOT’とのなす角とする。
Similarly, in the model diagram in the lower part of FIG. 9, the image coordinates 53b of the intraluminal image obtained by this imaging state model are shown. The image coordinate 53b is a coordinate system with the position intersecting with the
ここで、図9上段の撮像状況モデルの特徴構造距離D,構造領域中心座標T,管空深部重心座標C,距離f,管空半径Rから、次式(1)が得られる。なお、δは、撮像機2の撮像素子のピッチを表す。距離fおよび撮像素子のピッチδの各カメラパラメータの値は、事前に取得しておく。
同様にして、図下段の撮像状況モデルの特徴構造距離D’,構造領域中心座標T’,管空深部重心座標C’,距離f,管空半径Rから、から、次式(2)が得られる。
そして、式(1)および式(2)から次式(3)が得られる。
式(3)を変形すると、次式(4)が得られる。
式(4)が示すD−D’は、時刻t(i)およびt(i+1)の各時刻での撮像機2から管空粘膜の特徴構造51までの距離を管空内壁面上に投影した特徴構造距離の差分であり、図9下段に示す時刻t(i)からt(i+1)までの撮像機2の移動量dに相当する。このようにしてD−D’を求めることにより、時刻t(i)からt(i+1)までの撮像機2の移動量を推定することができる。具体的には、移動量推定部13dは、構造領域抽出処理によって抽出された各構造領域に対応する特徴構造それぞれについてD−D’を求める。そして、移動量推定部13dは、求めた複数の移動量の値の平均値を算出して、撮像機2の時刻t(i)からt(i+1)までの移動量と推定する。
DD ′ represented by the equation (4) is a projection of the distance from the
次に、図2のステップS109による位置推定処理について説明する。この位置推定処理では、位置推定部13eは、移動量推定処理の結果推定されて記憶部12に蓄積された時刻t(i)からt(i+1)までの撮像機2の移動量の累積値を求め、各管空内画像を撮像した際の撮像機2の位置を推定する。この累積値は、管空の入口での時刻t(0)から管空の出口での時刻t(T)までの撮像機2の移動距離に相当する。なお、求めた累積値を、撮像機2が管空入口から出口まで移動した移動量の総和、すなわち管空の全長で割ることにより、各時刻における管空内での撮像機2の相対的な位置を割り出すこととしてもよい。
Next, the position estimation process in step S109 in FIG. 2 will be described. In this position estimation process, the
図10は、位置推定処理の結果を示す模式図であり、横軸を時刻t、縦軸を管空入口から管空出口までの撮像機2の相対的な位置として、推定された撮像機2の相対的な位置の時系列変化を示している。これによれば、患部を映した管空内画像の撮像時刻をもとに、この管空内画像を撮像した際の管空内での撮像機2の管空入口または管空出口からの相対的な位置を知ることができ、患部の位置を推定することが可能となる。
FIG. 10 is a schematic diagram showing the result of the position estimation process, where the horizontal axis indicates time t and the vertical axis indicates the relative position of the
このように本実施の形態では、撮像機2が時系列で撮像した管空内画像を処理することによって、撮像機内や患者の体外に別途装置を設けることなく、簡易な構成で撮像機2の移動量を推定し、各管空内画像を撮像した際の撮像機2の管空内における位置を推定することができる。この結果、撮像機に移動量測定用の単心コイル等の装置を別途内蔵した場合のように撮像機が大型化したり、システムの構成が複雑化するようなことはなく、撮像機や体外装置をコンパクトかつ低コストで生産することができる。
As described above, in the present embodiment, by processing the intraluminal images captured in time series by the
なお、撮像機2が患部を撮像した場合の撮像機2の位置は、患部の近傍であって、患部の位置と完全には同一ではない。しかしながら、患部が映る管空内画像を利用して、患者の管空内へ医療処置具を挿入する際の挿入ルートを経口からとすべきか経腔からとすべきかを判断する場合であるとか、患者の体を切開する位置を特定臓器の上部に近い方とすべきか下部に近い方とすべきかを判断する場合等には、患部の位置を厳密に把握せずともよい。この場合、本実施の形態によって患部の大体の位置の情報が得られれば、その後の組織採取や止血、患部切除等の医療処置でこの位置の情報を役立てることができる。
Note that the position of the
また、本実施の形態では、管空入口から出口までを対象に説明を行ったが、小腸または大腸等の特定の臓器の開始位置または終了位置等を基点とした撮像機2の位置を推定してもよい。これによれば、特定の臓器の開始位置または終了位置から管空に沿ってどの程度の位置に患部があるかという情報を得ることができる。
In the present embodiment, the description has been made from the tube entrance to the exit, but the position of the
また、本実施の形態では、構造領域を管空深部よりも先に抽出したが、管空深部を先に抽出し、この位置にもとづいて構造領域を抽出してもよく、例えば管空深部を囲むように構造領域を抽出してもよい。 Further, in the present embodiment, the structural region is extracted before the deep tube portion, but the deep tube portion may be extracted first, and the structural region may be extracted based on this position. You may extract a structure area | region so that it may surround.
また、本実施の形態では、所定サイズの矩形領域を走査しながら構造領域として適当な複数の領域を抽出する方法を示したが、構造領域の形状は矩形である必要はなく任意の形状でもよい。たとえば矩形領域内の画素ごとに、管空粘膜の画素か否かの判定を行い、管空粘膜でないと判定された画素を除いた任意形状の領域を構造領域として抽出することもできる。 In the present embodiment, a method of extracting a plurality of appropriate regions as a structure region while scanning a rectangular region of a predetermined size has been described. However, the shape of the structure region does not have to be a rectangle and may be an arbitrary shape. . For example, it is possible to determine whether each pixel in the rectangular area is a pixel of the tubular mucous membrane, and to extract a region having an arbitrary shape excluding pixels determined not to be the tubular mucous membrane as a structural region.
また、予め所定サイズの格子状に管空内画像を分割し、各分割領域において図4に示したステップS302〜S305を行い、最後に、分布範囲が大きな分割領域から順に所定個数の分割領域を構造領域として抽出してもよく、結果として構造領域を抽出するための計算負荷を軽減できる。ここで、構造領域を複数抽出せず、一つだけ抽出することにすれば計算負荷はさらに軽減できる。 In addition, the image in the tube is divided in advance into a grid of a predetermined size, and steps S302 to S305 shown in FIG. 4 are performed in each divided region. Finally, a predetermined number of divided regions are sequentially arranged from the divided region having the largest distribution range. The structure area may be extracted, and as a result, the calculation load for extracting the structure area can be reduced. Here, the calculation load can be further reduced by extracting only one structural region without extracting a plurality of structural regions.
1 被検体
2 撮像機
3 受信装置
A1〜An 受信用アンテナ群
3a 無線ユニット
3b 受信本体ユニット
4 携帯型記録媒体
5 画像処理装置
10 外部インターフェース
11 制御部
12 記憶部
12a 画像処理プログラム
13 演算部
13a 構造領域抽出部
13b 対応領域抽出部
13c 管空深部抽出部
13d 移動量推定部
13e 位置推定部
14 入力部
15 表示部
DESCRIPTION OF
Claims (12)
異なる時刻の管空内画像において管空内の所定部位を抽出する所定部位抽出手段と、
前記所定部位の位置をもとに前記撮像機の移動量を推定する移動量推定手段と、
を備えることを特徴とする請求項1に記載の画像処理装置。 The imaging device movement amount estimation means includes
Predetermined part extracting means for extracting a predetermined part in the tube in the tube image at different times;
A movement amount estimating means for estimating a movement amount of the imaging device based on the position of the predetermined part;
The image processing apparatus according to claim 1, further comprising:
前記管空内画像より構造領域を抽出する構造領域抽出手段と、
前記構造領域を抽出した管空内画像とは異なる時刻の管空内画像より構造領域と対応する対応領域を抽出する対応領域抽出手段と、
前記管空内画像より前記管空内の奥が映る部分である管空深部を抽出する管空深部抽出手段と、
を備え、前記所定部位として前記構造領域と前記対応領域と前記管空深部とを抽出し、
前記移動量推定手段は、前記構造領域と前記対応領域と前記管空深部の位置をもとに前記撮像機の移動量を推定することを特徴とする請求項2に記載の画像処理装置。 The predetermined part extracting means includes
A structure region extracting means for extracting a structure region from the tube interior image;
Corresponding region extracting means for extracting a corresponding region corresponding to the structural region from the tubular image at a different time from the tubular image from which the structural region has been extracted;
A tube deep portion extracting means for extracting a tube deep portion that is a portion in which the depth in the tube is reflected from the tube hollow image;
And extracting the structural region, the corresponding region and the tube air depth as the predetermined portion,
The image processing apparatus according to claim 2, wherein the movement amount estimation unit estimates a movement amount of the image pickup device based on the positions of the structure area, the corresponding area, and the deep tube portion.
体内の管空内を移動する撮像機により撮像された時系列の管空内画像を処理して、撮像機の移動量を推定する撮像機移動量推定ステップ、
前記撮像機移動量推定ステップで複数枚の前記管空内画像を処理することで推定した複数の移動量の値を累積することにより、各管空内画像を撮像した際の前記管空内での前記撮像機の位置を推定する位置推定ステップ、
を実行させることを特徴とする画像処理プログラム。 On the computer,
An imager movement amount estimation step for processing a time-series tube aerial image captured by an imager moving within a body tube and estimating an amount of movement of the imager;
By accumulating a plurality of movement amount values estimated by processing a plurality of the images in the tube in the image pickup device movement amount estimation step, in the tube atmosphere when each tube image is captured. A position estimating step for estimating the position of the imager;
An image processing program for executing
異なる時刻の管空内画像において管空内の所定部位を抽出する所定部位抽出ステップ、
前記所定部位の位置をもとに前記撮像機の移動量を推定する移動量推定ステップ、
を実行させることを特徴とする画像処理プログラム。 A computer that processes time-series tube images taken by an imager that moves inside the tube.
A predetermined part extraction step for extracting a predetermined part in the tube in the tube image at different times;
A movement amount estimation step for estimating a movement amount of the imaging device based on the position of the predetermined part;
An image processing program for executing
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007149120A JP5408843B2 (en) | 2007-06-05 | 2007-06-05 | Image processing apparatus and image processing program |
| PCT/JP2008/059363 WO2008149674A1 (en) | 2007-06-05 | 2008-05-21 | Image processing device, image processing program and image processing method |
| EP08753040.8A EP2163183A4 (en) | 2007-06-05 | 2008-05-21 | Image processing device, image processing program and image processing method |
| US12/621,122 US8107704B2 (en) | 2007-06-05 | 2009-11-18 | Image processing device, image processing program and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007149120A JP5408843B2 (en) | 2007-06-05 | 2007-06-05 | Image processing apparatus and image processing program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2008301877A true JP2008301877A (en) | 2008-12-18 |
| JP5408843B2 JP5408843B2 (en) | 2014-02-05 |
Family
ID=40231125
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007149120A Expired - Fee Related JP5408843B2 (en) | 2007-06-05 | 2007-06-05 | Image processing apparatus and image processing program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5408843B2 (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120008860A1 (en) * | 2010-07-07 | 2012-01-12 | Olympus Corporation | Image processing apparatus, image processing method, and computer-readable recording medium |
| WO2012063623A1 (en) | 2010-11-08 | 2012-05-18 | オリンパスメディカルシステムズ株式会社 | Image display apparatus and capsule endoscopy system |
| WO2013015104A1 (en) | 2011-07-22 | 2013-01-31 | オリンパスメディカルシステムズ株式会社 | Capsule-type endoscope system, image display method, and image display program |
| US9196938B2 (en) | 2010-07-06 | 2015-11-24 | Samsung Sdi Co., Ltd. | Battery module |
| JP2018153345A (en) * | 2017-03-16 | 2018-10-04 | 富士フイルム株式会社 | Endoscope positioning device, method and program |
| JP2018169793A (en) * | 2017-03-30 | 2018-11-01 | 株式会社日立製作所 | Image processing device |
| JP2019027972A (en) * | 2017-08-01 | 2019-02-21 | 株式会社日立製作所 | Inspection system for inside of pipeline facility |
| WO2020121380A1 (en) * | 2018-12-10 | 2020-06-18 | オリンパス株式会社 | Image processing device, method for operating image processing device, and program for operating image processing device |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10124681A (en) * | 1996-10-18 | 1998-05-15 | Ricoh Co Ltd | Portable information processing apparatus and information processing method |
| JP2005334331A (en) * | 2004-05-27 | 2005-12-08 | Olympus Corp | Capsule dosing system |
| JP2006334297A (en) * | 2005-06-06 | 2006-12-14 | Olympus Medical Systems Corp | Image display device |
-
2007
- 2007-06-05 JP JP2007149120A patent/JP5408843B2/en not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10124681A (en) * | 1996-10-18 | 1998-05-15 | Ricoh Co Ltd | Portable information processing apparatus and information processing method |
| JP2005334331A (en) * | 2004-05-27 | 2005-12-08 | Olympus Corp | Capsule dosing system |
| JP2006334297A (en) * | 2005-06-06 | 2006-12-14 | Olympus Medical Systems Corp | Image display device |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9196938B2 (en) | 2010-07-06 | 2015-11-24 | Samsung Sdi Co., Ltd. | Battery module |
| US20120008860A1 (en) * | 2010-07-07 | 2012-01-12 | Olympus Corporation | Image processing apparatus, image processing method, and computer-readable recording medium |
| US9053533B2 (en) * | 2010-07-07 | 2015-06-09 | Olympus Corporation | Image processing apparatus, image processing method, and computer-readable recording medium for extracting a dark portion area from an intraluminal image |
| WO2012063623A1 (en) | 2010-11-08 | 2012-05-18 | オリンパスメディカルシステムズ株式会社 | Image display apparatus and capsule endoscopy system |
| US8711205B2 (en) | 2010-11-08 | 2014-04-29 | Olympus Medical Systems Corp. | Image display device and capsule endoscope system |
| WO2013015104A1 (en) | 2011-07-22 | 2013-01-31 | オリンパスメディカルシステムズ株式会社 | Capsule-type endoscope system, image display method, and image display program |
| US9661995B2 (en) | 2011-07-22 | 2017-05-30 | Olympus Corporation | Capsule endoscope system, operating method of image display, and computer-readable recording medium |
| JP2018153345A (en) * | 2017-03-16 | 2018-10-04 | 富士フイルム株式会社 | Endoscope positioning device, method and program |
| JP2018169793A (en) * | 2017-03-30 | 2018-11-01 | 株式会社日立製作所 | Image processing device |
| JP2019027972A (en) * | 2017-08-01 | 2019-02-21 | 株式会社日立製作所 | Inspection system for inside of pipeline facility |
| WO2020121380A1 (en) * | 2018-12-10 | 2020-06-18 | オリンパス株式会社 | Image processing device, method for operating image processing device, and program for operating image processing device |
| JPWO2020121380A1 (en) * | 2018-12-10 | 2021-10-28 | オリンパス株式会社 | Image processing device, digestive tract shape model generation method, and image processing device operation program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5408843B2 (en) | 2014-02-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7756621B2 (en) | Endoscope system, operation method and program for medical image processing device, and recording medium | |
| JP5408843B2 (en) | Image processing apparatus and image processing program | |
| US8107704B2 (en) | Image processing device, image processing program and image processing method | |
| JP5291955B2 (en) | Endoscopy system | |
| KR100890102B1 (en) | Medical image processing apparatus, and medical image processing method | |
| JP5147308B2 (en) | Image extraction apparatus and image extraction program | |
| JP6177458B2 (en) | Image processing apparatus and endoscope system | |
| JP6405138B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| WO2014136579A1 (en) | Endoscope system and endoscope system operation method | |
| JP2004337596A (en) | Device, method and program for displaying image | |
| WO2006035437A2 (en) | System and method to detect a transition in an image stream | |
| US8086005B2 (en) | Medical image processing apparatus and medical image processing method | |
| WO2008012968A1 (en) | Medical image processing device and medical image processing method | |
| JP4956694B2 (en) | Information processing apparatus and capsule endoscope system | |
| JPWO2014168128A1 (en) | Endoscope system and method for operating endoscope system | |
| JPWO2008136098A1 (en) | Medical image processing apparatus and medical image processing method | |
| JP5078486B2 (en) | Medical image processing apparatus and method of operating medical image processing apparatus | |
| WO2019130868A1 (en) | Image processing device, processor device, endoscope system, image processing method, and program | |
| WO2017212725A1 (en) | Medical observation system | |
| CN116940274A (en) | Shape measurement system for endoscope and shape measurement method for endoscope | |
| JP2007307396A (en) | Image display device, image display method and image display program | |
| JP4749732B2 (en) | Medical image processing device | |
| JP2007307397A (en) | Image display device, image display method and image display program | |
| US20240000299A1 (en) | Image processing apparatus, image processing method, and program | |
| US20240013389A1 (en) | Medical information processing apparatus, endoscope system, medical information processing method, and medical information processing program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100528 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120619 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120809 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130122 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130318 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131008 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131105 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5408843 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |