[go: up one dir, main page]

JP2009011563A - 画像処理装置および画像処理プログラム - Google Patents

画像処理装置および画像処理プログラム Download PDF

Info

Publication number
JP2009011563A
JP2009011563A JP2007176531A JP2007176531A JP2009011563A JP 2009011563 A JP2009011563 A JP 2009011563A JP 2007176531 A JP2007176531 A JP 2007176531A JP 2007176531 A JP2007176531 A JP 2007176531A JP 2009011563 A JP2009011563 A JP 2009011563A
Authority
JP
Japan
Prior art keywords
image
motion
motion pattern
motion vector
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007176531A
Other languages
English (en)
Other versions
JP4959445B2 (ja
Inventor
Takehiro Matsuda
岳博 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2007176531A priority Critical patent/JP4959445B2/ja
Priority to PCT/JP2008/060305 priority patent/WO2009004890A1/ja
Priority to US12/166,520 priority patent/US8107686B2/en
Publication of JP2009011563A publication Critical patent/JP2009011563A/ja
Application granted granted Critical
Publication of JP4959445B2 publication Critical patent/JP4959445B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】時系列画像を表示する場合の観察者による表示内容の見逃しの防止を図るとともに、観察効率を向上させること。
【解決手段】動きベクトル算出部751は、生体内画像間で各画像に映る同一の対象物の対応付けを行い、その位置の変化量を表すベクトルデータ(動きベクトル)を算出する。画像新出割合推定部754は、各生体内画像について、その時系列前画像との間で新規に発生した領域を推定し、その新規発生領域の割合を新出割合として算出する。表示時間決定係数算出部755は、新出割合をもとに、各生体内画像の表示時間を決定するための表示時間決定係数を算出する。
【選択図】図2

Description

本発明は、撮像装置が時系列に沿って撮像した時系列画像を処理する画像処理装置および画像処理プログラムに関するものである。
近年、内視鏡の分野において、被検体内部の画像を撮像する撮像機能や、撮像部によって撮像された画像情報を無線送信する送信機能等がカプセル形状のケース内に収容されて構成された、飲込み型のカプセル型内視鏡が提案されている。このカプセル型内視鏡は、検査のため被検体である患者の口から飲込まれて被検体内部に導入され、自然排出されるまでの間、体内の例えば食道や胃、小腸、大腸等の臓器内部をその蠕動運動に従って移動する。そして、体内を移動中に、例えば2〜4(frame/sec)で体内の画像を順次撮像し、撮像した画像情報を体外の受信装置に無線送信する。このカプセル型内視鏡によって撮像されて体外の受信装置で受信された被検体内部の画像は、診断用のワークステーション等で時系列順に順次表示され、医師等の観察者によって確認される。
このカプセル型内視鏡は、膨大な枚数の画像を撮像する。このため、診断用のワークステーション等では、時系列で近傍する画像間の類似度をもとに各画像が観察すべき画像か否かを判別し、観察すべき画像の表示時間を長く、観察する必要がない画像の表示時間を短くして各画像の表示時間を調整することによって観察者による画像の観察にかかる負担を軽減している。この種の技術としては、画像内に複数の画素領域を設定し、時系列で連続する画像間での各画素領域の動きベクトルを求めることによって画像の類似度を判定する技術が知られている。例えば、時系列で連続する画像間で算出した各画素領域それぞれの動きベクトルのうち、最も大きな動きベクトルの動きベクトル量(代表動きベクトル量)を選出し、この代表動きベクトル量をもとに各画像の表示時間を算出する手法が知られている。あるいは、求めた各動きベクトルの向きが揃っているか否かによって同一の撮像シーンである画像を判定し、同一の撮像シーンである画像の表示をスキップまたは高速に表示する手法が知られている(特許文献1参照)。
特開2006−280792号公報
ところで、代表動きベクトル量が同じ程度の画像であっても、他の動きベクトルとの関係によって時系列で近傍する画像との見え方の変化が違う場合があった。例えば、カプセル型内視鏡が横にスライド(平行移動)しながら撮像した画像なのか、進行方向に移動しながら撮像した画像なのかによって前後の見え方の変化は大きく異なる。あるいは、画像間での画素領域の対応付けが適切でなく、誤った位置で得られた動きベクトルの大きさを代表動きベクトル量としてしまう場合もあった。このため、1つの代表動きベクトル量だけに着目してしまうと、代表動きベクトル量と画像の見え方の変化との相関が低い場面が発生し、適切な表示時間で表示させることができない場合があった。この結果、変化の大きい場面の表示時間が短く設定されてしまい、観察者が重要な情報を見逃してしまうという事態が生じる可能性があった。反対に、変化の小さい場面の表示時間が長く設定されてしまい、観察効率の低下を招くという問題があった。
また、上記した特許文献では、複数の動きベクトルを用いて画像の類似度の判定を行ってはいるものの、各画像が同一シーンを撮像した画像かどうかの簡単な判定に留まっており、前後の画像の見え方の変化に応じて表示時間を調整することはできなかった。
本発明は、上記に鑑みてなされたものであって、時系列画像を表示する場合の観察者による表示内容の見逃しの防止を図るとともに、観察効率を向上させることができる画像表示装置を提供することを目的とする。
上述した課題を解決し、目的を達成するため、本発明にかかる画像処理装置は、撮像装置が時系列に沿って撮像した時系列画像を処理する画像処理装置であって、画像内に設定した複数の画素領域について、前記時系列画像を構成する複数の画像間での動きベクトルを算出する動きベクトル算出手段と、前記動きベクトル算出手段によって算出された動きベクトルをもとに、前記複数の画像間で画像に新規に発生した領域の割合である新出割合を推定する新出割合推定手段と、前記新出割合推定手段によって推定された新出割合に応じて、前記画像の表示時間を算出する表示時間算出手段と、を備えることを特徴とする。
また、本発明にかかる画像処理プログラムは、撮像装置が時系列に沿って撮像した一連の画像を処理するコンピュータに、画像内に設定した複数の画素領域について、前記時系列画像を構成する複数の画像間での動きベクトルを算出する動きベクトル算出ステップ、前記動きベクトル算出ステップによって算出された動きベクトルをもとに、前記複数の画像間で画像に新規に発生した領域の割合である新出割合を推定する新出割合推定ステップ、前記新出割合推定ステップによって推定された新出割合に応じて、前記画像の表示時間を算出する表示時間算出ステップ、を実行させることを特徴とする。
本発明に係る画像表示装置によれば、画像間で新規に発生した領域の画像に占める割合である新出割合に応じて画像の表示時間を設定することができるので、観察者による表示内容の見逃しを防止しながら、時系列画像を構成する複数の画像の内容を効率よく把握することができるという効果を奏する。
以下、図面を参照し、本発明の好適な実施の形態について詳細に説明する。
図1は、本実施の形態にかかる画像処理装置を含む画像処理システムの全体構成を示す概略模式図である。なお、本実施の形態の画像処理装置は、カプセル型内視鏡によって撮像された体腔内の画像を処理して表示する画像処理装置である。図1に示すように、画像処理システムは、被検体1内部の画像(生体内画像)を撮像するカプセル型内視鏡3、カプセル型内視鏡3から無線送信される生体内画像を受信する受信装置4、受信装置4によって受信された生体内画像をもとに、カプセル型内視鏡3によって撮像された生体内画像を処理して表示する画像処理装置70等で構成される。受信装置4と画像処理装置70との間の画像データの受け渡しには、例えば可搬型の記録媒体(可搬型記録媒体)5が使用される。
カプセル型内視鏡3は、撮像機能や無線機能等を具備するものであって、被検体1の口から飲み込まれて被検体1内部に導入され、体腔内を移動しながら逐次生体内画像を撮像する。そして、撮像した生体内画像を体外に無線送信する。
受信装置4は、複数の受信用アンテナA1〜Anを備え、各受信用アンテナA1〜Anを介してカプセル型内視鏡3から無線送信される生体内画像を受信する。この受信装置4は、可搬型記録媒体5の着脱が自在に構成されており、受信した生体内画像の画像データを可搬型記録媒体5に逐次保存する。このようにして、受信装置4は、カプセル型内視鏡3が撮像した被検体1内部の生体内画像を時系列順に可搬型記録媒体5に蓄積する。
受信アンテナA1〜Anは、例えばループアンテナで構成され、図1に示すように、被検体1の体表上の所定位置に分散配置される。具体的には、例えば、被検体1内におけるカプセル型内視鏡3の通過経路に対応する体表上の位置に分散配置される。なお、受信アンテナA1〜Anは、被検体1に着用させるジャケットに分散配置されるものであってもよい。この場合には、受信アンテナA1〜Anは、被検体1がこのジャケットを着用することによって、被検体1内におけるカプセル型内視鏡3の通過経路に対応する被検体1の体表上の所定位置に配置される。また、受信アンテナは、被検体1に対して1つ以上配置されればよく、その数は限定されない。
処理装置70は、ワークステーションやパソコン等の汎用コンピュータで実現されるものであり、可搬型記録媒体5の着脱が自在に構成される。この画像処理装置70は、可搬型記録媒体5に蓄積された時系列の生体内画像を取得し、LCDやELD等のディスプレイに取得した時系列の生体内画像を順次切り替えて連続的に表示する。
図2は、画像処理装置70の機能構成を説明するブロック図である。本実施の形態では、画像処理装置70は、画像取得部710と、入力部720と、表示部730と、記憶部740と、画像処理部750と、装置各部を制御する制御部760とを備える。
画像取得部710は、カプセル型内視鏡3によって撮像された時系列の生体内画像を取得するものであり、例えば、可搬型記録媒体5を着脱自在に装着し、装着した可搬型記録媒体5に蓄積された時系列の生体内画像の画像データを読み出して取得する。この画像取得部710は、例えば、可搬型記録媒体5の種類に応じた読み書き装置によって実現される。なお、カプセル型内視鏡3によって撮像された時系列の生体内画像の取得は、可搬型記録媒体5を用いた構成に限定されるものではなく、例えば、画像取得部710の代わりにハードディスクを備える構成とし、ハードディスク内にカプセル型内視鏡3によって撮像された時系列の生体内画像を予め保存しておく構成としてもよい。あるいは、可搬型記録媒体5の代わりに別途サーバーを設置し、このサーバーに時系列の生体内画像を予め保存しておく構成としてもよい。この場合には、画像取得部を、サーバーと接続するための通信装置等で構成し、この画像取得部を介してサーバーに接続して、サーバーから時系列の生体内画像を取得する。
入力部720は、例えば、キーボードやマウス、タッチパネル、各種スイッチ等によって実現されるものであり、操作入力に応じた操作信号を制御部760に出力する。表示部730は、LCDやELD等の表示装置によって実現されるものであり、制御部760の制御によって、時系列の生体内画像の表示画面を含む各種画面を表示する。
画像処理部750は、CPU等のハードウェアによって実現され、画像取得部710によって取得される時系列画像である複数の生体内画像を処理し、各生体内画像を表示部730に表示する際の表示時間を決定する表示時間決定係数を算出するための種々の演算処理を行う。この画像処理部750は、動きベクトル算出手段に相当する動きベクトル算出部751と、動きパターン分類手段に相当する画像動きパターン分類部752と、パターン外ベクトル抽出手段に相当する外れベクトル探索部753と、新出割合推定手段に相当する画像新出割合推定部754と、表示時間算出手段に相当する表示時間決定係数算出部755とを含む。動きベクトル算出部751は、生体内画像間で各画像に映る同一の対象物の対応付けを行い、その位置の変化量を表すベクトルデータ(動きベクトル)を算出する。画像動きパターン分類部752は、各生体内画像の動きパターン(以下、「画像動きパターン」と称す。)、すなわち各生体内画像を撮像したときのカプセル型内視鏡3の動きパターンを、その動きベクトルをもとに「動きなし」「平行移動」「奥行き方向奥への移動」「奥行き方向手前への移動」「シーンチェンジ」のいずれかの画像動きパターンに分類する。外れベクトル探索部753は、各生体内画像中の動きベクトルの中から、この生体内画像の画像動きパターンから外れた動きベクトルを探索し、外れベクトルとして抽出する。画像新出割合推定部754は、各生体内画像について、その時系列前画像との間で画像に新規に発生した領域(以下、「新規発生領域」と称す。)を推定し、その新規発生領域の割合を新出割合として算出する。表示時間決定係数算出部755は、新出割合をもとに、各生体内画像の表示時間を決定するための算出パラメータである表示時間決定係数を算出する。
制御部760は、CPU等のハードウェアによって実現される。この制御部760は、画像取得部710から入力される生体内画像の画像データや入力部720から入力される操作信号、記憶部740に格納されるプログラムやデータ等に基づいて画像処理装置70を構成する各部への指示やデータの転送等を行い、画像処理装置70全体の動作を統括的に制御する。また、この制御部760は、画像取得部710から入力される時系列の生体内画像をそれぞれその表示時間に従って時系列順に順次表示部730に表示する制御を行う画像表示制御部761を含む。
記憶部740は、更新記憶可能なフラッシュメモリ等のROMやRAMといった各種ICメモリ、内蔵或いはデータ通信端子で接続されたハードディスク、CD−ROM等の情報記録媒体及びその読取装置等によって実現されるものであり、画像処理装置70の動作にかかるプログラムや、画像処理装置70の備える種々の機能を実現するためのプログラム、これらプログラムの実行にかかるデータ等が格納される。また、表示時間決定係数算出部755によって算出される各生体内画像それぞれの表示時間決定係数を記憶する表示時間決定係数データ741が格納される。なお、この表示時間決定係数のデータは、各生体内画像と対応付けて可搬型記録媒体5に書き込む構成としてもよい。また、画像処理部750を、動きベクトル算出部751、画像動きパターン分類部752、外れベクトル探索部753、画像新出割合推定部754および表示時間決定係数算出部755として機能させるための画像処理プログラム743が格納される。
図3は、画像処理装置70が行う処理手順を示す全体フローチャートである。なお、ここで説明する処理は、画像処理部750が記憶部740に格納された画像処理プログラム743を読み出して実行することによって実現される。
図3に示すように、先ず、動きベクトル算出部751が動きベクトル算出処理を行う(ステップS1)。続いて、画像動きパターン分類部752が画像動きパターン分類処理を行う(ステップS2)。続いて、外れベクトル探索部753が外れベクトル探索処理を行う(ステップS3)。続いて、画像新出割合推定部754が画像新出割合推定処理を行う(ステップS4)。そして、表示時間決定係数算出部755が表示時間決定係数算出処理を行う(ステップS5)。このステップS1〜ステップS5の各処理によって、各生体内画像の表示時間決定係数を得る。そして、これらの処理の後、画像表示制御部761が、各生体内画像をそれぞれその表示時間決定係数によって定まる表示時間で時系列順に順次表示部730に表示する制御を行う。なお、画像処理装置において各生体内画像の表示時間決定係数を算出する処理を行い、この画像処理装置とは別の装置において、各生体内画像をその表示時間決定係数によって定まる表示時間で時系列順に順次表示する構成としても構わない。以下、ステップS1〜ステップS5の各処理の詳細について、一の生体内画像(以下、適宜「処理対象画像」と呼ぶ。)の表示時間決定係数を求める場合に着目して説明する。
先ず、図3のステップS1による動きベクトル算出処理について説明する。この動きベクトル算出処理では、動きベクトル算出部751は、生体内画像中に複数設定した画素領域をテンプレートとしたテンプレートマッチングを行い、例えば、直前に撮像された時系列で前の生体内画像(以下、適宜「時系列前画像」と称す。)との間で各テンプレート位置の動きベクトルを算出する。
図4−1は、時系列前画像の一例を示す図であり、図4−2は、処理対象画像の一例を示す図であり、図4−3は、図4−1の時系列前画像と図4−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。動きベクトル算出部751は、先ず、図4−1に示すように、時系列前画像中に所定数(例えば16個)の画素領域101を設定する。設定する画素領域の位置やサイズ、数等は予め設定しておくこととしてもよいし、ユーザ操作等によって設定変更可能に構成してもよい。続いて、動きベクトル算出部751は、各画素領域101を順次テンプレートとし、公知のテンプレートマッチング処理を行って処理対象画像の中から各テンプレートと最もマッチングする(相関値が高い)位置を探索する。テンプレートマッチングの手法としては、例えば正規化相互相関によるマッチングを用いる。詳細には、処理高速化のため、低解像度の画像から順次マッチング領域を探索し、探索範囲を絞っていく多重解像度ピラミッド探索の手法を用いる。このとき、動きベクトル算出部751は、テンプレートとする時系列前画像中の画素領域の画素平均値をそれぞれ算出し、所定の閾値以下の暗い画素領域についてはテンプレートマッチングを行わず、マッチング失敗とする。また、多重解像度ピラミッド探索によるマッチング探索途中でマッチングする領域が見つからなかった場合や、得られた相関値が低いものについても、マッチング失敗とする。このテンプレートマッチングの結果、図4−2に示すように、処理対象画像の中から図4−1の各画素領域101と最も類似するテンプレート位置103が探索され、その相関値が得られる。そして、動きベクトル算出部751は、図4−3に示すように、探索されたテンプレート位置103、より詳細には、探索されたテンプレート位置であって、マッチングが成功したテンプレート位置103をもとに動きベクトル105を算出する。この動きベクトル算出処理によって得られたマッチング結果のデータは記憶部740に保持される。例えば、テンプレートとする画素領域の識別番号と対応付けて、マッチングの成否、得られたテンプレート位置やその相関値、動きベクトル等が記憶される。
次に、図3のステップS2による画像動きパターン分類処理について説明する。図5は、画像動きパターン分類処理の詳細な処理手順を示すフローチャートである。
この画像動きパターン分類処理では、画像動きパターン分類部752は、先ず、信頼値の一例である動きベクトル算出処理でのマッチングの成功数と、予め閾値として設定される基準成功数とを比較し、基準成功数以下の場合には(ステップS11:Yes)、ステップS27に移行して画像動きパターンを「シーンチェンジ」に分類する。図6−1は、時系列前画像の一例を示す図であり、図6−2は、処理対象画像の一例を示す図であり、図6−3は、図6−1の時系列前画像と図6−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。この時系列前画像と処理対象画像のように、時系列の前後でカプセル型内視鏡3の撮像位置が大きく変わり、画像の見えが大きく変わった場合、時系列前画像で設定したテンプレートに対して処理対象画像でマッチングする位置が得られない、あるいは得られたテンプレートマッチング位置での相関値が低くなるため、図6−3に示すように、マッチングに失敗した箇所111が多く発生する。このように、マッチングの失敗数が多く、マッチングが成功したテンプレート数が基準成功数以下の場合には、画像動きパターンは「シーンチェンジ」に分類される。
一方、図5に示すように、マッチングの成功数が基準成功数より多い場合には(ステップS11:No)、画像動きパターン分類部752は、動きなし判定処理を実行する(ステップS13)。
図7は、動きなし判定処理の処理手順を示すフローチャートである。この動きなし判定処理では、画像動きパターン分類部752は、先ず、マッチングが成功して得られたベクトル数(マッチングベクトル数)が、予めステップS31の判定用の閾値として設定される所定数以下か否かを判定する。そして、画像動きパターン分類部752は、所定数より多い場合には(ステップS31:No)、その大きさが最大値の動きベクトルを選出し、外れ値としてステップS35以降の処理の対象から除外する(ステップS33)。これは、動きベクトル算出の際に間違った位置でマッチングがとられた動きベクトルが存在することがあり、この場合を考慮して判定精度を向上させるためであるが、マッチングが成功した動きベクトルが少ない場合には、外れ値の除外によって画像動きパターンの判定に用いる動きベクトルが少なくなり、誤った画像動きパターンに当てはめてしまう可能性がある。このため、マッチングベクトル数が所定数以下の場合には(ステップS31:Yes)、外れ値を除外するステップS33の処理を行わない。
続いて、画像動きパターン分類部752は、外れ値として除外された動きベクトル以外の動きベクトルをもとに、動きベクトルの大きさの平均値を算出する(ステップS35)。続いて、画像動きパターン分類部752は、マッチングベクトル数に応じてベクトル平均閾値を設定する(ステップS37)。図8は、ベクトル平均閾値の設定について説明する図であり、横軸をマッチングベクトル数、縦軸をベクトル平均閾値として、マッチングベクトル数に応じて設定されるベクトル平均閾値の一例を示している。図8に示すように、ベクトル平均閾値は、マッチングベクトル数が少ないほどその値が小さくなるように設定される。これは、動きなし判定に用いる動きベクトル数が少ない場合、処理対象画像の画像動きパターンが偶然「動きなし」に当てはまる可能性が高くなるためである。
実際には、このベクトル平均閾値は、予め設定される基準ベクトル平均閾値をもとに次式(1)に従って算出される。
Figure 2009011563
ここで、Vs’はベクトル平均閾値、Vsは基準ベクトル平均閾値、pはマッチングが成功した動きベクトル数(マッチングベクトル数)、Nは全てのマッチングが成功した場合の動きベクトル数(時系列前画像中に設定した画素領域数に相当)、αsは変換係数を表す。
そして、画像動きパターン分類部752は、図7に示すように、ステップS35で算出した動きベクトルの大きさの平均値が、ステップS37で設定したベクトル平均閾値以下の場合に(ステップS39:Yes)、処理対象画像の画像動きパターンを「動きなし」に分類する(ステップS41)。なお、本実施形態では、ステップS35で算出した動きベクトルの大きさの平均値が、ステップS37で設定したベクトル平均閾値以下の場合に、処理対象画像の画像動きパターンを「動きなし」に分類するが、この実施形態に限らず、ベクトルの大きさの平均値、最小値、最大値、中間値の少なくともいずれか1つについて設定した閾値と比較することで、処理対象画像の画像動きパターンを「動きなし」に分類するように構成してもよい。図9−1は、時系列前画像の一例を示す図であり、図9−2は、処理対象画像の一例を示す図であり、図9−3は、図9−1の時系列前画像と図9−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。図9−1の時系列前画像と図9−2の処理対象画像のように各画像間で画像がほとんど変化しない場合、図9−3に示すように、処理対象画像中で算出される動きベクトル121は小さく、画像動きパターンは「動きなし」に分類される。そして、画像動きパターン分類部752は、図5のステップS13にリターンし、その後ステップS15に移行する。
ステップS15では、画像動きパターン分類部752は、画像動きパターンが「動きなし」か否かを判定する。そして、画像動きパターン分類部752は、画像動きパターンが「動きなし」の場合、すなわちステップS13の動きなし判定処理によって画像動きパターンが「動きなし」に分類された場合には(ステップS15:Yes)、本処理を終了する。一方、画像動きパターン分類部752は、画像動きパターンが「動きなし」でない場合には(ステップS15:No)、平行移動判定処理を実行する(ステップS17)。
図10は、平行移動判定処理の処理手順を示すフローチャートである。生体内画像の画像動きパターンが「平行移動」の場合、その動きベクトルは全て同じような大きさと向きを持つ。この平行移動判定処理では、各動きベクトルの向きをもとに画像動きパターンが「平行移動」か否かを判定する。すなわち、先ず、画像動きパターン分類部752は、マッチングベクトル数が、予めステップS51の判定用の閾値として設定される所定数以下か否かを判定する。そして、画像動きパターン分類部752は、所定数より多い場合には(ステップS51:No)、動きベクトルの角度(向き)の平均を算出してこの角度平均との差分の絶対値が最も大きい動きベクトルを選出し、外れ値としてステップS55以降の処理の対象から除外する(ステップS53)。これは、動きなし判定処理と同様に、動きベクトル算出の際に間違った位置でマッチングがとられた場合を考慮して判定精度を向上させるためであり、マッチングが成功したマッチングベクトル数が所定数以下の場合には(ステップS51:Yes)、外れ値を除外するステップS53の処理を行わない。
続いて、画像動きパターン分類部752は、外れ値として除外された動きベクトル以外の動きベクトルをもとに、動きベクトルの角度のばらつきを算出する(ステップS55)。本実施形態では、角度のばらつきとして、角度分散を算出する。続いて、画像動きパターン分類部752は、マッチングベクトル数に応じてベクトル角度分散閾値を設定する(ステップS57)。図11は、ベクトル角度分散閾値の設定について説明する図であり、横軸をマッチングベクトル数、縦軸をベクトル角度分散閾値として、マッチングベクトル数に応じて設定されるベクトル角度分散閾値の一例を示している。図11に示すように、ベクトル角度分散閾値は、マッチングベクトル数が少ないほどその値が小さくなるように設定される。平行移動判定に用いる動きベクトル数が少ない場合、処理対象画像の画像動きパターンが偶然「平行移動」に当てはまる可能性が高くなるためである。
実際には、このベクトル角度分散閾値は、予め設定される基準ベクトル角度分散閾値をもとに次式(2)に従って算出される。
Figure 2009011563
ここで、Vp’はベクトル角度分散閾値、Vpは基準ベクトル角度分散閾値、pはマッチングが成功した動きベクトル数、Nは全てのマッチングが成功した場合の動きベクトル数、αpは変換係数を表す。
そして、画像動きパターン分類部752は、図10に示すように、ステップS55で算出した動きベクトルの角度分散が、ステップS57で設定したベクトル角度分散閾値以下の場合に(ステップS59:Yes)、処理対象画像の画像動きパターンを「平行移動」に分類する(ステップS61)。図12−1は、時系列前画像の一例を示す図であり、図12−2は、処理対象画像の一例を示す図であり、図12−3は、図12−1の時系列前画像と図12−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。図12−3に示すように、図12−1の時系列前画像と図12−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトル131がほぼ同一方向を向いている場合、画像動きパターンは「平行移動」に分類される。そして、画像動きパターン分類部752は、図5のステップS17にリターンし、その後ステップS19に移行する。
ステップS19では、画像動きパターン分類部752は、画像動きパターンが「平行移動」か否かを判定する。そして、画像動きパターン分類部752は、画像動きパターンが「平行移動」の場合、すなわちステップS17の平行移動判定処理によって画像動きパターンが「平行移動」に分類された場合には(ステップS19:Yes)、本処理を終了する。一方、画像動きパターン分類部752は、画像動きパターンが「平行移動」でない場合には(ステップS19:No)、奥行き方向移動判定処理を実行する(ステップS21)。
図13は、奥行き方向移動判定処理の処理手順を示すフローチャートである。この奥行き方向移動判定処理では、画像動きパターン分類部752は、先ず、処理対象画像中に所定数の中心点候補を設定する(ステップS71)。図14は、処理対象画像に設定される中心点候補の一例を示す図であり、処理対象画像中に複数の中心点候補141が配列されて設定されている。各中心点候補141の位置および数は、予め設定しておく。画像動きパターン分類部752は、この中心点候補141の中から奥行き中心点を選定する。ここでいう奥行き中心点とは、カプセル型内視鏡3の移動の進行方向が画像上に表れる位置である進行方向位置に相当する。画像動きパターン分類部752は、処理対象画像上のカプセル型内視鏡3の進行方向位置と最も近接する中心点候補141を選定し、奥行き中心点とする。
具体的には、画像動きパターン分類部752は、各中心点候補それぞれについて、中心点候補から各動きベクトルの始点へのベクトル(以下、「始点ベクトル」と呼ぶ)を算出し、続いて各中心点候補それぞれについて算出した各始点ベクトルについて、その始点ベクトルが指し示す位置を始点とする動きベクトルとの内積(以下、「動きベクトル内積」と呼ぶ。)を算出する(ステップS73)。そして、画像動きパターン分類部752は、中心点候補毎に動きベクトル内積の平均を算出し(ステップS75)、算出した動きベクトル内積の平均の絶対値が最大値の中心点候補を、奥行き中心点として選定する(ステップS77)。
図15−1および図15−2は、奥行き中心点の選定方法について説明する説明図である。仮に処理対象画像の動作パターンが「奥行き方向奥への移動」または「奥行き方向手前への移動」であるとすると、図15−1に示すように、正しい奥行き中心点である中心点候補143では、中心点候補143を各動きベクトルの始点と結んだ各始点ベクトルの方向が、それぞれその始点ベクトルが指し示す位置を始点とする動きベクトルの方向と近くなる。このとき「奥行き方向奥への移動」であれば始点ベクトルおよび動きベクトルは正向きとなり、「奥行き方向手前への移動」であれば逆向きとなる。これに対し、図15−2に示すように、奥行き中心点ではない中心点候補145について算出した各始点ベクトルと対応する各動きベクトルとの関係をみると、これらの向きに一致性がみられない。ここで、始点ベクトルと動きベクトルの方向が近いということは、これらのなす角度が0度もしくは180度に近くなるということであり、始点ベクトルと動きベクトルの内積(動きベクトル内積)の値の絶対値は「1」に近くなる。そこで、中心点候補毎に動きベクトル内積の平均を算出し、中心点候補のうち、動きベクトル内積の平均の絶対値が最大値となる中心点候補を奥行き中心点として選定する。なお、奥行き方向中心点に極めて近い位置で動きベクトルが算出された場合、動きベクトルが0ベクトルになることがある。この0ベクトルについては、動きベクトル内積の値を、その平均がプラスの値の場合には「1.0」、マイナスの値の場合には「−1.0」として処理する。
続いて、画像動きパターン分類部752は、図13に示すように、マッチングの失敗数と、奥行き中心点からの動きベクトル内積の絶対値が予め設定される基準内積値以下の動きベクトル数、すなわち、その方向が始点ベクトルの方向(奥行き方向に相当)と一致していない動きベクトル数との総和を算出し、予めステップS79の判定用の閾値として設定される所定数未満の場合には(ステップS79:Yes)、ステップS81に移行する。所定数以上の場合には(ステップS79:No)、本処理を終了する。これは、マッチング失敗数が多い場合や、その方向が始点ベクトルの方向と一致しない動きベクトルが多い場合は、奥行き方向移動判定の結果に信頼性が得られないと考えられるためであり、奥行き方向移動判定にかかるステップS81以降の処理を行わない。具体的には、動きベクトル内積の平均がプラスの値の場合であれば、動きベクトル内積の値が所定の内積下限値以下の動きベクトルを、その方向が始点ベクトルの方向と一致していないと判定する。動きベクトル内積の平均がマイナスの値であれば、動きベクトル内積の値が所定の内積上限値以上の動きベクトルを、その方向が始点ベクトルの方向と一致していないと判定する。そして、これら始点ベクトルの方向と一致しない方向を持つ動きベクトルの数とマッチングの失敗数との総和が所定数以上か否かを判定する。
ステップS81では、画像動きパターン分類部752は、マッチングベクトル数をもとに奥判定用内積閾値および手前判定用内積閾値を設定する。図16は、奥判定用内積閾値の設定について説明する図であり、横軸をマッチングベクトル数、縦軸を奥判定用内積閾値として、マッチングベクトル数に応じて設定される奥判定用内積閾値の一例を示している。図16に示すように、奥判定用内積閾値は、マッチングベクトル数が少ないほどその値が「1」に近くなるように設定される。奥行き方向移動判定に用いる動きベクトル数が少ない場合、処理対象画像の画像動きパターンが偶然「奥行き方向奥への移動」に当てはまる可能性が高くなるためであり、奥判定用内積閾値を高く設定する。
実際には、この奥判定用内積閾値は、予め設定される基準奥判定用内積閾値をもとに次式(3)に従って算出される。
Figure 2009011563
ここで、Vb’は奥判定用内積閾値、Vbは基準奥判定用内積閾値、pはマッチングが成功した動きベクトル数、Nは全てのマッチングが成功した場合の動きベクトル数、αbは変換係数を表す。
また、図17は、手前判定用内積閾値の設定について説明する図であり、横軸をマッチングベクトル数、縦軸を手前判定用内積閾値として、マッチングベクトル数に応じて設定される手前判定用内積閾値の一例を示している。図17に示すように、手前判定用内積閾値は、マッチングベクトル数が少ないほどその値が「−1」に近くなるように設定される。奥行き方向移動判定に用いる動きベクトル数が少ない場合、処理対象画像の画像動きパターンが偶然「奥行き方向手前への移動」に当てはまる可能性が高くなるためであり、手前判定用内積閾値を低く設定する。
実際には、この手前判定用内積閾値は、予め設定される基準手前判定用内積閾値をもとに次式(4)に従って算出される。
Figure 2009011563
ここで、Vd’が手前判定用内積閾値、Vdは基準手前判定用内積閾値、pはマッチングが成功した動きベクトル数、Nは全てのマッチングが成功した場合の動きベクトル数、αdは変換係数を表す。
そして、画像動きパターン分類部752は、図13に示すように、ステップS75で奥行き中心について算出した動きベクトル内積の平均が、ステップS81で設定した奥判定用内積閾値以上の場合に(ステップS83:Yes)、処理対象画像の画像動きパターンを「奥行き方向奥への移動」に分類する(ステップS85)。なお、本実施形態では、ステップS75で奥行き中心について算出した動きベクトル内積の平均が、ステップS81で設定した奥判定用内積閾値以上の場合に、処理対象画像の画像動きパターンを「奥行き方向奥への移動」に分類しているが、これに限られない。動きベクトル内積の平均、最小値、ばらつきの少なくともいずれか1つが、「奥行き方向奥への移動」の判定のために設定した閾値の範囲内である場合に、処理対象画像の画像動きパターンを「奥行き方向奥への移動」に分類するようにすればよい。図18−1は、時系列前画像の一例を示す図であり、図18−2は、処理対象画像の一例を示す図であり、図18−3は、図18−1の時系列前画像と図18−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。また、図18−3中に、奥行き中心点151を示している。図18−3に示すように、各動きベクトル153が、対応する始点ベクトル(奥行き中心点151から動きベクトルに向かう向き)と略正向きである場合には、画像動きパターンが「奥行き方向奥への移動」に分類される。
一方、画像動きパターン分類部752は、図13に示すように、ステップS75で奥行き中心について算出した動きベクトル内積の平均が、ステップS81で設定した手前判定用内積閾値以下の場合に(ステップS87:Yes)、処理対象画像の画像動きパターンを「奥行き方向手前への移動」に分類する(ステップS89)。なお、本実施形態では、ステップS75で奥行き中心について算出した動きベクトル内積の平均が、ステップS81で設定した手前判定用内積閾値以下の場合に、処理対象画像の画像動きパターンを「奥行き方向手前への移動」に分類しているが、これに限られない。動きベクトル内積の平均、最大値、ばらつきの少なくともいずれか1つが、「奥行き方向手前への移動」の判定のために設定した閾値の範囲内である場合に、処理対象画像の画像動きパターンを「奥行き方向手前への移動」に分類するようにすればよい。図19−1は、時系列前画像の一例を示す図であり、図19−2は、処理対象画像の一例を示す図であり、図19−3は、図19−1の時系列前画像と図19−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。また、図19−3中に、奥行き中心点161を示している。図19−3に示すように、各動きベクトルが、それぞれ対応する始点ベクトル(奥行き中心点161から動きベクトルに向かう向き)と略逆向きである場合には、画像動きパターンが「奥行き方向手前への移動」に分類される。
なお、画像動きパターンを、動きベクトル内積の平均が奥判定用内積閾値以上の場合に「奥行き方向奥への移動」に分類することとしたが、動きベクトルと始点ベクトルとのなす角度をもとに分類することとしてもよい。すなわち、例えば、各動きベクトルと始点ベクトルとのなす角度の平均を算出し、この値が予め閾値として設定される所定値以下の場合に、奥行き方向への移動と判定する。そして、動きベクトルと始点ベクトルとが略正向きの場合には画像動きパターンを「奥行き方向奥への移動」に分類し、動きベクトルと始点ベクトルとが略逆向きの場合には画像動きパターンを「奥行き方向手前への移動」に分類することとしてもよい。そして、画像動きパターン分類部752は、図5のステップS21にリターンし、その後ステップS23に移行する。
ステップS23では、画像動きパターン分類部752は、画像動きパターンが「奥行き方向奥への移動」か否かを判定する。そして、画像動きパターン分類部752は、画像動きパターンが「奥行き方向奥への移動」の場合、すなわちステップS21の奥行き方向移動判定処理によって画像動きパターンが「奥行き方向奥への移動」に分類された場合には(ステップS23:Yes)、本処理を終了する。一方、画像動きパターン分類部752は、画像動きパターンが「奥行き方向奥への移動」でない場合には(ステップS23:No)、続いて、画像動きパターンが「奥行き方向手前への移動」か否かを判定する。そして、画像動きパターン分類部752は、画像動きパターンが「奥行き方向手前への移動」の場合、すなわちステップS21の奥行き方向移動判定処理によって画像動きパターンが「奥行き方向手前への移動」に分類された場合には(ステップS25:Yes)、本処理を終了する。画像動きパターンが「奥行き方向手前への移動」でない場合には(ステップS25:No)、画像動きパターン分類部752は、画像動きパターンを「シーンチェンジ」に分類する(ステップS27)。
すなわち、画像動きパターン分類部752は、ステップS11でマッチングが成功したテンプレート数が基準成功数より多いと判定した場合であっても、ステップS13〜ステップS25の処理で画像動きパターンが「動きなし」「平行移動」「奥行き方向奥への移動」「奥行き方向手前への移動」のいずれにも設定されなかった場合には、画像動きパターンを「シーンチェンジ」に分類する。図20−1は、時系列前画像の一例を示す図であり、図20−2は、処理対象画像の一例を示す図であり、図20−3は、図20−1の時系列前画像と図20−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。図20−3に示すように、処理対象画像中の各動きベクトルの大きさや向きに規則性がなく、単純に動きなしや平行移動、奥行き方向への移動と判定できない場合には、画像動きパターンは「シーンチェンジ」に分類される。これは、正しいテンプレートマッチングがとれる位置がないため、誤ったマッチング位置で動きベクトルを算出した場合や、カプセル型内視鏡3が撮像した体腔内の粘膜が実際に不規則に動いた等の要因が考えられる。
そして、画像動きパターン分類部752は、図3のステップS2にリターンし、その後ステップS3に移行する。この画像動きパターン分類処理の分類結果は、記憶部740に保持される。
次に、図3のステップS3による外れベクトル探索処理について説明する。この外れベクトル探索処理では、画像動きパターンのうち、「シーンチェンジ」および「動きなし」を除いた「平行移動」「奥行き方向奥への移動」「奥行き方向手前への移動」のいずれかに分類された生体内画像の中から、その画像動きパターンに当てはまらない動きベクトルを探索し、外れベクトルとして抽出する。そして、画像動きパターンに当てはまらない動きベクトル(外れベクトル)が多いものについては、画像動きパターンを「シーンチェンジ」に変更する。また、この外れベクトル探索処理によって外れベクトルに設定された動きベクトルは、後段の画像新出割合推定処理の対象としない。
図21は、外れベクトル探索処理の詳細な処理手順を示すフローチャートである。外れベクトル探索部753は、先ず、マッチングの失敗数を外れベクトル数としてカウントする(ステップS91)。
続いて、外れベクトル探索部753は、処理対象画像の画像動きパターンを判定し、「平行移動」の場合には(ステップS93:Yes)、処理対象画像中の各動きベクトルと図10のステップS55で算出した処理対象画像中の動きベクトルの角度平均との差分を算出し、算出した差分が予めステップS95の判定用の閾値として設定される所定値以上の動きベクトルを外れベクトルとして外れベクトル数のカウントを更新する(ステップS95)。
処理対象画像の画像動きパターンが「奥行き方向奥への移動」の場合には(ステップS97:Yes)、外れベクトル探索部753は、図13のステップS73で算出した動きベクトル内積が予めステップS99の判定用の閾値として設定される所定値以下の動きベクトルを外れベクトルとして外れベクトル数のカウントを更新する(ステップS99)。
処理対象画像の画像動きパターンが「奥行き方向手前への移動」の場合には(ステップS101:Yes)、外れベクトル探索部753は、図13のステップS73で算出した動きベクトル内積が予めステップS103の判定用の閾値として設定される所定値以上の動きベクトルを外れベクトルとして外れベクトル数のカウントを更新する(ステップS103)。
そして、外れベクトル探索部753は、カウントされた外れベクトル数が、予めステップS105の判定用の閾値として設定される所定数以上の場合には(ステップS105:Yes)、処理対象画像の画像動きパターンを「シーンチェンジ」に変更する(ステップS107)。そして、外れベクトル探索部753は、図3のステップS3にリターンし、その後ステップS4に移行する。
次に、図3のステップS4による画像新出割合推定処理について説明する。この画像新出割合推定処理では、分類された画像動きパターンに応じて、時系列前画像から処理対象画像に新たに発生した領域の割合である新出割合を算出する。例えば、新出割合の取り得る値を「0.0」〜「1.0」とし、時系列前画像との間の変化が大きいほどその新出割合の値が「1.0」に近づくように推定し、画像の変化がなければその新出割合の値を「0.0」として推定する。
図22は、画像新出割合推定処理の詳細な処理手順を示すフローチャートである。画像新出割合推定部754は、先ず、処理対象画像の画像動きパターンを判定し、「動きなし」の場合には(ステップS111:Yes)、画像がほとんど変わっていないと考えられるので、新出割合に「0.0」を設定する(ステップS113)。
画像動きパターンが「平行移動」または「奥行き方向手前への移動」の場合には(ステップS115:Yes)、画像新出割合推定部754は、画像端から新規発生領域を推定し、新出割合を算出する(ステップS117)。
図23−1は、時系列前画像の一例を示す図であり、図23−2は、図23−1の時系列前画像との間の画像動きパターンが「平行移動」に分類された処理対象画像の一例を示す図であり、図23−3は、図23−2の処理対象画像中で推定される新規発生領域を示す図である。画像動きパターンが「平行移動」の場合、処理対象画像中には、時系列前画像には映っていなかった新たな領域が動きベクトルに応じて画像端から現れると考えられる。このため、画像新出割合推定部754は、画像端毎に、その画像端の直近のラインの動きベクトルを用いて新規発生領域を推定する。具体的には、各画像端の直近のラインの動きベクトルの平均(動きベクトル平均)を求め、それぞれ画像端と直交する方向への射影成分に従って各画像端における新規発生領域を推定する。例えば、処理対象画像の上端に着目すれば、図23−3に示すように、最上段191の動きベクトルを用い、枠外に示すようにその動きベクトル平均193を求める。そして、画像上端と直交する方向(図23の上下方向)への射影成分195の幅を持つ領域197を画像上端において新規に発生した領域と推定する。各画像端についても同様に、それぞれ新規に発生した領域を推定する。そして、最終的に得られた領域197,199の総和の画像全体に対する割合を新出割合とする。なお、画像端の直近のラインの動きベクトルのうち、外れベクトル探索処理(図21)で外れベクトルとカウントされた外れベクトルについては、処理の対象としない。また、画像端の直近のラインにおいて、全てマッチングが失敗し、動きベクトルが得られなかった場合や、全て外れベクトルの場合には、さらに内側のラインの動きベクトルを用いて対象画像端において新規発生領域を推定する。
図24−1は、時系列前画像の一例を示す図であり、図24−2は、図24−1の時系列前画像との間の画像動きパターンが「奥行き方向手前への移動」に分類された処理対象画像の一例を示す図であり、図24−3は、図24−2の処理対象画像中で推定される新規発生領域を示す図である。画像動きパターンが「奥行き方向手前への移動」の場合、処理対象画像中には、時系列前画像には映っていなかった新たな領域が動きベクトルに応じて画像端から現れると考えられる。このため、画像新出割合推定部754は、「平行移動」の場合と同様にして、画像端毎に、その画像端の直近のラインの動きベクトルを用いて新規発生領域を推定する。例えば、処理対象画像の上端に着目すれば、図24−3に示すように、最上段200の動きベクトルを用い、枠外に示すようにその動きベクトル平均201を求める。また、処理対象画像の左端では、最左列の各動きベクトルのうち、外れベクトルとしてカウントされた動きベクトル202を除いた動きベクトル203,204,205を用いて、その動きベクトル平均206を求める。そして、最終的に得られた領域207,208,209の総和の画像全体に対する割合を新出割合とする。
画像動きパターンが「奥行き方向奥への移動」の場合には(ステップS119:Yes)、画像新出割合推定部754は、奥行き中心点を基準として新規発生領域を推定し、新出割合を算出する(ステップS121)。
図25−1は、時系列前画像の一例を示す図であり、図25−2は、図25−1の時系列前画像との間の画像動きパターンが「奥行き方向奥への移動」に分類された処理対象画像の一例を示す図であり、図25−3は、図25−2の処理対象画像中で推定される新規発生領域を示す図である。画像動きパターンが「奥行き方向奥への移動」の場合、処理対象画像中には、時系列前画像には映っていなかった新たな領域が奥行き中心点から現れると考えられる。このため、画像新出割合推定部754は、奥行き中心点近傍のテンプレート位置で算出された所定数の動きベクトルを用いて新規発生領域を推定する。具体的には、先ず、奥行き中心点からの距離が近いものから順番に所定数個の動きベクトルを選出する。続いて、奥行き中心点から各動きベクトルの始点を結んだ直線方向への射影成分の長さをそれぞれ算出し、その平均(射影成分平均)を得る。そして、得られた射影成分平均を対角線の半分の長さとする奥行き中心点を基準とした矩形領域を、新規発生領域と推定する。例えば、図25−3では、奥行き中心点211の近傍で算出された4つのベクトル221〜224を用いて新規発生領域を推定する。図26は、画像動きパターンが「奥行き方向奥への移動」の場合の新規発生領域の推定方法について説明する説明図であり、図25−3の奥行き中心点211および近傍の4つのベクトル221〜224を抽出した図である。図26に示すように、各動きベクトル221〜224について、それぞれ奥行き中心点211からその始点を結んだ直線方向への射影成分231〜234を求め、射影成分平均を得る。そして、この射影成分平均を対角線の半分の長さ215とする奥行き中心点211を基準とした矩形領域213を、新規発生領域と推定する。
「動きなし」「平行移動」「奥行き方向奥への移動」「奥行き方向手前への移動」のいずれでもない場合、すなわち「シーンチェンジ」の場合には、画像新出割合推定部754は、処理対象画像全体が時系列前画像とは異なる場所を映しており、画像全体が入れ替わっていると考えられるので、新出割合に「1.0」を設定する(ステップS123)。
次に、図3のステップS5による表示時間決定係数算出処理について説明する。表示時間決定係数算出部755は、画像新出割合推定処理の結果得られた新出割合を、次式(5)で表される変換曲線を用いて表示時間決定係数Tに変換する。
T=α×Sγ ・・・(5)
ただし、T>1.0の場合には、T=1.0とする。ここで、Sは新出割合、αは表示時間算出係数、γは表示時間算出パワー係数である。図27は、式(5)で表される変換曲線を示す図である。新出割合Sがある程度以上になると、観察者は画像の対応をとるのが困難で、ほぼ新しい画像と感じると考えられる。このため、本実施形態では、観察者がそのように感じる程度を式(5)のαで経験的に定めている。また、動きベクトル算出時の探索範囲に応じて、動きなしやシーンチェンジを除いた動きパターンにおいて算出される新出割合の値の範囲も異なり、それに応じて表示時間決定係数の値の範囲を調整できるようにしておくとよい。このため、本実施形態では、その調整の程度を式(5)のγで経験的に定めている。
また、例えば体内の管腔内部を撮像する場合等では、撮像対象(被写体)のうち、撮像時のカプセル型内視鏡3の位置との距離が比較的近く画像端に現れる対象と、カプセル型内視鏡3からの距離が遠く奥行き中心点周辺に現れる対象との画像上に現れる大きさが異なること、画像端から新規発生領域が現れる場合と奥行き方向点周辺から新規発生領域が現れる場合とでは、人が感じるその変化の具合いが算出された新規発生領域の大きさに比例しない場合があること等から、画像動きパターンが「奥行き方向奥への移動」の場合には、表示時間決定係数Tを算出する前に予め得られた新出割合に所定の係数を乗じておく。
この表示時間決定係数Tは、「0.0」〜「1.0」の値をとり、時系列前画像との間で画像の内容がほとんど変化しないとき「0.0」となり、表示時間は最短となる。一方、時系列前画像との間で画像の内容が大きく変化するとき「1.0」となり、画像表示時間は最長となる。すなわち、求めた表示時間決定係数Tは、例えば次式(6)により算出する生体内画像の表示時間Timeの変数として用いられる。
Time=(MaxTime−MinTime)×T+MinTime ・・・(6)
MaxTimeは1枚の生体内画像の表示にかける最長の表示時間、MinTimeは1枚の生体内画像の表示にかける最短の表示時間である。最長および最短の各表示時間の値は、予め設定しておくこととしてもよいし、ユーザ操作等によって設定変更可能に構成してもよい。
以上説明したように、本実施の形態では、時系列画像である各生体内画像を、時系列で前の生体内画像との間で算出した動きベクトルをもとに画像全体がどのような動き方をしているかを表す画像動きパターンに分類する。そして、その画像動きパターンに応じた動きベクトルを利用して時系列前画像から新規に発生した領域の新出割合を算出し、画像の新出割合から表示時間決定係数を算出するようにした。これによれば、動きベクトルを活用し、各生体内画像それぞれの表示時間を、観察者が受け取る画像の見えの変化に応じて調整することができるので、各生体内画像を適切な表示時間で表示させることができる。したがって、それまでに撮像されていない部位が多く写った画像をスキップしたり高速で表示させてしまうといった事態を防止できるので、観察者による表示内容の見逃しを防止できるとともに、すでに観察した部位が多く写った画像は高速に表示することで、観察効率を向上させることができ、観察者にとっては生体内画像の内容を効率よく把握することが可能となる。
なお、上記の実施形態では、「動きなし」「平行移動」「奥行き方向奥への移動」「奥行き方向手前への移動」「シーンチェンジ」のいずれかの画像動きパターンに分類して、画像動きパターンの分類に応じた手法で新出割合算出する構成で説明したが、本発明はこの実施形態に限定されるものではなく、「動きなし」「平行移動」「奥行き方向奥への移動」「奥行き方向手前への移動」「シーンチェンジ」のうち少なくともいずれか1つを判定の対象として、判定の対象となった画像動きパターンの分類に応じた手法で新出割合を算出する構成とすることもできる。
また、上記の実施形態では、カプセル型内視鏡10により撮像された時系列の生体内画像を表示する場合について説明したが、これに限定されるものではなく、時系列画像を順次表示させる場合であれば同様に適用することができ、時系列画像を構成する画像のうち、新出割合の高い画像を長く表示し、新出割合の低い画像を短く表示することができる。
本実施の形態にかかる画像処理装置を含む画像処理システムの全体構成を示す概略模式図である。 画像処理装置の機能構成を説明するブロック図である。 画像処理装置が行う処理手順を示す全体フローチャートである。 時系列前画像の一例を示す図である。 処理対象画像の一例を示す図である。 図4−1の時系列前画像と図4−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。 画像動きパターン分類処理の詳細な処理手順を示すフローチャートである。 時系列前画像の一例を示す図である。 処理対象画像の一例を示す図である。 図6−1の時系列前画像と図6−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。 動きなし判定処理の処理手順を示すフローチャートである。 ベクトル平均閾値の一例を示す図である。 時系列前画像の一例を示す図である。 処理対象画像の一例を示す図である。 図9−1の時系列前画像と図9−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。 平行移動判定処理の処理手順を示すフローチャートである。 ベクトル角度分散閾値の一例を示す図である。 時系列前画像の一例を示す図である。 処理対象画像の一例を示す図である。 図12−1の時系列前画像と図12−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。 奥行き方向移動判定処理の処理手順を示すフローチャートである。 処理対象画像に設定される中心点候補の一例を示す図である。 奥行き中心点の選定方法について説明する説明図である。 奥行き中心点の選定方法について説明する説明図である。 奥判定用内積閾値の一例を示す図である。 手前判定用内積閾値の一例を示す図である。 時系列前画像の一例を示す図である。 処理対象画像の一例を示す図である。 図18−1の時系列前画像と図18−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。 時系列前画像の一例を示す図である。 処理対象画像の一例を示す図である。 図19−1の時系列前画像と図19−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。 時系列前画像の一例を示す図である。 処理対象画像の一例を示す図である。 図20−1の時系列前画像と図20−2の処理対象画像とをもとに算出した処理対象画像中の動きベクトルを示す図である。 外れベクトル探索処理の詳細な処理手順を示すフローチャートである。 画像新出割合推定処理の詳細な処理手順を示すフローチャートである。 時系列前画像の一例を示す図である。 図23−1の時系列前画像との間の動きパターンが「平行移動」に分類された処理対象画像の一例を示す図である。 図23−2の処理対象画像中で推定される新規発生領域を示す図である。 時系列前画像の一例を示す図である。 図24−1の時系列前画像との間の動きパターンが「奥行き方向手前への移動」に分類された処理対象画像の一例を示す図である。 図24−2の処理対象画像中で推定される新規発生領域を示す図である。 時系列前画像の一例を示す図である。 図25−1の時系列前画像との間の動きパターンが「奥行き方向奥への移動」に分類された処理対象画像の一例を示す図である。 図25−2の処理対象画像中で推定される新規発生領域を示す図である。 画像動きパターンが「奥行き方向奥への移動」の場合の新規発生領域の推定方法について説明する説明図である。 新出割合を表示時間決定係数に変換するための変換曲線の一例を示す図である。
符号の説明
1 被検体
3 カプセル型内視鏡
4 受信装置
A1〜An 受信アンテナ
5 可搬型記録媒体
70 画像処理装置
710 画像取得部
720 入力部
730 表示部
740 記憶部
741 表示時間決定係数データ
743 画像処理プログラム
750 画像処理部
751 動きベクトル算出部
752 画像動きパターン分類部
753 外れベクトル探索部
754 画像新出割合推定部
755 表示時間決定係数算出部
760 制御部
761 画像表示制御部

Claims (33)

  1. 撮像装置が時系列に沿って撮像した時系列画像を処理する画像処理装置であって、
    画像内に設定した複数の画素領域について、前記時系列画像を構成する複数の画像間での動きベクトルを算出する動きベクトル算出手段と、
    前記動きベクトル算出手段によって算出された動きベクトルをもとに、前記複数の画像間で画像に新規に発生した領域の割合である新出割合を推定する新出割合推定手段と、
    前記新出割合推定手段によって推定された新出割合に応じて、前記画像の表示時間を算出する表示時間算出手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記新出割合推定手段は、画像端から新規に発生した領域を推定する画像端新出領域推定手段を有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像端新出領域推定手段は、画像端近傍の画素領域で算出された動きベクトルを用いて新規に発生した領域を推定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記新出割合推定手段は、前記複数の画像間での前記撮像装置の移動の進行方向が画像上に表れる位置である進行方向位置を基準として新規に発生した領域を推定する進行方向新出領域推定手段を有することを特徴とする請求項1に記載の画像処理装置。
  5. 前記進行方向新出領域推定手段は、前記進行方向位置近傍の画素領域で算出された動きベクトルを用いて新規に発生した領域を推定することを特徴とする請求項4に記載の画像処理装置。
  6. 前記新出割合推定手段は、前記動きベクトル算出手段によって算出された動きベクトルをもとに、画像の動きパターンを少なくとも、動きなし、平行移動、奥行き方向奥への移動、奥行き方向手前への移動、およびシーンチェンジのいずれかの動きパターンに分類する動きパターン分類手段を有し、分類した動きパターンに基づいて新出割合を推定することを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
  7. 前記新出割合推定手段は、前記動きパターン分類手段によって画像の動きパターンが平行移動に分類された場合に、画像端から新規に発生した領域を推定することを特徴とする請求項6に記載の画像処理装置。
  8. 前記新出割合推定手段は、前記動きパターン分類手段によって画像の動きパターンが奥行き方向奥への移動に分類された場合に、前記進行方向位置を基準として新規に発生した領域を推定することを特徴とする請求項6または7に記載の画像処理装置。
  9. 前記新出割合推定手段は、前記動きパターン分類手段によって画像の動きパターンが奥行き方向手前への移動に分類された場合に、画像端から新規に発生した領域を推定することを特徴とする請求項6〜8のいずれか一つに記載の画像処理装置。
  10. 前記新出割合推定手段は、前記動きパターン分類手段によって画像の動きパターンが動きなしに分類された場合に、前記新出割合を、取り得る値の最小値として推定することを特徴とする請求項6〜9のいずれか一つに記載の画像処理装置。
  11. 前記新出割合推定手段は、前記動きパターン分類手段によって画像の動きパターンがシーンチェンジに分類された場合に、前記新出割合を、取り得る値の最大値として推定することを特徴とする請求項6〜10のいずれか一つに記載の画像処理装置。
  12. 前記新出割合推定手段は、前記動きパターン分類手段によって画像の動きパターンが動きなしおよびシーンチェンジ以外の画像動きパターンに分類された場合に、前記新出割合を、取り得る値の最小値よりも大きく、最大値よりも小さい範囲内で推定することを特徴とする請求項6〜11のいずれか一つに記載の画像処理装置。
  13. 前記動きパターン分類手段は、前記複数の画素領域における画像の動きベクトルの大きさに基づいて、画像の動きパターンを動きなしに分類することを特徴とする請求項6〜12のいずれか一つに記載の画像処理装置。
  14. 前記動きパターン分類手段は、前記複数の画素領域における画像の動きベクトルの角度のばらつきが所定の閾値以下である場合に、画像の動きパターンを平行移動に分類することを特徴とする請求項6〜13のいずれか一つに記載の画像処理装置。
  15. 前記動きパターン分類手段は、前記進行方向位置を探索する進行方向位置探索手段を有することを特徴とする請求項6〜14のいずれか一つに記載の画像処理装置。
  16. 前記動きパターン分類手段は、前記進行方向位置と前記動きベクトルの始点とを結んだ始点ベクトルを算出し、前記動きベクトルと前記始点ベクトルとのなす角度または内積に基づいて、画像の動きパターンを奥行き方向奥への移動または奥行き方向手前への移動に分類することを特徴とする請求項6〜15のいずれか一つに記載の画像処理装置。
  17. 前記動きパターン分類手段は、前記動きベクトル算出手段によって算出された動きベクトルの信頼値が所定の閾値以下である場合、または画像の動きパターンが動きなし、平行移動、奥行き方向奥への移動および奥行き方向手前への移動のいずれにも分類されない場合に、画像の動きパターンをシーンチェンジに分類することを特徴とする請求項6〜16のいずれか一つに記載の画像処理装置。
  18. 前記新出割合推定手段は、前記動きベクトル算出手段によって算出された動きベクトルをもとに、画像の動きパターンとして、少なくとも、動きなしの画像動きパターンを分類する動きパターン分類手段を有し、分類した動きパターンに基づいて新出割合を推定することを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
  19. 前記動きパターン分類手段は、前記複数の画素領域における動きベクトルの大きさに基づいて、画像の動きパターンを動きなしに分類することを特徴とする請求項18に記載の画像処理装置。
  20. 前記新出割合推定手段は、前記動きベクトル算出手段によって算出された動きベクトルをもとに、画像の動きパターンとして、少なくとも、平行移動の画像動きパターンを分類する動きパターン分類手段を有し、分類した動きパターンに基づいて新出割合を推定することを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
  21. 前記動きパターン分類手段は、前記複数の画素領域における画像の動きベクトルの角度のばらつきが所定の閾値以下である場合に、画像の動きパターンを平行移動に分類することを特徴とする請求項20に記載の画像処理装置。
  22. 前記新出割合推定手段は、前記動きベクトル算出手段によって算出された動きベクトルをもとに、画像の動きパターンとして、少なくとも、奥行き方向奥への移動の画像動きパターンを分類する動きパターン分類手段を有し、分類した動きパターンに基づいて新出割合を推定することを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
  23. 前記新出割合推定手段は、前記動きベクトル算出手段によって算出された動きベクトルをもとに、画像の動きパターンとして、少なくとも、奥行き方向手前の画像動きパターンを分類する動きパターン分類手段を有し、分類した動きパターンに基づいて新出割合を推定することを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
  24. 前記新出割合推定手段は、前記動きベクトル算出手段によって算出された動きベクトルをもとに、画像の動きパターンとして、少なくとも、シーンチェンジの画像動きパターンを分類する動きパターン分類手段を有し、分類した動きパターンに基づいて新出割合を推定することを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
  25. 前記新出割合推定手段は、前記動きパターン分類手段によって画像の動きパターンが平行移動に分類された場合に、画像端から前記新規に発生した領域を推定することを特徴とする請求項20または請求項21に記載の画像処理装置。
  26. 前記新出割合推定手段は、前記動きパターン分類手段によって画像の動きパターンが奥行き方向奥への移動に分類された場合に、前記進行方向位置を基準として前記新規に発生した領域を推定することを特徴とする請求項22に記載の画像処理装置。
  27. 前記新出割合推定手段は、前記動きパターン分類手段によって画像の動きパターンが奥行き方向手前への移動に分類された場合に、画像端から新規に発生した領域を推定することを特徴とする請求項23に記載の画像処理装置。
  28. 前記新出割合推定手段は、前記動きパターン分類手段によって画像の動きパターンが動きなしに分類された場合に、前記新出割合を、取り得る値の最小値として推定することを特徴とする請求項18または請求項19に記載の画像処理装置。
  29. 前記新出割合推定手段は、前記動きパターン分類手段によって画像の動きパターンがシーンチェンジに分類された場合に、前記新出割合を、取り得る値の最大値として推定することを特徴とする請求項24に記載の画像処理装置。
  30. 前記動きパターン分類手段は、前記複数の画素領域における画像の動きベクトルのうち、外れ値をもつ動きベクトルを除外する外れベクトル除外手段を有し、前記外れベクトル除外手段によって除外された動きベクトル以外の動きベクトルを用いて画像の動きパターンを分類することを特徴とする請求項6〜29のいずれか一つに記載の画像処理装置。
  31. 前記新出割合推定手段は、前記複数の画素領域における画像の動きベクトルのうち、前記動きパターン分類手段によって分類された画像の動きパターンから外れた動きベクトルを抽出するパターン外ベクトル抽出手段を有し、前記パターン外ベクトル抽出手段によって抽出された動きベクトル以外の動きベクトルを用いて前記新出割合を推定することを特徴とする請求項6〜30のいずれか一つに記載の画像処理装置。
  32. 前記表示時間算出手段は、前記推定された新出割合から画像の表示時間を算出する際の算出パラメータを、前記動きパターン分類手段によって分類された前記画像の動きパターンに応じて変更することを特徴とする請求項6〜31のいずれか一つに記載の画像処理装置。
  33. 撮像装置が時系列に沿って撮像した時系列画像を処理するコンピュータに、
    画像内に設定した複数の画素領域について、前記時系列画像を構成する複数の画像間での動きベクトルを算出する動きベクトル算出ステップ、
    前記動きベクトル算出ステップによって算出された動きベクトルをもとに、前記複数の画像間で画像に新規に発生した領域の割合である新出割合を推定する新出割合推定ステップ、
    前記新出割合推定ステップによって推定された新出割合に応じて、前記画像の表示時間を算出する表示時間算出ステップ、
    を実行させることを特徴とする画像処理プログラム。
JP2007176531A 2007-07-04 2007-07-04 画像処理装置および画像処理プログラム Expired - Fee Related JP4959445B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007176531A JP4959445B2 (ja) 2007-07-04 2007-07-04 画像処理装置および画像処理プログラム
PCT/JP2008/060305 WO2009004890A1 (ja) 2007-07-04 2008-06-04 画像処理装置、画像処理プログラムおよび画像処理方法
US12/166,520 US8107686B2 (en) 2007-07-04 2008-07-02 Image procesing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007176531A JP4959445B2 (ja) 2007-07-04 2007-07-04 画像処理装置および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2009011563A true JP2009011563A (ja) 2009-01-22
JP4959445B2 JP4959445B2 (ja) 2012-06-20

Family

ID=40221501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007176531A Expired - Fee Related JP4959445B2 (ja) 2007-07-04 2007-07-04 画像処理装置および画像処理プログラム

Country Status (3)

Country Link
US (1) US8107686B2 (ja)
JP (1) JP4959445B2 (ja)
WO (1) WO2009004890A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176570A (ja) * 2009-01-30 2010-08-12 Olympus Corp シーン変化検出装置、シーン変化検出プログラムおよびシーン変化検出方法
JP2010176569A (ja) * 2009-01-30 2010-08-12 Olympus Corp シーン変化検出装置、シーン変化検出プログラムおよびシーン変化検出方法
JP2010183290A (ja) * 2009-02-04 2010-08-19 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2012108872A (ja) * 2010-10-26 2012-06-07 Ricoh Co Ltd 画面共有サービス提供システム、情報処理装置、投影装置、画面共有サービス提供方法、及び画面共有サービス提供プログラム
JP2012213451A (ja) * 2011-03-31 2012-11-08 Canon Inc 医療システム
US8665326B2 (en) 2009-01-30 2014-03-04 Olympus Corporation Scene-change detecting device, computer readable storage medium storing scene-change detection program, and scene-change detecting method
WO2014156604A1 (ja) * 2013-03-26 2014-10-02 富士フイルム株式会社 内視鏡システム及びその作動方法並びにプロセッサ装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100514353C (zh) * 2007-11-26 2009-07-15 清华大学 一种基于人脸生理性运动的活体检测方法及系统
WO2010128411A1 (en) * 2009-05-08 2010-11-11 Koninklijke Philips Electronics, N.V. Real-time scope tracking and branch labeling without electro-magnetic tracking and pre-operative scan roadmaps
TWI432168B (zh) * 2009-12-31 2014-04-01 Univ Nat Yunlin Sci & Tech 內視鏡導航方法以及內視鏡導航系統
EP2508116B1 (en) * 2010-09-24 2013-11-13 Olympus Medical Systems Corp. Image-display device and capsule-type endoscope system
EP2447882B1 (en) * 2010-10-29 2013-05-15 Siemens Aktiengesellschaft Method and device for assigning sources and sinks to routes of individuals
EP2623957B1 (en) * 2010-10-29 2018-12-26 Olympus Corporation Image analysis method and image analysis device
WO2012056578A1 (ja) * 2010-10-29 2012-05-03 オリンパス株式会社 画像解析方法および画像解析装置
JP5569357B2 (ja) * 2010-11-19 2014-08-13 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
KR20120073887A (ko) * 2010-12-27 2012-07-05 삼성전자주식회사 이미지 처리 장치 및 그 이미지 처리 방법
JP5784404B2 (ja) * 2011-07-29 2015-09-24 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6150583B2 (ja) * 2013-03-27 2017-06-21 オリンパス株式会社 画像処理装置、内視鏡装置、プログラム及び画像処理装置の作動方法
US9213901B2 (en) * 2013-09-04 2015-12-15 Xerox Corporation Robust and computationally efficient video-based object tracking in regularized motion environments
JP6249769B2 (ja) * 2013-12-27 2017-12-20 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP6339872B2 (ja) * 2014-06-24 2018-06-06 オリンパス株式会社 画像処理装置、内視鏡システム及び画像処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006280792A (ja) * 2005-04-04 2006-10-19 Olympus Corp 画像表示装置
WO2006123455A1 (ja) * 2005-05-20 2006-11-23 Olympus Medical Systems Corp. 画像表示装置
WO2007077672A1 (ja) * 2005-12-28 2007-07-12 Olympus Medical Systems Corp. 画像処理装置および当該画像処理装置における画像処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070268280A1 (en) * 2004-08-23 2007-11-22 Manabu Fujita Image Display Apparatus, Image Display Method, and Image Display Program
US8451897B2 (en) * 2006-12-04 2013-05-28 Atmel Corporation Highly parallel pipelined hardware architecture for integer and sub-pixel motion estimation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006280792A (ja) * 2005-04-04 2006-10-19 Olympus Corp 画像表示装置
WO2006123455A1 (ja) * 2005-05-20 2006-11-23 Olympus Medical Systems Corp. 画像表示装置
WO2007077672A1 (ja) * 2005-12-28 2007-07-12 Olympus Medical Systems Corp. 画像処理装置および当該画像処理装置における画像処理方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8665326B2 (en) 2009-01-30 2014-03-04 Olympus Corporation Scene-change detecting device, computer readable storage medium storing scene-change detection program, and scene-change detecting method
JP2010176569A (ja) * 2009-01-30 2010-08-12 Olympus Corp シーン変化検出装置、シーン変化検出プログラムおよびシーン変化検出方法
JP2010176570A (ja) * 2009-01-30 2010-08-12 Olympus Corp シーン変化検出装置、シーン変化検出プログラムおよびシーン変化検出方法
JP2010183290A (ja) * 2009-02-04 2010-08-19 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
US8723935B2 (en) 2009-02-04 2014-05-13 Olympus Corporation Image processing device, computer readable storage medium storing image processing program and image processing method
JP2012108872A (ja) * 2010-10-26 2012-06-07 Ricoh Co Ltd 画面共有サービス提供システム、情報処理装置、投影装置、画面共有サービス提供方法、及び画面共有サービス提供プログラム
US9098230B2 (en) 2010-10-26 2015-08-04 Ricoh Company, Ltd. Screen sharing system, screen sharing method, and storage medium
US9317247B2 (en) 2010-10-26 2016-04-19 Ricoh Company, Ltd. Screen sharing system, screen sharing method, and storage medium
US10025453B2 (en) 2010-10-26 2018-07-17 Ricoh Company, Ltd. Screen sharing system, screen sharing method, and storage medium
US10255025B2 (en) 2010-10-26 2019-04-09 Ricoh Company, Ltd. Screen sharing system, screen sharing method, and storage medium
US10489101B2 (en) 2010-10-26 2019-11-26 Ricoh Company, Ltd. Screen sharing system, screen sharing method, and storage medium
US10896019B2 (en) 2010-10-26 2021-01-19 Ricoh Company, Ltd. Screen sharing system, screen sharing method, and storage medium
JP2012213451A (ja) * 2011-03-31 2012-11-08 Canon Inc 医療システム
WO2014156604A1 (ja) * 2013-03-26 2014-10-02 富士フイルム株式会社 内視鏡システム及びその作動方法並びにプロセッサ装置
JP2014188083A (ja) * 2013-03-26 2014-10-06 Fujifilm Corp 内視鏡システム及びプロセッサ装置並びに作動方法

Also Published As

Publication number Publication date
US8107686B2 (en) 2012-01-31
US20090010551A1 (en) 2009-01-08
JP4959445B2 (ja) 2012-06-20
WO2009004890A1 (ja) 2009-01-08

Similar Documents

Publication Publication Date Title
JP4959445B2 (ja) 画像処理装置および画像処理プログラム
US20230190136A1 (en) Systems and methods for computer-assisted shape measurements in video
JP6411834B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
US20110242301A1 (en) Image processing device, image processing method, and program
US9877635B2 (en) Image processing device, image processing method, and computer-readable recording medium
JP5085370B2 (ja) 画像処理装置および画像処理プログラム
US10883828B2 (en) Capsule endoscope
JP6258084B2 (ja) 医用画像表示装置、医用画像表示システムおよび医用画像表示プログラム
CN114980793A (zh) 内窥镜检查辅助装置、内窥镜检查辅助装置的工作方法以及程序
JP7245360B2 (ja) 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
JP5078486B2 (ja) 医療用画像処理装置及び医療用画像処理装置の作動方法
JP2023523561A (ja) ビデオにおけるコンピュータ支援の標識または基準配置のシステムおよび方法
US20100034436A1 (en) Image processing apparatus, computer program product and image processing method
US20250061569A1 (en) Image processing device, image processing method, and recording medium
CN117893953B (zh) 一种软式消化道内镜操作规范动作评估方法及系统
US20250049291A1 (en) Medical support device, endoscope apparatus, medical support method, and program
US20250082174A1 (en) Medical information processing system, medical information processing method, and program
JP7221787B2 (ja) 血管径測定システム
JP7221786B2 (ja) 血管径測定システム
JP2021194268A (ja) 血管観察システムおよび血管観察方法
KR102875760B1 (ko) 하부 위장관 이미지 획득을 위한 내시경 장치 및 제어 방법
KR102875761B1 (ko) 상부 위장관 이미지 획득을 위한 내시경 장치 및 제어 방법
JP2010176569A (ja) シーン変化検出装置、シーン変化検出プログラムおよびシーン変化検出方法
JP7768398B2 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、プログラム
US20250078359A1 (en) Information processing system, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4959445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees