[go: up one dir, main page]

JP2025100867A - COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS - Google Patents

COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS Download PDF

Info

Publication number
JP2025100867A
JP2025100867A JP2025071429A JP2025071429A JP2025100867A JP 2025100867 A JP2025100867 A JP 2025100867A JP 2025071429 A JP2025071429 A JP 2025071429A JP 2025071429 A JP2025071429 A JP 2025071429A JP 2025100867 A JP2025100867 A JP 2025100867A
Authority
JP
Japan
Prior art keywords
image
tube
tomographic image
tomographic
detection process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2025071429A
Other languages
Japanese (ja)
Inventor
耕太郎 楠
Kotaro Kusunoki
雄紀 坂口
Yuki Sakaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terumo Corp
Original Assignee
Terumo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terumo Corp filed Critical Terumo Corp
Priority to JP2025071429A priority Critical patent/JP2025100867A/en
Publication of JP2025100867A publication Critical patent/JP2025100867A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)
  • Endoscopes (AREA)

Abstract

To provide a computer program capable of presenting information on anatomical feature points of a hollow organ so as to be grasped more, an information processing method, and an information processing device.SOLUTION: A computer program makes a computer for acquiring a plurality of tomographic images of a hollow organ generated on the basis of a signal detected by an imaging device provided in a catheter inserted into a first tube of the hollow organ with a bifurcation execute detection processing including determination of the presence/absence of a second tube bifurcated from the first tube and angle calculation of the second tube to the plurality of tomographic images, and executes processing for noise removal processing on the basis of distribution information including a position in a longitudinal axis direction of the hollow organ of a tomographic image determined to be an image showing the second tube by the detection processing and an angle of the second tube in the tomographic image calculated by the detection processing.SELECTED DRAWING: Figure 14

Description

本開示は、医用画像に対する処理に係るコンピュータプログラム、情報処理方法、及び情報処理装置に関する。 The present disclosure relates to a computer program, an information processing method, and an information processing device for processing medical images.

医学的検査において、検査対象の画像を直接的に撮像するか、又は、電磁波を利用した測定結果を画像化するなどして得られる画像が診断に利用されている。特に、管腔器官の検査では、画像素子を器官内に移動させて得られる画像を使用する技術が種々利用されている。 In medical examinations, images of the subject are either taken directly or obtained by imaging the results of measurements using electromagnetic waves, and these images are used for diagnosis. In particular, in examinations of hollow organs, various techniques are used that use images obtained by moving an imaging element inside the organ.

管腔器官の中でも特に血管の画像診断は、冠動脈インターベンション(PCI:Percutaneous Coronary Intervention)等の施術を安全確実に行なうために必要不可欠である。このため、造影剤を用いて体外から撮影する血管造影技術(angiography )と併せて、カテーテルを用いたIVUS(Intra Vascular Ultra Sound)、OCT(Optical Coherence Tomography)/OFDI(Optical Frequency Domain Imaging)等の血管内イメージング技術が普及している。 Diagnostic imaging of vascular organs, particularly blood vessels, is essential for the safe and reliable performance of procedures such as percutaneous coronary intervention (PCI). For this reason, in addition to angiography, which uses contrast media to take images from outside the body, intravascular imaging techniques such as IVUS (Intra Vascular Ultra Sound) and OCT (Optical Coherence Tomography)/OFDI (Optical Frequency Domain Imaging) using catheters are becoming widespread.

上述した画像診断では、撮影された医用画像から診断に関する情報を正確に得ることは容易ではない。医用画像の読影を補助するために、画像解析又は機械学習を用い、画像を補正したり、情報を付加したりする技術が種々提案されている(特許文献1等)。 In the image diagnosis described above, it is not easy to obtain accurate diagnostic information from the captured medical images. To assist in the interpretation of medical images, various techniques have been proposed that use image analysis or machine learning to correct images or add information (Patent Document 1, etc.).

特開2012-075702号公報JP 2012-075702 A

医用画像の読影には、画像から解剖学的特徴点を正確に把握することが必要である。したがって、医用画像を正確に撮影するとともに、解剖学的特徴点に関する情報を、より把握しやすく視認可能に提示することが求められる。 Interpreting medical images requires accurate identification of anatomical landmarks from the images. Therefore, it is necessary to capture medical images accurately and to present information about anatomical landmarks in a way that is easier to understand and more visible.

本開示の目的は、管腔器官の解剖学特徴点に関する情報を、より把握しやすく提示できるコンピュータプログラム、情報処理方法、及び情報処理装置を提供することにある。 The objective of the present disclosure is to provide a computer program, an information processing method, and an information processing device that can present information about anatomical landmarks of hollow organs in a manner that is easier to understand.

本開示に係るコンピュータプログラムは、分岐部を有する管腔器官の第1の管に挿入されるカテーテルに備えられたイメージングデバイスによって検出される信号に基づき生成された前記管腔器官の複数の断層画像を取得するコンピュータに、前記複数の断層画像に対し、前記第1の管から分岐する第2の管の存否の判断、及び前記第2の管の角度算出を含む検出処理を実行し、前記検出処理により前記第2の管が写る画像と判断された断層画像の前記管腔器官の長軸方向における位置と、前記検出処理にて算出された前記断層画像における前記第2の管の角度とを含む分布情報に基づき、ノイズ除去処理を行なう処理を実行させる。 The computer program of the present disclosure causes a computer to acquire multiple tomographic images of a tubular organ having a branch, generated based on a signal detected by an imaging device provided in a catheter inserted into a first tube of the tubular organ, to execute a detection process for the multiple tomographic images, including determining whether or not a second tube branches off from the first tube and calculating the angle of the second tube, and to execute a process of performing a noise removal process based on distribution information including the position in the longitudinal direction of the tubular organ of a tomographic image determined by the detection process to be an image showing the second tube, and the angle of the second tube in the tomographic image calculated by the detection process.

本開示に係る情報処理方法は、分岐部を有する管腔器官の第1の管に挿入されるカテーテルに備えられたイメージングデバイスによって検出される信号に基づき生成された前記管腔器官の複数の断層画像を取得するコンピュータが、前記複数の断層画像に対し、前記第1の管から分岐する第2の管の存否の判断、及び前記第2の管の角度算出を含む検出処理を実行し、前記検出処理により前記第2の管が写る画像と判断された断層画像の前記管腔器官の長軸方向における位置と、前記検出処理にて算出された前記断層画像における前記第2の管の角度とを含む分布情報に基づき、ノイズ除去処理を行なう。 In the information processing method disclosed herein, a computer acquires multiple tomographic images of a tubular organ having a branch, generated based on a signal detected by an imaging device provided in a catheter inserted into a first tube of the tubular organ, performs a detection process on the multiple tomographic images, including determining whether or not a second tube branches off from the first tube and calculating the angle of the second tube, and performs a noise removal process based on distribution information including the position in the longitudinal direction of the tubular organ of a tomographic image determined by the detection process to be an image showing the second tube, and the angle of the second tube in the tomographic image calculated by the detection process.

本開示に係る情報処理装置は、分岐部を有する管腔器官の第1の管に挿入されるカテーテルに備えられたイメージングデバイスによって検出される信号に基づき生成された前記管腔器官の複数の断層画像を取得する情報処理装置において、前記複数の断層画像に対する画像処理を実行する処理部を備え、前記処理部は、前記複数の断層画像に対し、前記第1の管から分岐する第2の管の存否の判断、及び前記第2の管の角度算出を含む検出処理を実行し、前記検出処理により前記第2の管が写る画像と判断された断層画像の前記管腔器官の長軸方向における位置と、前記検出処理にて算出された前記断層画像における前記第2の管の角度とを含む分布情報に基づき、ノイズ除去処理を行なう。 The information processing device according to the present disclosure is an information processing device that acquires multiple tomographic images of a tubular organ having a branch, generated based on a signal detected by an imaging device provided in a catheter inserted into a first tube of the tubular organ, and includes a processing unit that executes image processing on the multiple tomographic images, and the processing unit executes a detection process on the multiple tomographic images, including determining whether or not a second tube branches off from the first tube and calculating the angle of the second tube, and performs noise removal processing based on distribution information including the position in the longitudinal direction of the tubular organ of a tomographic image determined by the detection process to be an image showing the second tube, and the angle of the second tube in the tomographic image calculated by the detection process.

本開示によれば、管腔器官の解剖学的特徴点に関する情報を、より把握しやすく表示することが可能になる。 The present disclosure makes it possible to display information about anatomical landmarks of hollow organs in a way that is easier to understand.

画像診断装置の構成例を示す図である。FIG. 1 is a diagram illustrating an example of the configuration of an imaging diagnostic apparatus. カテーテルの動作を示す説明図である。FIG. 13 is an explanatory diagram showing the operation of the catheter. 画像処理装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an image processing device. 学習済みモデルの概要図である。FIG. 1 is an overview of a trained model. 検出された境界(輪郭)を示す図である。FIG. 13 is a diagram showing detected boundaries (contours). 画像処理装置による情報処理手順の一例を示すフローチャートである。11 is a flowchart illustrating an example of an information processing procedure performed by the image processing device. 画像処理装置による情報処理手順の一例を示すフローチャートである。11 is a flowchart illustrating an example of an information processing procedure performed by the image processing device. 側枝検出処理の詳細な処理手順の一例を示すフローチャートである。13 is a flowchart showing an example of a detailed processing procedure of a side branch detection process. 側枝検出処理の概要図である。FIG. 13 is a schematic diagram of a side branch detection process. 側枝検出処理の概要図である。FIG. 13 is a schematic diagram of a side branch detection process. 側枝検出処理の概要図である。FIG. 13 is a schematic diagram of a side branch detection process. 側枝検出処理の概要図である。FIG. 13 is a schematic diagram of a side branch detection process. 側枝検出処理の概要図である。FIG. 13 is a schematic diagram of a side branch detection process. 側枝検出のノイズデータを除去する処理手順の一例を示すフローチャートである。13 is a flowchart illustrating an example of a processing procedure for removing noise data in side canal detection. 側枝検出のノイズデータ除去処理の概要図である。FIG. 13 is a schematic diagram of noise data removal processing for side canal detection. 表示装置に提示される情報を含む画面例を示す。1 shows an example screen containing information presented on a display device. 表示装置に表示される他の画面例を示す図である。FIG. 11 is a diagram showing another example of a screen displayed on the display device. 表示装置に表示される他の画面例を示す図である。FIG. 11 is a diagram showing another example of a screen displayed on the display device. 表示装置に表示される他の画面例を示す図である。FIG. 11 is a diagram showing another example of a screen displayed on the display device. 表示装置に表示される他の画面例を示す図である。FIG. 11 is a diagram showing another example of a screen displayed on the display device. 表示装置に表示される他の画面例を示す図である。FIG. 11 is a diagram showing another example of a screen displayed on the display device.

本発明の実施形態に係るコンピュータプログラム、情報処理方法、及び情報処理装置の具体例を、図面を参照しつつ以下に説明する。 Specific examples of a computer program, an information processing method, and an information processing device according to an embodiment of the present invention will be described below with reference to the drawings.

図1は、画像診断装置100の構成例を示す図である。画像診断装置100は、IVUS法によって血管(管腔器官)の超音波断層像を含む医用画像を生成し、血管内の超音波検査及び診断を行なうための装置である。 Figure 1 shows an example of the configuration of an image diagnostic device 100. The image diagnostic device 100 is a device for generating medical images including ultrasonic tomographic images of blood vessels (hollow organs) using the IVUS method and for performing ultrasonic examinations and diagnoses within blood vessels.

画像診断装置100は、カテーテル1、MDU(Motor Drive Unit)2、画像処理装置(情報処理装置)3、表示装置4及び入力装置5を備える。 The imaging diagnostic device 100 includes a catheter 1, an MDU (Motor Drive Unit) 2, an image processing device (information processing device) 3, a display device 4, and an input device 5.

カテーテル1は、医療用の柔軟性のある管である。カテーテル1は特に、先端部にイメージングデバイス11を設け、基端からの駆動によって周方向に回転するイメージングカテーテルと呼ばれるものである。イメージングデバイス11は、IVUS法の場合は超音波振動子及び超音波センサを含む超音波プローブである。OCTの場合は、近赤外線レーザ及び近赤外線センサ等を含むOCTデバイスである。イメージングデバイス11は、その他、可視光等の他の波長の電磁波を用いる他のデバイスを用いてもよい。 The catheter 1 is a flexible tube for medical use. The catheter 1 is particularly known as an imaging catheter, which has an imaging device 11 at its tip and rotates in a circumferential direction when driven from its base end. In the case of the IVUS method, the imaging device 11 is an ultrasound probe including an ultrasound transducer and an ultrasound sensor. In the case of OCT, the imaging device 11 is an OCT device including a near-infrared laser and a near-infrared sensor. The imaging device 11 may also be another device that uses electromagnetic waves of other wavelengths, such as visible light.

MDU2は、カテーテル1の基端に取り付けられる駆動装置であり、医療従事者の操作に応じて内部モータを駆動することによって、カテーテル1の動作を制御する。 The MDU 2 is a drive unit attached to the base end of the catheter 1, and controls the operation of the catheter 1 by driving the internal motor in response to the operation of a medical professional.

画像処理装置3は、カテーテル1のイメージングデバイス11から出力された信号に基づいて、血管の断層画像等、複数の医用画像を生成する。画像処理装置3の構成の詳細については後述する。 The image processing device 3 generates multiple medical images, such as cross-sectional images of blood vessels, based on the signal output from the imaging device 11 of the catheter 1. The configuration of the image processing device 3 will be described in detail later.

表示装置4は、液晶表示パネル、有機EL表示パネル等を用いる。表示装置4は、画像処理装置3によって生成される医用画像と、医用画像に関する情報とを表示する。 The display device 4 uses a liquid crystal display panel, an organic EL display panel, or the like. The display device 4 displays the medical images generated by the image processing device 3 and information related to the medical images.

入力装置5は、画像処理装置3に対する操作を受け付ける入力インタフェースである。入力装置5は、キーボード、マウス等であってもよいし、表示装置4に内蔵されるタッチパネル、ソフトキー、ハードキー等であってもよい。 The input device 5 is an input interface that accepts operations for the image processing device 3. The input device 5 may be a keyboard, a mouse, etc., or may be a touch panel, soft keys, hard keys, etc. built into the display device 4.

図2は、カテーテル1の動作を示す説明図である。図2においてカテーテル1は、血管内に医療従事者によって、図中に示す冠動脈に挿入されたガイドワイヤWに沿って、管状の血管L内に挿入されている。図2中の血管Lの拡大図において右部は、カテーテル1及びガイドワイヤWの挿入箇所から遠位、左部は近位に対応する。 Figure 2 is an explanatory diagram showing the operation of the catheter 1. In Figure 2, the catheter 1 is inserted into a tubular blood vessel L by a medical professional along a guide wire W that has been inserted into the coronary artery shown in the figure. In the enlarged view of the blood vessel L in Figure 2, the right side corresponds to the distal side from the insertion point of the catheter 1 and the guide wire W, and the left side corresponds to the proximal side.

カテーテル1は、MDU2の駆動により、図中の矢符で示すように、血管L内の遠位から近位へ向けて移動し、且つ、周方向に回転しながら、イメージングデバイス11によって螺旋状に血管内を走査する。 Driven by the MDU 2, the catheter 1 moves from the distal end to the proximal end of the blood vessel L as indicated by the arrow in the figure, and while rotating in the circumferential direction, the imaging device 11 scans the blood vessel in a spiral manner.

本実施形態の画像診断装置100では、画像処理装置3が、カテーテル1のイメージングデバイス11から出力された1走査毎の信号を取得する。1回の走査でイメージングデバイス11は、検出波を径方向に発し、その反射波を検出する。イメージングデバイス11は、この走査を、360度回転する間に数十回から数千回行ない、螺旋状に走査する。画像処理装置3は、1走査毎の信号を360度分毎に極座標変換(逆変換)することで得られる断層画像(横断面画像)を生成する(図2中、I1)。断層画像I1は、フレーム画像ともいう。断層画像I1の基準点(中心)は、カテーテル1の範囲(画像化されない)に対応する。画像処理装置3は更に、断層画像I1の基準点を通る直線上の画素値を、カテーテル1が血管の長さ方向(長軸方向)に沿って並べた長軸画像(縦断面画像)を生成する(図2中、I2)。画像処理装置3は、得られた断層画像I1、長軸画像I2に基づいて血管の分岐構造を分析処理し、血管の構造を示す二次元又は三次元画像を、医療従事者が視認可能に出力する。本開示における画像診断装置100では、表示装置4に表示する長軸画像及び断層画像の両方について、ガイドワイヤW及びカテーテル1が挿入される第1の管(例えば本幹)、及び第1の管から分岐する第2の管(例えば側枝)の側枝位置、輪郭等の側枝に関する情報を重畳表示する。以下、画像処理装置3が、側枝に関する情報を作成し、表示装置4に重畳表示するための処理について詳細を説明する。 In the image diagnostic device 100 of this embodiment, the image processing device 3 acquires a signal for each scan output from the imaging device 11 of the catheter 1. In one scan, the imaging device 11 emits a detection wave in the radial direction and detects the reflected wave. The imaging device 11 performs this scan tens to thousands of times while rotating 360 degrees, scanning in a spiral shape. The image processing device 3 generates a tomographic image (transverse cross-sectional image) obtained by polar coordinate conversion (inverse conversion) of the signal for each scan for every 360 degrees (I1 in FIG. 2). The tomographic image I1 is also called a frame image. The reference point (center) of the tomographic image I1 corresponds to the range of the catheter 1 (not imaged). The image processing device 3 further generates a long-axis image (longitudinal cross-sectional image) in which the pixel values on a straight line passing through the reference point of the tomographic image I1 are arranged along the length direction (long axis direction) of the blood vessel by the catheter 1 (I2 in FIG. 2). The image processing device 3 analyzes and processes the branching structure of the blood vessels based on the obtained tomographic image I1 and long-axis image I2, and outputs a two-dimensional or three-dimensional image showing the structure of the blood vessels so that it can be viewed by a medical professional. In the image diagnostic device 100 of the present disclosure, information about the side branches, such as the side branch position and outline of the first tube (e.g., main trunk) into which the guidewire W and catheter 1 are inserted, and the second tube (e.g., side branch) branching from the first tube, is superimposed on both the long-axis image and the tomographic image displayed on the display device 4. The process by which the image processing device 3 creates information about the side branches and superimposes it on the display device 4 will be described in detail below.

図3は、画像処理装置3の構成を示すブロック図である。画像処理装置3は、コンピュータであり、処理部30、記憶部31、及び入出力I/F32を備える。 Figure 3 is a block diagram showing the configuration of the image processing device 3. The image processing device 3 is a computer, and includes a processing unit 30, a storage unit 31, and an input/output I/F 32.

処理部30は、一又は複数のCPU(Central Processing Unit )、MPU(Micro-Processing Unit )、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、TPU(Tensor Processing Unit)等を含む。処理部30は、RAM(Random Access Memory)等の非一時記憶媒体を内蔵し、処理中に生成したデータを非一時記憶媒体に記憶しつつ、記憶部31に記憶されているコンピュータプログラム3Pに基づき演算を実行する。 The processing unit 30 includes one or more CPUs (Central Processing Units), MPUs (Micro-Processing Units), GPUs (Graphics Processing Units), GPGPUs (General-purpose computing on graphics processing units), TPUs (Tensor Processing Units), etc. The processing unit 30 incorporates a non-temporary storage medium such as a RAM (Random Access Memory), and executes calculations based on a computer program 3P stored in the storage unit 31 while storing data generated during processing in the non-temporary storage medium.

記憶部31は、ハードディスク、フラッシュメモリ等の不揮発性記憶媒体である。記憶部31は、処理部30が読み出すコンピュータプログラム3P、設定データ等を記憶する。また記憶部31は、学習済みモデル3Mを記憶する。 The storage unit 31 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 31 stores the computer program 3P, setting data, etc., that are read by the processing unit 30. The storage unit 31 also stores the trained model 3M.

コンピュータプログラム3P及び学習済みモデル3Mは、装置外の非一時記憶媒体9に記憶されたコンピュータプログラム9P及び学習済みモデル9Mを入出力I/F32を介して読み出して複製したものであってもよい。コンピュータプログラム3P及び学習済みモデル3Mは、遠隔のサーバ装置が配信するものを画像処理装置3が図示しない通信部を介して取得し、記憶部31に記憶したものであってもよい。 The computer program 3P and the trained model 3M may be copies of the computer program 9P and the trained model 9M stored in a non-temporary storage medium 9 outside the device, read out via the input/output I/F 32. The computer program 3P and the trained model 3M may be distributed by a remote server device, acquired by the image processing device 3 via a communication unit (not shown), and stored in the storage unit 31.

入出力I/F32は、カテーテル1、表示装置4及び入力装置5が接続されるインタフェースである。処理部30は、入出力I/F32を介し、イメージングデバイス11から出力される信号(デジタルデータ)を取得する。処理部30は、入出力I/F32を介し、生成した断層画像I1及び/又は長軸画像I2を含む画面の画面データを表示装置4へ出力する。処理部30は、入出力I/F32を介して、入力装置5に入力された操作情報を受け付ける。 The input/output I/F 32 is an interface to which the catheter 1, the display device 4, and the input device 5 are connected. The processing unit 30 acquires a signal (digital data) output from the imaging device 11 via the input/output I/F 32. The processing unit 30 outputs screen data of a screen including the generated tomographic image I1 and/or long axis image I2 to the display device 4 via the input/output I/F 32. The processing unit 30 accepts operation information input to the input device 5 via the input/output I/F 32.

図4は、学習済みモデル3Mの概要図である。本開示において学習済みモデル3Mは、画像が入力された場合に、画像に写っている1又は複数の対象物の領域を示す画像を出力するように学習されたモデルである。学習済みモデル3Mは例えば、セマンティックセグメンテーション(Semantic Segmentation )を実施するモデルである。学習済みモデル3Mは、入力された画像中の各画素に対し、各画素がいずれの対象物が写っている範囲の画素であるかを示すデータをタグ付けした画像及び確度を出力するように設計されている。 Figure 4 is an overview diagram of the trained model 3M. In the present disclosure, the trained model 3M is a model trained to output an image showing the area of one or more objects appearing in an image when an image is input. The trained model 3M is, for example, a model that performs semantic segmentation. The trained model 3M is designed to output an image tagged with data indicating which object each pixel in the input image is within, and a probability.

学習済みモデル3Mは例えば、図4に示すように、畳み込み層、プーリング層、アップサンプリング層、及びソフトマックス層を対象的に配置した所謂U-netを用いる。学習済みモデル3Mは、カテーテル1からの信号によって作成した断層画像I1が入力された場合に、タグ画像IS及び確度を出力する。タグ画像ISは、血管の内腔範囲、血管の中膜を含む血管の内腔境界と血管境界との間に対応する膜範囲、ガイドワイヤW及びそれによる反響が写っている範囲、並びにカテーテル1に対応する範囲を、その位置の画素に各々異なる画素値(図4中では異なる種類のハッチング及び無地で示す)によってタグを付したものである。 For example, as shown in FIG. 4, the trained model 3M uses a so-called U-net in which a convolution layer, a pooling layer, an upsampling layer, and a softmax layer are symmetrically arranged. When a tomographic image I1 created by a signal from the catheter 1 is input, the trained model 3M outputs a tag image IS and accuracy. The tag image IS is obtained by tagging the range of the blood vessel lumen, the range of the membrane corresponding to the area between the lumen boundary of the blood vessel including the tunica media and the blood vessel boundary, the range in which the guidewire W and its reflection are captured, and the range corresponding to the catheter 1 with different pixel values (shown in FIG. 4 with different types of hatching and solid color) for the pixels at those positions.

学習済みモデル3Mは上述したようにセマンティックセグメンテーション、U-netを例示したがこれに限らないことは勿論である。その他、学習済みモデル3Mは、インスタンスセグメンテーション等による個別認識処理を実現するモデルであってもよい。学習済みモデル3Mは、U-netベースに限らず、SegNet、R-CNN、又は他のエッジ抽出処理との統合モデル等をベースにしたモデル使用してもよい。 As described above, semantic segmentation and U-net have been exemplified as trained model 3M, but it goes without saying that this is not limited to these. In addition, trained model 3M may be a model that realizes individual recognition processing using instance segmentation, etc. Trained model 3M is not limited to being U-net-based, and may also be a model based on SegNet, R-CNN, or an integrated model with other edge extraction processing, etc.

処理部30は、学習済みモデル3Mに画像I1を入力して得られるタグ画像ISにおける画素値とその画像内の座標とによって、断層画像I1に写っている血管の内腔境界、及び血管境界をエッジ検出できる。血管境界は、厳密には血管の中膜と外膜との間の外弾性板(EEM:External Elastic Membrane )であって、IVUS法にて画像I1内で比較的明瞭に低い輝度で写る。図5は、検出された境界(輪郭)を示す図である。図5は、図4に示した断層画像I1に対し、学習済みモデル3Mからの出力に基づいて得られる内腔境界を示す曲線B1と、血管境界を示す曲線B2とが重畳表示されている状態を示す。 The processing unit 30 can detect the edges of the lumen boundary and vascular boundary of the blood vessel shown in the tomographic image I1 by using pixel values in the tag image IS obtained by inputting the image I1 to the trained model 3M and the coordinates in the image. Strictly speaking, the vascular boundary is the external elastic membrane (EEM) between the tunica media and tunica adventitia of the blood vessel, and is shown relatively clearly with low brightness in the image I1 by the IVUS method. Figure 5 is a diagram showing the detected boundary (contour). Figure 5 shows a state in which a curve B1 indicating the lumen boundary obtained based on the output from the trained model 3M and a curve B2 indicating the vascular boundary are superimposed on the tomographic image I1 shown in Figure 4.

本開示の画像処理装置3は、カテーテル1からの信号から得られる断層画像I1、及び、断層画像I1を学習済みモデル3Mへ入力した場合に得られる内腔境界及び血管境界の情報を用いて、更に解剖学的な特徴点を導出し、表示する。以下、詳細な処理手順を説明する。 The image processing device 3 of the present disclosure further derives and displays anatomical feature points using the tomographic image I1 obtained from the signal from the catheter 1 and the information on the lumen boundary and blood vessel boundary obtained when the tomographic image I1 is input to the trained model 3M. The detailed processing procedure is described below.

図6及び図7は、画像処理装置3による情報処理手順の一例を示すフローチャートである。画像処理装置3の処理部30は、カテーテル1のイメージングデバイス11から信号が出力されると以下の処理を開始する。 Figures 6 and 7 are flowcharts showing an example of an information processing procedure by the image processing device 3. When a signal is output from the imaging device 11 of the catheter 1, the processing unit 30 of the image processing device 3 starts the following processing.

処理部30は、カテーテル1のイメージングデバイス11からの信号(データ)を所定量(例えば360度分)取得する都度(ステップS301)、矩形に並べた信号を極座標変換(逆変換)して断層画像I1を生成する(ステップS302)。処理部30は、生成した断層画像I1を、表示装置4に表示させている画面内にリアルタイムに表示できるように出力する(ステップS303)。処理部30は、ステップS301で取得した信号データと、断層画像I1とを、イメージングデバイス11のポジション(長軸上の位置、角度)に対応付けて記憶部31に記憶する(ステップS304)。 Each time the processing unit 30 acquires a predetermined amount (e.g., 360 degrees) of signals (data) from the imaging device 11 of the catheter 1 (step S301), it performs polar coordinate conversion (inverse conversion) on the rectangularly arranged signals to generate a tomographic image I1 (step S302). The processing unit 30 outputs the generated tomographic image I1 so that it can be displayed in real time on the screen displayed on the display device 4 (step S303). The processing unit 30 stores the signal data acquired in step S301 and the tomographic image I1 in the memory unit 31 in association with the position (position on the long axis, angle) of the imaging device 11 (step S304).

処理部30は、断層画像I1を学習済みモデル3Mへ入力する(ステップS305)。学習済みモデル3Mから得られるタグ画像ISに基づき、処理部30は、断層画像I1における内腔境界及び血管境界のデータを算出する(ステップS306)。ステップS306において処理部30は、学習済みモデル3Mから出力される内腔範囲、血管の中膜を含む膜範囲の内、内腔範囲の輪郭(エッジ)を内腔境界、膜範囲の外側輪郭を血管境界として算出する。ステップS306において処理部30は、断層画像I1のサイズを縮小してから学習済みモデル3Mへ入力するなど、高速処理化を実施してもよい。 The processing unit 30 inputs the tomographic image I1 to the trained model 3M (step S305). Based on the tag image IS obtained from the trained model 3M, the processing unit 30 calculates data on the lumen boundary and vascular boundary in the tomographic image I1 (step S306). In step S306, the processing unit 30 calculates the lumen range output from the trained model 3M, the inner membrane range including the tunica media of the blood vessel, the contour (edge) of the lumen range as the lumen boundary, and the outer contour of the membrane range as the vascular boundary. In step S306, the processing unit 30 may implement high-speed processing, such as reducing the size of the tomographic image I1 before inputting it to the trained model 3M.

処理部30は、ステップS306で得られた内腔境界及び血管境界のデータ(座標データ)に基づき、側枝が写っているか否かを判断するためのパラメータを算出する(ステップS307)。断層画像I1が、本幹及び側枝の分岐部を写している場合、断層画像I1から導出される血管境界の形状は、円形又は楕円形から乖離する。ステップS307で処理部30は、円形又は楕円形からの乖離の度合に対応するパラメータを算出する。 Based on the data (coordinate data) of the lumen boundary and vascular boundary obtained in step S306, the processing unit 30 calculates parameters for determining whether or not a side branch is shown (step S307). If the tomographic image I1 shows the branching portion of the main trunk and the side branch, the shape of the vascular boundary derived from the tomographic image I1 deviates from a circle or an ellipse. In step S307, the processing unit 30 calculates parameters corresponding to the degree of deviation from a circle or an ellipse.

ステップS307において処理部30は、基本的に血管境界のみに対してパラメータを算出してもよい。ただし、血管境界が断層画像I1の外側に交わる、即ち、膜範囲が断層画像I1の画像外にまで至っている場合、処理部30は、血管境界に代替して内腔境界の内側領域に対してパラメータを算出してもよい。 In step S307, the processing unit 30 may basically calculate parameters only for the vascular boundary. However, if the vascular boundary intersects with the outside of the tomographic image I1, i.e., the membrane range extends outside the image of the tomographic image I1, the processing unit 30 may calculate parameters for the inner region of the lumen boundary instead of the vascular boundary.

ステップS307において処理部30は、第1例では、血管境界の内側領域の重心を通る直径の最大径と最小径との差分を、最大径で除算した偏心度を算出する。 In step S307, in the first example, the processing unit 30 calculates the eccentricity by dividing the difference between the maximum and minimum diameters passing through the center of gravity of the inner region of the blood vessel boundary by the maximum diameter.

ステップS307において処理部30は、第2例では、内腔境界及び血管境界のデータを入力した場合に、側枝が写っている可能性に対応する確度を出力するように学習された判断用の学習モデル(図示せず)を使用してもよい。ここで判断用の学習モデルは、学習済みモデル3Mから出力されたタグ画像中の内腔範囲及び膜範囲のデータを入力された場合に、側枝が写っている可能性に対応する確度を出力するように学習されていてもよい。処理部30は、ステップS307において判断用の学習モデルからの出力をパラメータとして算出する。 In step S307, in the second example, the processing unit 30 may use a learning model for judgment (not shown) that has been trained to output a degree of accuracy corresponding to the possibility that a side branch is captured when data on the lumen boundary and vascular boundary are input. Here, the learning model for judgment may be trained to output a degree of accuracy corresponding to the possibility that a side branch is captured when data on the lumen range and membrane range in the tag image output from the trained model 3M is input. In step S307, the processing unit 30 calculates the output from the learning model for judgment as a parameter.

ステップS307において処理部30は、第3例では、対象の血管境界の径(最大径、及び最小径)と、既に走査済みの断層画像I1に対する血管境界の径とを比較した値をパラメータとして算出してもよい。径が所定の割合以上、所定の長さ以上急変した場合、側枝が写っている可能性が高いと判断できる。 In step S307, in the third example, the processing unit 30 may calculate a parameter obtained by comparing the diameter (maximum diameter and minimum diameter) of the target blood vessel boundary with the diameter of the blood vessel boundary for the already scanned tomographic image I1. If the diameter changes suddenly by more than a predetermined percentage or by more than a predetermined length, it can be determined that there is a high possibility that a side branch is captured.

処理部30は、第4例として、偏心度に代替して、円形度を算出してもよい。円形度とは血管境界の内側領域の面積と血管境界の周の長さとの比である。円形度が、円における面積と円周の長さとの比と近いほど、円形度が高く、側枝が写っている可能性は低いと判断できる。 As a fourth example, the processing unit 30 may calculate circularity instead of eccentricity. Circularity is the ratio of the area of the inner region of the vascular boundary to the circumference of the vascular boundary. The closer the circularity is to the ratio of the area to the circumference of a circle, the higher the circularity is, and it can be determined that the possibility of a side branch being captured is low.

処理部30は、イメージングデバイス11のポジションに対応付けてパラメータを記憶する(ステップS308)。処理部30は、算出されたパラメータに基づき、対象である断層画像I1が、カテーテル1が挿入されている本幹のみならず、側枝が写っている画像の候補であるか否かを判断する(ステップS309)。ステップS309において処理部30は、例えば、偏心度が所定値よりも高いか否かによって判断してよい。ステップS309にて候補でないと判断された場合(S309:NO)、処理部30は、処理をステップS313へ進める。 The processing unit 30 stores the parameters in association with the position of the imaging device 11 (step S308). Based on the calculated parameters, the processing unit 30 determines whether the target tomographic image I1 is a candidate for an image showing not only the main trunk into which the catheter 1 is inserted, but also a side branch (step S309). In step S309, the processing unit 30 may make a determination based on, for example, whether the eccentricity is higher than a predetermined value. If it is determined in step S309 that it is not a candidate (S309: NO), the processing unit 30 proceeds to step S313.

候補であると判断された場合(S309:YES)、処理部30は、対象の断層画像I1から算出された血管境界に対して側枝の有無の判断と、断層画像における本幹の境界の特定と、側枝の角度算出とを含む側枝検出処理を実行する(ステップS310)。 If it is determined to be a candidate (S309: YES), the processing unit 30 executes a side branch detection process (step S310), which includes determining the presence or absence of a side branch based on the vascular boundary calculated from the target tomographic image I1, identifying the boundary of the main trunk in the tomographic image, and calculating the angle of the side branch.

処理部30は、ステップS310の側枝検出処理の結果、得られる本幹の領域境界を示す画像、及び側枝の角度のデータをステップS303で表示中の断層画像I1に重畳表示する(ステップS311)。ステップS311は、側枝が断層画像I1に存在しないと判断された場合はスキップされてよい。処理部30は、側枝検出処理の結果を、ステップS304で記憶した断層画像I1に対応付けて記憶する(ステップS312)。側枝が存在すると判断された場合、断層画像I1には、側枝画像を示すフラグ等のデータが対応付けられる。側枝画像を示すフラグのデータが対応付けられた断層画像I1に対応するポジションは、長軸上の本幹及び側枝の分岐部の位置である。 The processing unit 30 superimposes the image showing the area boundary of the main trunk and the data on the angle of the side branch obtained as a result of the side branch detection process in step S310 on the tomographic image I1 being displayed in step S303 (step S311). Step S311 may be skipped if it is determined that the side branch is not present in the tomographic image I1. The processing unit 30 stores the result of the side branch detection process in association with the tomographic image I1 stored in step S304 (step S312). If it is determined that a side branch is present, data such as a flag indicating a side branch image is associated with the tomographic image I1. The position corresponding to the tomographic image I1 associated with the data of the flag indicating a side branch image is the position of the branch of the main trunk and the side branch on the long axis.

処理部30は、ステップS306にて算出された内腔境界についてもステップS307-S310の処理を行なってもよい。 The processing unit 30 may also perform the processing of steps S307-S310 on the lumen boundary calculated in step S306.

処理部30は、カテーテル1のイメージングデバイス11による走査を完了したか否かを判断する(ステップS313)。走査を完了していないと判断された場合(S313:NO)、処理部30は、処理をステップS301へ戻し、次の断層画像I1を生成する。 The processing unit 30 determines whether scanning by the imaging device 11 of the catheter 1 has been completed (step S313). If it is determined that scanning has not been completed (S313: NO), the processing unit 30 returns the process to step S301 and generates the next tomographic image I1.

走査を完了したと判断された場合(S313:YES)、処理部30は、イメージングデバイス11のポジションに対する、側枝の有無及び検出された側枝の角度の分布に基づき、ノイズデータを除去する処理を実行する(ステップ314)。ステップS314において処理部30は、ステップS310の処理によって側枝が写っていると判断された断層画像I1であっても、精度が低いと判断できる断層画像I1に対しては側枝なしと判断し直し、記憶する。詳細は後述する。 If it is determined that the scan is complete (S313: YES), the processing unit 30 executes a process of removing noise data based on the presence or absence of side branches and the distribution of the angles of the detected side branches relative to the position of the imaging device 11 (step 314). In step S314, the processing unit 30 re-determines that there are no side branches for the tomographic image I1 that is determined to have low accuracy even if the tomographic image I1 is determined to have a side branch by the process of step S310, and stores the determined result. Details will be described later.

処理部30は、ステップS314による処理によって側枝が写っていると確定した断層画像I1のポジションに対応する箇所に、側枝が存在することを示すマークを付した長軸画像I2を表示装置4に表示させ(ステップS315)、処理を終了する。 The processing unit 30 causes the display device 4 to display the long axis image I2 with a mark indicating the presence of a side branch at a location corresponding to the position of the tomographic image I1 where it has been determined by the processing in step S314 that the side branch is shown (step S315), and ends the processing.

図8は、側枝検出処理の詳細な処理手順の一例を示すフローチャートである。図8のフローチャートは、図6及び図7のフローチャートに示したステップS310の詳細に対応する。 Figure 8 is a flowchart showing an example of a detailed processing procedure for side branch detection processing. The flowchart in Figure 8 corresponds to the details of step S310 shown in the flowcharts in Figures 6 and 7.

処理部30は、対象の境界(血管境界又は内腔境界)に対して、例えばHough変換により、境界に沿う円を抽出する(ステップS101)。ステップS101において例えばHough変換を用いた場合、処理部30は、大小複数の円を抽出する。 The processing unit 30 extracts a circle along the boundary of the target (blood vessel boundary or lumen boundary) by, for example, a Hough transform (step S101). When, for example, a Hough transform is used in step S101, the processing unit 30 extracts multiple circles of various sizes.

処理部30は、ステップS101で抽出される円から、本幹に対応する尤もらしい円を確定する(ステップS102)。ステップS102において処理部30は、血管径の大きさに対応する所定の長さ以上の径の円であり、且つ、対象の境界内の領域の重心から最も距離が近い中心を持つ円を、本幹に対応する尤もらしい円として選択する。ステップS102において処理部30は、画像の中心から最も距離が近い中心を持つ円を尤もらしい円として選択してもよいし、前後のフレーム画像の重心との距離が最も近い円を、尤もらしい円として選択してもよい。処理部30は、これらの選択の方法を、適宜、一部又は全部組み合わせて選択してもよい。 The processing unit 30 determines a plausible circle corresponding to the main trunk from the circles extracted in step S101 (step S102). In step S102, the processing unit 30 selects a circle whose diameter is equal to or greater than a predetermined length corresponding to the size of the blood vessel diameter and whose center is closest to the center of gravity of the area within the boundary of the target as the plausible circle corresponding to the main trunk. In step S102, the processing unit 30 may select a circle whose center is closest to the center of the image as the plausible circle, or may select a circle whose center is closest to the center of gravity of the previous or next frame image as the plausible circle. The processing unit 30 may select a combination of some or all of these selection methods as appropriate.

処理部30は、本幹に対応する円として確定した円の中心を、血管の中心として決定し(ステップS103)、対象の境界上の点の血管の中心からの距離を、境界に沿って全周(360度分)に亘り算出する(ステップS104)。処理部30は、全周に沿った血管の中心からの距離の分布を作成し(ステップS105)、血管の中心からの距離が、所定の基準値よりも長い境界上の点が、連続して所定数以上あるか否かを判断する(ステップS106)。 The processing unit 30 determines the center of the circle determined to correspond to the main trunk as the center of the blood vessel (step S103), and calculates the distance from the center of the blood vessel to points on the boundary of the target along the entire circumference (360 degrees) of the boundary (step S104). The processing unit 30 creates a distribution of the distance from the center of the blood vessel along the entire circumference (step S105), and determines whether there are a predetermined number or more consecutive points on the boundary whose distance from the center of the blood vessel is longer than a predetermined reference value (step S106).

所定数以上あると判断された場合(S106:YES)、処理部30は、断層画像I1に側枝が存在する(写っている)と判断する(ステップS107)。処理部30は、血管の中心からの距離が、所定の基準値よりも連続して長い境界上の点に対応する、ステップ102で確定した本幹の円上の円弧を特定する(ステップS108)。 If it is determined that there is a predetermined number or more (S106: YES), the processing unit 30 determines that a side branch is present (is captured) in the tomographic image I1 (step S107). The processing unit 30 identifies arcs on the main trunk circle determined in step S102 that correspond to points on the boundary whose distance from the center of the blood vessel is continuously longer than a predetermined reference value (step S108).

処理部30は、断層画像I1の中心から、断層画像I1に対してステップS108で特定した円弧の中心点を結ぶ直線の、断層画像I1における例えば12時の方向(上方向)からの角度を、側枝角度として算出する(ステップS109)。 The processing unit 30 calculates the side branch angle as the angle of a straight line connecting the center of the tomographic image I1 to the center point of the arc identified in step S108 for the tomographic image I1 from, for example, the 12 o'clock direction (upward) in the tomographic image I1 (step S109).

処理部30は、ステップS108で特定した円弧の端点と最も近い、境界上の2点を、改めて円弧で結んだ補間軌跡を特定する(ステップS110)。処理部30は、ステップS110で特定した補間軌跡を、本幹の領域境界を示す画像として記憶し(ステップS111)、処理を図6及び図7のステップS311へ戻す。 The processing unit 30 identifies an interpolation trajectory that connects two points on the boundary that are closest to the end points of the arc identified in step S108 with a new arc (step S110). The processing unit 30 stores the interpolation trajectory identified in step S110 as an image showing the area boundary of the main trunk (step S111), and returns the process to step S311 in Figs. 6 and 7.

ステップS106において、所定数以上ないと判断された場合(S106:NO)、処理部30は、断層画像I1に側枝が存在しないと判断し(ステップS112)、処理を図6及び図7のステップS311へ戻す。 If it is determined in step S106 that the number is less than the predetermined number (S106: NO), the processing unit 30 determines that no side branches are present in the tomographic image I1 (step S112) and returns the process to step S311 in Figures 6 and 7.

図8のフロチャートに示した処理手順を、具体例を挙げて説明する。図9-図13は、側枝検出処理の概要図である。図9は、血管境界に対して抽出される円の例を示す図である。図9は、断層画像I1に、断層画像I1に対して算出された血管境界の曲線B2を重畳して示し、曲線B2に対する円の抽出処理後に、抽出された複数の円を太字で示す。図9に示すように、側枝が写っている候補となる断層画像I1からは、断層画像I1内の左下部の本幹に対応する部分と、側枝に対応する部分とに対して円が抽出される。しかしながら、図9では、左下の径の大きな円が、重心からの距離が近いものとして確定される。 The processing procedure shown in the flowchart of FIG. 8 will be explained using a specific example. FIGS. 9 to 13 are schematic diagrams of side branch detection processing. FIG. 9 is a diagram showing an example of circles extracted for a vascular boundary. FIG. 9 shows a cross-sectional image I1 superimposed with a curve B2 of the vascular boundary calculated for the cross-sectional image I1, and shows in bold a number of circles extracted after the circle extraction process for the curve B2. As shown in FIG. 9, from a cross-sectional image I1 that is a candidate for showing a side branch, circles are extracted for a portion corresponding to the main trunk in the lower left part of the cross-sectional image I1 and a portion corresponding to the side branch. However, in FIG. 9, the circle with the larger diameter in the lower left part is determined to be closer to the center of gravity.

図10は、図8のフローチャートにおけるステップS104の処理で得られる分布を示す。図10の上部には、断層画像I1に重畳させて、算出された血管境界の曲線B2及び確定された円が示されている。図10の下部には、血管の中心から曲線B2上の座標点への距離の分布を示す。図10中の矢符は、距離を順に算出する順序を示している。図10に示すように、断層画像I1内に、側枝が写っている画像では、下部の分布に示すように、距離のピークが明確に存在する。 Figure 10 shows the distribution obtained by the processing of step S104 in the flowchart of Figure 8. The upper part of Figure 10 shows the calculated vascular boundary curve B2 and the determined circle superimposed on the tomographic image I1. The lower part of Figure 10 shows the distribution of the distance from the center of the blood vessel to the coordinate points on the curve B2. The arrows in Figure 10 indicate the order in which the distances are calculated. As shown in Figure 10, in the tomographic image I1 in which a side branch is shown, there is a clear peak in the distance, as shown in the distribution at the bottom.

図11は、図10の分布に基づく側枝の有無の判断(S106)を示す図である。図11では、図10に示した分布上に、距離についての基準値が図中の太線で示されている。図11の図では、基準値以上の距離の画素が所定数以上あると判断されている。図11の下部には、血管の中心からの距離が、所定の基準値よりも連続して長い境界(B2)上の点が黒塗によって示されており、これに対応する円弧(端点黒丸)が示されている(S108)。端点黒丸の円弧は、具体的には、本幹に対応する円のうち、所定の基準値よりも連続して長い境界(B2)上の一部の両端と、血管の中心とを結ぶ2つの直線の間の範囲として特定される。 Figure 11 is a diagram showing the determination of the presence or absence of side branches based on the distribution in Figure 10 (S106). In Figure 11, a reference value for distance is shown by a thick line on the distribution shown in Figure 10. In the diagram in Figure 11, it is determined that there are a predetermined number of pixels whose distance is equal to or greater than the reference value. In the lower part of Figure 11, points on the boundary (B2) whose distance from the center of the blood vessel is continuously longer than the predetermined reference value are shown in black, and the corresponding arc (black end point circle) is shown (S108). Specifically, the arc of the black end point circle is specified as the range between two straight lines connecting the center of the blood vessel and both ends of a part of the boundary (B2) that is continuously longer than the predetermined reference value, of the circle corresponding to the main trunk.

側枝が高確率で存在する(写っている)か否かの判断(S106)は、図11に示した内容に限られない。例えば、血管境界に対して確定された円の半径以上の距離の座標点が、連続して所定数以上存在するかのみに限らない。内腔境界に対して確定された円の半径以上の距離の内腔境界上の座標点が、連続して所定数以上存在し、且つ、その範囲が血管境界に対して特定された範囲と重複する、といった判断がされてもよい。 The determination of whether or not a side branch exists (is captured) with a high probability (S106) is not limited to the content shown in FIG. 11. For example, it is not limited to whether or not there are a predetermined number or more consecutive coordinate points at a distance equal to or greater than the radius of the circle determined for the vascular boundary. It may be determined that there are a predetermined number or more consecutive coordinate points on the lumen boundary at a distance equal to or greater than the radius of the circle determined for the lumen boundary, and that the range overlaps with the range specified for the vascular boundary.

図12は、図11で特定された円弧に基づき特定された補間軌跡の例を示す。補間軌跡は、図12に示すように、ステップS108で特定された円弧の端点それぞれから近い、血管境界の曲線B2上の2点を通る円弧として特定される。また、図12には、算出される側枝角度(側枝の向き)の情報が白抜きの矢符として示されている。このとき側枝角度を示す画像(矢符)は、曲線B2や補間軌跡を視認しやすいよう、曲線B2よりも外側に表示されるように示される。 Figure 12 shows an example of an interpolation trajectory identified based on the arc identified in Figure 11. As shown in Figure 12, the interpolation trajectory is identified as an arc that passes through two points on the curve B2 of the vascular boundary that are close to each of the end points of the arc identified in step S108. Also, in Figure 12, information on the calculated side branch angle (side branch direction) is shown as a white arrow. At this time, the image (arrow) indicating the side branch angle is displayed outside the curve B2 so that the curve B2 and the interpolation trajectory can be easily viewed.

図13は、表示装置4における表示例を示す。図13には、断層画像I1と、断層画像I1上に重畳された内腔境界、血管境界の曲線B1,B2と、補間軌跡と、側枝角度の情報とが重畳表示されている。図13に示す例では、内腔境界に対しても同様にして特定された補間軌跡が重畳表示されている。これにより、読影に慣れていない医療従事者であっても、側枝の有無、プラークが溜まりやすい側枝が存在する箇所の読影が容易になる。 Figure 13 shows an example of display on the display device 4. In Figure 13, a tomographic image I1, the lumen boundary and vascular boundary curves B1 and B2 superimposed on the tomographic image I1, an interpolation trajectory, and information on the side branch angle are superimposed. In the example shown in Figure 13, an interpolation trajectory determined in a similar manner is superimposed on the lumen boundary. This makes it easy for even medical personnel who are not accustomed to reading images to interpret the presence or absence of side branches and the locations of side branches where plaque is likely to accumulate.

図14は、側枝検出のノイズデータを除去する処理手順の一例を示すフローチャートである。図14のフローチャートは、図6及び図7のフローチャートに示したステップS314の詳細に対応する。 Figure 14 is a flowchart showing an example of a processing procedure for removing noise data in side branch detection. The flowchart in Figure 14 corresponds to details of step S314 shown in the flowcharts in Figures 6 and 7.

処理部30は、カテーテル1の走査範囲内で、側枝が存在すると判断された断層画像I1の位置から所定範囲内に、側枝が存在すると判断される他の断層画像I1が1又は複数あるか否かを判断する(ステップS401)。所定範囲は例えば、側枝の径(1~5mm)に対応する範囲である。実際に側枝が存在する箇所では、複数の連続する断層画像I1で、側枝が存在すると判断されるはずである。したがって、側枝が存在すると判断された断層画像I1が孤立している場合、これは誤検出であると推測される。ステップS401において処理部30は例えば、側枝が存在すると判断された断層画像I1の位置から所定範囲の各位置について生成された複数の断層画像I1の80%にて側枝が存在すると判断されている場合、複数あると判断してもよい。 The processing unit 30 judges whether or not there is one or more other tomographic images I1 in which a side branch is judged to exist within a predetermined range from the position of the tomographic image I1 in which a side branch is judged to exist within the scanning range of the catheter 1 (step S401). The predetermined range is, for example, a range corresponding to the diameter of the side branch (1 to 5 mm). In a location where a side branch actually exists, the side branch should be judged to exist in multiple consecutive tomographic images I1. Therefore, if a tomographic image I1 in which a side branch is judged to exist is isolated, this is presumed to be a false detection. In step S401, the processing unit 30 may judge that there are multiple side branches, for example, if the side branch is judged to exist in 80% of the multiple tomographic images I1 generated for each position within a predetermined range from the position of the tomographic image I1 in which a side branch is judged to exist.

したがって処理部30は、ステップS401で他の断層画像I1が存在しないと判断された場合(S401:NO)、対象の断層画像I1を、側枝が存在する画像から除去する(ステップS402)。ステップS402において処理部30は具体的には、断層画像I1に対応付けられていた側枝画像を示すフラグ、側枝の情報等を削除する。処理部30は、処理を図6及び図7のステップS315へ戻す。 Therefore, when it is determined in step S401 that no other tomographic image I1 exists (S401: NO), the processing unit 30 removes the target tomographic image I1 from the image in which the side branch exists (step S402). Specifically, in step S402, the processing unit 30 deletes the flag indicating the side branch image, information on the side branch, etc., that was associated with the tomographic image I1. The processing unit 30 returns the process to step S315 in Figs. 6 and 7.

他の断層画像I1が存在すると判断された場合(S401:YES)、所定範囲内で側枝が存在すると判断された他の断層画像I1と比較して、側枝角度は類似するか否かを判断する(ステップS403)。同一の側枝を検出している場合、算出される側枝角度は類似しているはずである。 If it is determined that another tomographic image I1 exists (S401: YES), it is compared with other tomographic images I1 in which a side branch is determined to exist within a predetermined range, and it is determined whether the side branch angles are similar (step S403). If the same side branch is detected, the calculated side branch angles should be similar.

したがって処理部30は、類似しないと判断された場合(S403:NO)、処理部30は、対象の断層画像I1を、側枝が存在する画像から除去し(S402)、図6及び図7のステップS315へ処理を戻す。 Therefore, if the processing unit 30 determines that they are not similar (S403: NO), the processing unit 30 removes the target tomographic image I1 from the image in which the side branch is present (S402) and returns the process to step S315 in Figures 6 and 7.

類似すると判断された場合(S403:YES)、処理部30は、処理を図6及び図7のステップS315へ戻す。この場合、類似すると判断された断層画像I1は、側枝画像であることを示すフラグ等のデータが対応付けられたままである。図14のフローチャートにより除去されなかった断層画像I1は、側枝が写っている候補の画像から、側枝が写っていると確定された画像となる。 If it is determined that they are similar (S403: YES), the processing unit 30 returns the process to step S315 in FIG. 6 and FIG. 7. In this case, the tomographic image I1 determined to be similar remains associated with data such as a flag indicating that it is a side branch image. The tomographic image I1 that was not removed by the flowchart in FIG. 14 becomes an image that has been confirmed to contain a side branch from among the candidate images that contain a side branch.

図15は、側枝検出のノイズデータ除去処理の概要図である。図15は、カテーテル1の走査範囲内における側枝が存在すると判断された断層画像I1の位置に対する、側枝角度の分布図である。図15の横軸は、カテーテル1が移動する血管の長軸方向であり、縦軸は、血管内角度を示す。各点は、側枝が存在すると判断された断層画像I1の長軸方向における位置と、その側枝に対して側枝が存在すると判断された角度範囲及びその中心値である側枝角度とを示す。図15では、実際に側枝が存在する長軸上の範囲にハッチングを付している。 Figure 15 is an overview of the noise data removal process for side branch detection. Figure 15 is a distribution diagram of side branch angles for positions in tomographic image I1 where a side branch is determined to exist within the scanning range of catheter 1. The horizontal axis of Figure 15 is the long axis direction of the blood vessel through which catheter 1 moves, and the vertical axis indicates the intravascular angle. Each point indicates the position in the long axis direction of tomographic image I1 where a side branch is determined to exist, the angle range for that side branch, and the side branch angle, which is the center value of that range. In Figure 15, the range on the long axis where a side branch actually exists is hatched.

図15に示すように、実際に側枝が存在する箇所では、連続した点が同様の角度範囲で続く。これに対し、実際には側枝が存在していない箇所で側枝が存在すると判断された断層画像I1に対応する点は、算出される側枝角度もバラバラであって連続性もない。したがって、この長軸上の位置及び側枝角度の連続性があるか否かにより、側枝が存在すると誤って判断された断層画像I1の情報を、ノイズとして除去することができる。 As shown in FIG. 15, where a side branch actually exists, consecutive points continue in a similar angle range. In contrast, for points corresponding to tomographic image I1 where a side branch is determined to exist in a location where a side branch does not actually exist, the calculated side branch angles are inconsistent and there is no continuity. Therefore, depending on whether there is continuity in the position on the long axis and the side branch angle, the information of tomographic image I1 where a side branch is erroneously determined to exist can be removed as noise.

図15に示した各点の特徴(長軸方向における位置、側枝範囲、及び側枝角度)に対するクラスタリングにより、クラスタに属しない点は、側枝が存在すると誤って判断された断層画像I1であるとしてノイズとして除去してもよい。クラスタリングは例えば、DBSCAN(Density-Based Spatial Clustering of Applications with Noise )を採用してもよいし、その他公知の方法を使用してもよい。 By clustering the features of each point shown in FIG. 15 (position in the long axis direction, side branch range, and side branch angle), points that do not belong to a cluster may be removed as noise, assuming that the tomographic image I1 is a case in which a side branch is erroneously determined to exist. For example, DBSCAN (Density-Based Spatial Clustering of Applications with Noise) may be used for the clustering, or other known methods may be used.

このようにして、画像診断装置100では、ノイズではなく高確率に側枝が存在すると判断される断層画像I1の情報に絞って、各断層画像I1と、その断層画像I1における側枝の角度等のデータとを併せて提示することができる。具体的には、画像処理装置3の記憶部31には、1回のカテーテル1を使用した検査に対し、イメージングデバイス11からの各時点における信号データ、極座標変換した断層画像I1が記憶される。また、記憶部31には、各断層画像I1に対する処理によって得られる内腔境界、血管境界に係る座標データ(曲線、重心、血管の中心、血管径(最小径)等)、側枝の有無、側枝角度、補間軌跡のデータ等が記憶される。これらのデータに基づき画像処理装置3は、カテーテル1を使用した検査中にリアルタイムに、又は、事後的に、解剖学的特徴点のデータを提示できる。 In this way, the image diagnostic device 100 can present each tomographic image I1 together with data such as the angle of the side branch in the tomographic image I1 by narrowing down the information on the tomographic image I1 that is determined to have a high probability of having a side branch rather than noise. Specifically, the memory unit 31 of the image processing device 3 stores signal data at each time point from the imaging device 11 and the tomographic image I1 converted into polar coordinates for one examination using the catheter 1. The memory unit 31 also stores coordinate data related to the lumen boundary and vascular boundary (curve, center of gravity, center of blood vessel, blood vessel diameter (minimum diameter), etc.), the presence or absence of a side branch, the angle of the side branch, data on the interpolated trajectory, etc. obtained by processing each tomographic image I1. Based on these data, the image processing device 3 can present data on anatomical features in real time during an examination using the catheter 1 or after the fact.

図16は、表示装置4に提示される情報を含む画面例を示す。図16に示す画面400は、長軸画像I2と、表示時点で走査中又は選択した位置の断層画像I1とのそれぞれの表示エリアを含む。断層画像I1の表示エリアには、図13に示したように、内腔境界、血管境界の曲線B1,B2と、補間軌跡と、側枝角度の情報とが重畳表示されている。 Figure 16 shows an example of a screen including information presented on the display device 4. The screen 400 shown in Figure 16 includes display areas for a long-axis image I2 and a tomographic image I1 of the position being scanned or selected at the time of display. As shown in Figure 13, the display area for the tomographic image I1 displays superimposed information on the lumen boundary, the vascular boundary curves B1 and B2, the interpolation trajectory, and the side branch angle.

画面400の長軸画像I2は、図16に示すように、カテーテル1が移動する血管の長軸方向を横方向とした縦断面画像である。デフォルトでは、断層画像I1における垂直方向に沿った輝度データの集合として表示されている。長軸画像I2には、断層画像I1に対応する長軸上の位置を示すカーソル403が表示されている。また、画面400は、長軸画像I2上の、側枝が存在すると判断され確定した断層画像I1の長軸方向における位置に対応する箇所に、第1ボタン401及び第2ボタン402を含む。ボタン401,402は、側枝が存在すると確定した数の分だけ表示される。 As shown in FIG. 16, the long axis image I2 on the screen 400 is a longitudinal cross-sectional image with the long axis direction of the blood vessel through which the catheter 1 moves as the horizontal direction. By default, it is displayed as a collection of brightness data along the vertical direction in the tomographic image I1. A cursor 403 indicating the position on the long axis corresponding to the tomographic image I1 is displayed on the long axis image I2. The screen 400 also includes a first button 401 and a second button 402 at locations on the long axis image I2 that correspond to the position in the long axis direction of the tomographic image I1 that has been determined and confirmed to contain a side branch. The buttons 401 and 402 are displayed for the number of side branches that have been confirmed to exist.

第1ボタン401及び第2ボタン402は、各々の側枝が存在すると確定した断層画像I1と、それに対応する側枝に関するデータとを表示するためのボタンである。第1ボタン401及び第2ボタン402が選択された場合、長軸画像I2は、各断層画像I1における各ボタンに対応する側枝角度での縦断面画像となる。 The first button 401 and the second button 402 are buttons for displaying the tomographic image I1 in which the presence of each side branch has been confirmed, and the data related to the corresponding side branch. When the first button 401 and the second button 402 are selected, the long axis image I2 becomes a longitudinal section image at the side branch angle corresponding to each button in each tomographic image I1.

図17及び図18は、表示装置4に表示される他の画面例を示す。図17及び図18は、図16に示した画面内の第1ボタン401及び第2ボタン402がそれぞれ押された場合に表示される画面である。図17は、第1ボタン401を入力装置5によって選択した場合に表示される画面であり、図18は、第2ボタン402を入力装置5によって選択した場合に表示される画面である。図16-図18を比較すると、デフォルトと、第1ボタン401を選択した場合と、第2ボタン402を選択した場合とでは、長軸画像I2の断面方向が異なることがわかる。これにより、読影する医療従事者にとって、カテーテル1を用いた検査結果から、側枝に着目して血管全体を観察し、解剖学的に構造を把握することがより容易になる。 17 and 18 show other examples of screens displayed on the display device 4. FIGS. 17 and 18 are screens that are displayed when the first button 401 and the second button 402 in the screen shown in FIG. 16 are pressed, respectively. FIG. 17 is a screen that is displayed when the first button 401 is selected by the input device 5, and FIG. 18 is a screen that is displayed when the second button 402 is selected by the input device 5. Comparing FIGS. 16 to 18, it can be seen that the cross-sectional direction of the long-axis image I2 is different between the default, when the first button 401 is selected, and when the second button 402 is selected. This makes it easier for medical personnel who interpret the images to observe the entire blood vessel with a focus on the side branches and understand the anatomical structure from the examination results using the catheter 1.

側枝の直軸方向における位置を正確に検出し、本幹及び側枝の補間軌跡、更に側枝角度を検出していることにより、その他、血管の分岐部における解剖学的特徴点を、多様な形態で表示装置4に表示させることができる。図19は、表示装置4に表示される他の画面例を示す。図19に示す画面400には、各断層画像I1に対して特定した血管領域を、血管の中心を軸として長軸方向につなげた模式縦断面画像I3が含まれている。模式のみならず、各断層画像I1から得られる血管境界の径、内腔境界の径に基づく寸法を考慮した縦断面画像を表示してもよい。 By accurately detecting the position of the side branch in the direct axis direction, and by detecting the interpolated trajectory of the main trunk and side branch, as well as the side branch angle, other anatomical features at the branching portion of the blood vessel can be displayed in various forms on the display device 4. FIG. 19 shows another example of a screen displayed on the display device 4. The screen 400 shown in FIG. 19 includes a schematic longitudinal section image I3 in which the blood vessel region identified for each tomographic image I1 is connected in the longitudinal direction with the center of the blood vessel as the axis. In addition to the schematic, a longitudinal section image may be displayed that takes into account dimensions based on the diameter of the blood vessel boundary and the diameter of the lumen boundary obtained from each tomographic image I1.

図19の画面400においても、長軸画像I2上に第1ボタン401、第2ボタン402、及びカーソル403が表示されている。第1ボタン401が入力装置5によって選択された場合、模式縦断面画像I3の切断方向は、第1ボタン401に対応する側枝の側枝角度に変更される。 In the screen 400 of FIG. 19, a first button 401, a second button 402, and a cursor 403 are also displayed on the long axis image I2. When the first button 401 is selected by the input device 5, the cutting direction of the schematic longitudinal section image I3 is changed to the side branch angle of the side branch corresponding to the first button 401.

側枝が存在する箇所を選択するための第1ボタン401又は第2ボタン402が選択された場合、図19に示すように、模式縦断面画像I3に対し、側枝の中心を中心とした断層画像I4を更に生成して表示してもよい。このような画像により、医療従事者が、表示装置4を視認して血管の構造を把握することが容易になる。 When the first button 401 or the second button 402 for selecting the location where the side branch is present is selected, as shown in FIG. 19, a tomographic image I4 centered on the center of the side branch may be further generated and displayed for the schematic longitudinal section image I3. Such an image makes it easier for medical personnel to visually check the display device 4 and understand the structure of the blood vessel.

なお、図4に示したように、ガイドワイヤW及びその反響範囲を認識することができるので、各断層画像I1におけるガイドワイヤWに対応する点(例えば、よりカテーテル1に近い点)を認識し、その点を中心として血管境界を繋げた画像を表示してもよい。 As shown in FIG. 4, since the guidewire W and its reflection range can be recognized, a point in each tomographic image I1 corresponding to the guidewire W (e.g., a point closer to the catheter 1) can be recognized, and an image in which the vascular boundaries are connected with that point as the center can be displayed.

図20は、表示装置4に表示される他の画面例を示す。図20は、三次元画像の表示例を示す。図20は、図16-図19同様に表示装置4に表示される画面400を示す。図20の画面400には、本幹及び側枝の三次元画像I5が含まれている。三次元画像I5は、本幹及び側枝をいずれも管状に簡略化し、上述の処理によって得られた側枝に関するデータから、長軸方向における側枝の位置、側枝角度を視覚的に把握できるように作成されている。これにより、医療従事者は、血管の解剖学的特徴(側枝)を容易に把握することができる。 Figure 20 shows another example of a screen displayed on the display device 4. Figure 20 shows an example of a three-dimensional image. Figure 20 shows a screen 400 displayed on the display device 4 in the same way as Figures 16-19. Screen 400 in Figure 20 includes a three-dimensional image I5 of the main trunk and side branches. Three-dimensional image I5 is created by simplifying both the main trunk and side branches into a tubular shape, and by using data on the side branches obtained by the above-mentioned processing to visually grasp the position of the side branches in the longitudinal direction and the angle of the side branches. This allows medical personnel to easily grasp the anatomical characteristics of the blood vessels (side branches).

画像処理装置3は、長軸方向におけるポジションに対応付けて側枝検出結果を記憶するので(S312)、これらの記憶されたデータを用い、医療従事者に対して血管の解剖学的特徴を更に把握しやすく表示させることも可能である。図21は、表示装置4に表示される他の画面例を示す。図21には、長軸画像I2上に、各ポジションにおいて検出された内腔境界を示す曲線B3、本幹の領域境界(血管境界)を示す曲線B4が重畳表示されている。曲線B3,B4は長軸画像I2に対し、視認しやすい色で重畳して描画されるとよい。処理部30は、図13に示した各断層画像I1の内腔境界の曲線B1、血管境界の曲線B2を長軸方向に重ねた曲面を作成し、その曲面を長軸方向に切断した縦断面画像を作成する。処理部30は、側枝が写っていて本幹の領域境界が補間されているポジションでは、破線で示す補間軌跡を血管境界の曲線B2と接続する。内腔境界についても同様である。処理部30は、曲面を、曲線B1上の点、曲線B2上の点をそれぞれ、長軸方向にスプライン曲線で接続するようにして作成し、作成した曲面から、特定の切断角度による縦断面を作成する。曲線B1上の点を結んだ内腔領域の境界曲線、場所によっては補間された境界を結んだ曲線を符号B3に示し、血管境界の曲線B2上の点と、場所によっては本幹の領域境界上の点と結んだ境界曲線を符号B4に示す。特定の切断角度は、入力装置5によって選択可能であるとよい。これにより、医療従事者は、走査範囲に亘る血管の解剖学的特徴をより把握しやすい。 Since the image processing device 3 stores the side branch detection results in association with the position in the longitudinal direction (S312), it is also possible to use these stored data to display the anatomical characteristics of the blood vessels in a way that makes it easier for medical personnel to grasp them. FIG. 21 shows another example of a screen displayed on the display device 4. In FIG. 21, a curve B3 indicating the lumen boundary detected at each position and a curve B4 indicating the area boundary (vascular boundary) of the main trunk are superimposed on the longitudinal image I2. The curves B3 and B4 may be drawn superimposed on the longitudinal image I2 in a color that is easy to see. The processing unit 30 creates a curved surface in which the curve B1 of the lumen boundary and the curve B2 of the vascular boundary of each tomographic image I1 shown in FIG. 13 are superimposed in the longitudinal direction, and a longitudinal cross-sectional image is created by cutting the curved surface in the longitudinal direction. At a position where a side branch is captured and the area boundary of the main trunk is interpolated, the processing unit 30 connects the interpolation trajectory shown by the dashed line to the curve B2 of the vascular boundary. The same applies to the lumen boundary. The processing unit 30 creates a curved surface by connecting points on the curve B1 and points on the curve B2 with a spline curve in the long axis direction, and creates a longitudinal section at a specific cutting angle from the created curved surface. The boundary curve of the lumen region connecting the points on the curve B1, and the curve connecting the interpolated boundary in some places, are shown as B3, and the boundary curve connecting the points on the curve B2 of the blood vessel boundary and, in some places, the points on the trunk region boundary are shown as B4. The specific cutting angle may be selected by the input device 5. This makes it easier for medical personnel to grasp the anatomical characteristics of the blood vessels across the scanning range.

本実施形態では、カテーテル1と接続される画像処理装置3が、イメージングデバイス11からの信号に基づきほぼリアルタイムに断層画像I1を生成し、側枝が写る画像であるか否かを判断し、解剖学的特徴を示すデータを表示装置4に表示させるものとして説明した。しかしながら、上述に説明した画像処理装置3による側枝が写る画像であるか否かの判断を含む各処理は、別途、生成済みの断層画像I1に対して事後的に行なわれてもよい。つまり、画像処理装置3は、カテーテル1のイメージングデバイス11に直接的に接続されているとは限らない。画像処理装置3は、ネットワークを介してイメージングデバイス11からの信号を記憶した記憶装置を読み出し可能な装置、例えばサーバ装置であってもよい。つまり、図6及び図7のフローチャートに示したステップS301-S304の処理手順を既存の画像診断装置で実施し、ステップS305-S315、及び図8のフローチャートの処理を、該処理装置に接続される画像処理装置3で実行し、表示装置4に表示させてもよい。 In this embodiment, the image processing device 3 connected to the catheter 1 generates a tomographic image I1 in almost real time based on a signal from the imaging device 11, judges whether the image shows a side branch, and displays data showing anatomical features on the display device 4. However, each process including the above-described judgment by the image processing device 3 of whether the image shows a side branch may be performed after the fact on the generated tomographic image I1. In other words, the image processing device 3 is not necessarily directly connected to the imaging device 11 of the catheter 1. The image processing device 3 may be a device capable of reading a storage device that stores a signal from the imaging device 11 via a network, such as a server device. In other words, the processing procedure of steps S301-S304 shown in the flowcharts of Figures 6 and 7 may be performed by an existing image diagnostic device, and the processing of steps S305-S315 and the flowchart of Figure 8 may be executed by the image processing device 3 connected to the processing device, and displayed on the display device 4.

本実施形態では、医用画像を冠動脈に対するIVUSで得られた画像を例に説明した。しかしながら、適用対象はこれに限らず、OCT/OFDI等であってもよいし、管腔器官は血管に限らない。 In this embodiment, the medical images are described using images obtained by IVUS of the coronary arteries as an example. However, the subject of application is not limited to this, and may be OCT/OFDI, etc., and the luminal organ is not limited to blood vessels.

上述のように開示された実施形態は全ての点で例示であって、制限的なものではない。本発明の範囲は、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれる。 The embodiments disclosed above are illustrative in all respects and are not limiting. The scope of the present invention is defined by the claims, and includes all modifications within the meaning and scope of the claims.

1 カテーテル
11 イメージングデバイス
3 画像処理装置(情報処理装置)
30 処理部
31 記憶部
3P コンピュータプログラム
3M 学習済みモデル
4 表示装置
400 画面
401 第1ボタン
402 第2ボタン
I1,I4 断層画像
I2 長軸画像
I3 模式縦断面画像
I5 三次元画像
1 Catheter 11 Imaging device 3 Image processing device (information processing device)
30 Processing unit 31 Memory unit 3P Computer program 3M Trained model 4 Display device 400 Screen 401 First button 402 Second button I1, I4 Tomographic image I2 Long-axis image I3 Schematic longitudinal section image I5 Three-dimensional image

Claims (5)

分岐部を有する管腔器官の第1の管に挿入されるカテーテルに備えられたイメージングデバイスによって検出される信号に基づき生成された前記管腔器官の複数の断層画像を取得するコンピュータに、
前記複数の断層画像に対し、前記第1の管から分岐する第2の管の存否の判断、及び前記第2の管の角度算出を含む検出処理を実行し、
前記検出処理により前記第2の管が写る画像と判断された断層画像の前記管腔器官の長軸方向における位置と、前記検出処理にて算出された前記断層画像における前記第2の管の角度とを含む分布情報に基づき、ノイズ除去処理を行なう
処理を実行させるコンピュータプログラム。
a computer that acquires a plurality of tomographic images of a hollow organ based on a signal detected by an imaging device provided in a catheter that is inserted into a first tube of the hollow organ having a branch,
performing a detection process for the plurality of tomographic images, the detection process including determining whether or not a second pipe branching from the first pipe exists and calculating an angle of the second pipe;
A computer program that executes a process of performing a noise removal process based on distribution information including the position in the longitudinal axis direction of the tubular organ of a tomographic image that has been determined by the detection process to be an image in which the second tube is captured, and the angle of the second tube in the tomographic image calculated by the detection process.
前記ノイズ除去処理は、
前記第2の管が写ると判断された対象の断層画像の前記管腔器官の長軸方向における位置から所定範囲内に、前記第2の管が写ると判断される他の断層画像が1又は複数あるか否かを判断し、
前記他の断層画像がないと判断された場合、前記対象の断層画像に対応する前記検出処理の結果をノイズとして除去する
処理を含む請求項1に記載のコンピュータプログラム。
The noise removal process includes:
determining whether or not there is one or more other tomographic images in which the second vessel is determined to be present within a predetermined range from a position in the longitudinal direction of the hollow organ of the tomographic image of the object in which the second vessel is determined to be present;
The computer program according to claim 1 , further comprising a process of removing a result of the detection process corresponding to the target tomographic image as noise when it is determined that there is no other tomographic image.
前記ノイズ除去処理は、
前記分布情報に対するクラスタリング処理を実行し、
クラスタに属しない位置、又は角度に対応する前記検出処理の結果をノイズとして除去する
処理を含む請求項1に記載のコンピュータプログラム。
The noise removal process includes:
Executing a clustering process on the distribution information;
The computer program product according to claim 1 , further comprising a process of removing, as noise, a result of the detection process that corresponds to a position or angle that does not belong to a cluster.
分岐部を有する管腔器官の第1の管に挿入されるカテーテルに備えられたイメージングデバイスによって検出される信号に基づき生成された前記管腔器官の複数の断層画像を取得するコンピュータが、
前記複数の断層画像に対し、前記第1の管から分岐する第2の管の存否の判断、及び前記第2の管の角度算出を含む検出処理を実行し、
前記検出処理により前記第2の管が写る画像と判断された断層画像の前記管腔器官の長軸方向における位置と、前記検出処理にて算出された前記断層画像における前記第2の管の角度とを含む分布情報に基づき、ノイズ除去処理を行なう
情報処理方法。
a computer that acquires a plurality of tomographic images of a tubular organ based on a signal detected by an imaging device provided in a catheter that is inserted into a first tube of the tubular organ having a branch,
performing a detection process for the plurality of tomographic images, the detection process including determining whether or not a second pipe branching from the first pipe exists and calculating an angle of the second pipe;
An information processing method comprising: performing a noise removal process based on distribution information including the position in the longitudinal direction of the tubular organ of a tomographic image that has been determined by the detection process to be an image in which the second tube is captured; and the angle of the second tube in the tomographic image calculated by the detection process.
分岐部を有する管腔器官の第1の管に挿入されるカテーテルに備えられたイメージングデバイスによって検出される信号に基づき生成された前記管腔器官の複数の断層画像を取得する情報処理装置において、
前記複数の断層画像に対する画像処理を実行する処理部を備え、
前記処理部は、
前記複数の断層画像に対し、前記第1の管から分岐する第2の管の存否の判断、及び前記第2の管の角度算出を含む検出処理を実行し、
前記検出処理により前記第2の管が写る画像と判断された断層画像の前記管腔器官の長軸方向における位置と、前記検出処理にて算出された前記断層画像における前記第2の管の角度とを含む分布情報に基づき、ノイズ除去処理を行なう
情報処理装置。
1. An information processing device for acquiring a plurality of tomographic images of a tubular organ having a branch, the tomographic images being generated based on signals detected by an imaging device provided in a catheter inserted into a first tube of the tubular organ, the information processing device comprising:
a processing unit that performs image processing on the plurality of tomographic images,
The processing unit includes:
performing a detection process for the plurality of tomographic images, the detection process including determining whether or not a second pipe branching from the first pipe exists and calculating an angle of the second pipe;
An information processing device that performs noise removal processing based on distribution information including the position in the longitudinal axis direction of the tubular organ of a tomographic image that has been determined by the detection processing to be an image in which the second tube is captured, and the angle of the second tube in the tomographic image calculated by the detection processing.
JP2025071429A 2021-09-30 2025-04-23 COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS Pending JP2025100867A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2025071429A JP2025100867A (en) 2021-09-30 2025-04-23 COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021161695A JP7672942B2 (en) 2021-09-30 2021-09-30 COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
JP2025071429A JP2025100867A (en) 2021-09-30 2025-04-23 COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021161695A Division JP7672942B2 (en) 2021-09-30 2021-09-30 COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS

Publications (1)

Publication Number Publication Date
JP2025100867A true JP2025100867A (en) 2025-07-03

Family

ID=85805490

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021161695A Active JP7672942B2 (en) 2021-09-30 2021-09-30 COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
JP2025071429A Pending JP2025100867A (en) 2021-09-30 2025-04-23 COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021161695A Active JP7672942B2 (en) 2021-09-30 2021-09-30 COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS

Country Status (1)

Country Link
JP (2) JP7672942B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025070549A1 (en) * 2023-09-27 2025-04-03 テルモ株式会社 Image diagnostic device, catheter image display method, and computer program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012075702A (en) * 2010-10-01 2012-04-19 Fujifilm Corp Apparatus, method, and program for reconstructing intra-tubular-structure image
JP2013543786A (en) * 2010-11-24 2013-12-09 ボストン サイエンティフィック サイムド,インコーポレイテッド System and method for detecting and displaying body lumen bifurcation
JP2015173820A (en) * 2014-03-14 2015-10-05 テルモ株式会社 Image processing device, image processing method, and program
JP2016064073A (en) * 2014-09-25 2016-04-28 テルモ株式会社 Image processing apparatus, image processing apparatus control method, program, and storage medium
JP2018530395A (en) * 2015-10-13 2018-10-18 ライトラボ・イメージング・インコーポレーテッド Intravascular imaging system and method for determining side branch cut plane view angle
JP2019513453A (en) * 2016-04-14 2019-05-30 ライトラボ・イメージング・インコーポレーテッド Identification of blood vessel branches

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9549707B2 (en) * 2011-11-01 2017-01-24 Siemens Medical Solutions Usa, Inc. System for orientation and display of ultrasound imaging data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012075702A (en) * 2010-10-01 2012-04-19 Fujifilm Corp Apparatus, method, and program for reconstructing intra-tubular-structure image
JP2013543786A (en) * 2010-11-24 2013-12-09 ボストン サイエンティフィック サイムド,インコーポレイテッド System and method for detecting and displaying body lumen bifurcation
JP2015173820A (en) * 2014-03-14 2015-10-05 テルモ株式会社 Image processing device, image processing method, and program
JP2016064073A (en) * 2014-09-25 2016-04-28 テルモ株式会社 Image processing apparatus, image processing apparatus control method, program, and storage medium
JP2018530395A (en) * 2015-10-13 2018-10-18 ライトラボ・イメージング・インコーポレーテッド Intravascular imaging system and method for determining side branch cut plane view angle
JP2019513453A (en) * 2016-04-14 2019-05-30 ライトラボ・イメージング・インコーポレーテッド Identification of blood vessel branches

Also Published As

Publication number Publication date
JP7672942B2 (en) 2025-05-08
JP2023051175A (en) 2023-04-11

Similar Documents

Publication Publication Date Title
US20250185920A1 (en) System and method for instant and automatic border detection
JP2024516973A (en) Identifying blood vessels in ultrasound images
US8805043B1 (en) System and method for creating and using intelligent databases for assisting in intima-media thickness (IMT)
JP7574279B2 (en) COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING APPARATUS AND MODEL GENERATION METHOD
US9357981B2 (en) Ultrasound diagnostic device for extracting organ contour in target ultrasound image based on manually corrected contour image in manual correction target ultrasound image, and method for same
JP7489882B2 (en) Computer program, image processing method and image processing device
JP7803869B2 (en) Program, information processing device and information processing method
US12530793B2 (en) Computer program, information processing method, and information processing device
WO2022071264A1 (en) Program, model generation method, information processing device, and information processing method
JP2026012527A (en) Computer program, information processing method, and information processing device
US20240242351A1 (en) Medical image processing apparatus, method, and medium
JP2025100867A (en) COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
WO2024071251A1 (en) Computer program, information processing method, information processing device, and learning model
US12518382B2 (en) Medical system, method for processing medical image, and medical image processing apparatus
JP7686525B2 (en) COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
JP7803928B2 (en) Program, image processing method and image processing device
US20250221625A1 (en) Image diagnostic system, image diagnostic method, and storage medium
JP7686523B2 (en) COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
JP7680325B2 (en) COMPUTER PROGRAM, INFORMATION PROCESSING APPARATUS, AND INFORMATION PROCESSING METHOD
JP2024050056A (en) Computer program, learning model, information processing method, and information processing device
JP7813276B2 (en) Computer program, information processing method, and information processing device
CN113645907A (en) Diagnostic support device, diagnostic support system, and diagnostic support method
US20250248664A1 (en) Image diagnostic system and method
WO2025205753A1 (en) Information processing method, information processing device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20260106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20260305