[go: up one dir, main page]

WO2025141689A1 - Image classification device for endoscope, image classification method, image classification program, and search method - Google Patents

Image classification device for endoscope, image classification method, image classification program, and search method Download PDF

Info

Publication number
WO2025141689A1
WO2025141689A1 PCT/JP2023/046630 JP2023046630W WO2025141689A1 WO 2025141689 A1 WO2025141689 A1 WO 2025141689A1 JP 2023046630 W JP2023046630 W JP 2023046630W WO 2025141689 A1 WO2025141689 A1 WO 2025141689A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
endoscope
image classification
classification device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/JP2023/046630
Other languages
French (fr)
Japanese (ja)
Inventor
浩一 新谷
学 市川
純一 市川
浩 池田
亮 猪股
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to PCT/JP2023/046630 priority Critical patent/WO2025141689A1/en
Publication of WO2025141689A1 publication Critical patent/WO2025141689A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof

Definitions

  • the present invention relates to an endoscopic image classification device, an image classification method, an image classification program, and a search method that classify and organize images obtained during the process from the insertion to the removal of an endoscope for use in examinations, diagnoses, etc.
  • An endoscope is a device that is inserted inside the body and allows observation of diseased areas that cannot be seen from the outside.
  • An endoscope has an insertion part that is inserted into a body cavity, and an imaging device is provided, for example, at the tip of the insertion part.
  • a doctor sequentially displays images acquired by imaging the tip of the insertion part, and adjusts the position of the tip of the insertion part while checking the displayed images, thereby diagnosing the state of health or disease.
  • the imaging device continues to capture images throughout the entire process from insertion to removal of the insertion part, and in endoscopic examinations, in addition to images used for diagnosis, a huge amount of information is also obtained, including images of each part (organ) of the human body that passes through.
  • Patent Document 1 A technology for managing acquired image information is proposed in Japanese Patent Application Laid-Open Publication No. 2002-253539 (hereinafter referred to as Patent Document 1). This proposal discloses a technology for identifying medical images and adding the imaging attribute information of the most matching category as management information.
  • Patent Document 1 is a technology that automatically adds imaging attribute information, such as imaging device, imaging part, and imaging direction, to a medical image as management information.
  • the device of Patent Document 1 makes it easy to distinguish which part was imaged from which direction by which device, such as an X-ray device or an MRI device, for example, whether the head or chest was imaged.
  • the technology of Patent Document 1 makes it possible to determine which part an image is from, making it easy to search for past cases of a specific subject.
  • the acquired management information is effective for diagnosing the subject himself, a complicated search operation is required to use the information as reference information for diagnosing others.
  • the present invention aims to provide an endoscopic image classification device, image classification method, image classification program, and search method that can accumulate medical information obtained during the process from insertion to removal of an endoscope and classify each part based on images of the parts according to their characteristics, thereby obtaining information that is extremely useful for diagnosis and treatment.
  • An endoscopic image classification device includes a part determination unit that determines anatomical parts of the human body according to captured images obtained sequentially during the process of inserting an endoscope into or removing it from the body, a feature determination unit that determines part-specific features that are characteristics of the determined part for one or more determination items to obtain part-specific feature information, and an association unit that records the part-specific feature information for each part in association with the captured image.
  • An image classification method determines anatomical parts of the human body according to captured images etc. obtained sequentially during the process of inserting an endoscope into or removing it from the body, determines part-specific features that are characteristics of the determined parts for one or more determination items to obtain part-specific feature information, and records the part-specific feature information for each part in association with the captured image.
  • An image classification program causes a computer to execute the following steps: determine anatomical parts of the human body according to captured images, etc., obtained sequentially during the process of inserting an endoscope into or removing it from the body; determine part-specific features, which are characteristics of the determined parts, for one or more determination items to obtain part-specific feature information; and record the part-specific feature information for each part in association with the captured image.
  • An image classification method determines a number of anatomical parts of the human body according to captured images obtained sequentially during the process of inserting an endoscope into or removing it from the body, and in order to obtain regional features that are characteristic of each of the multiple parts, a database is referenced that organizes determination items that indicate the features to be obtained for each of the multiple parts, and the regional features are determined for each of the determined parts, and regional feature information is obtained based on the regional features so that the determined regional features can be recorded in association with the captured images.
  • the search method searches for an endoscopic image acquired in a second case using part-specific characteristic information that indicates the characteristics of each anatomical part through which an endoscope passes during insertion into or removal from the body in a first case.
  • the present invention has the effect of accumulating medical information acquired during the process from the insertion to the removal of the endoscope, and classifying the information according to the characteristics of each part based on the images of each part, thereby obtaining information that is extremely useful for diagnosis and treatment.
  • FIG. 1 is a block diagram showing an endoscopic image classification device according to an embodiment of the present invention.
  • Video obtained by endoscopic examination includes images of various parts from outside the body to various organs such as the throat, esophagus, stomach, and duodenum, and is extremely rich information, but is not fully utilized.
  • each part is classified by a plurality of features based on the image of each part, the classification results are accumulated, and the accumulated classification results are made available as information useful for diagnosis. For example, by classifying the digestive system by features and accumulating the classification results, it is possible to determine the characteristics of the digestive system of a person who is prone to digestive diseases, which can be useful for diagnosis and prevention.
  • the endoscopic classification device 10 is described here as a special device that classifies images obtained from many endoscopes, but it may also be directly connected to an endoscope to classify the results of an endoscopic examination in real time, or it may work in conjunction with a display control unit 16 to provide a guide that applies its functions during an endoscopic examination.
  • a variety of well-known networks may be used as the network N1 used for machine learning.
  • R-CNN Regions with CNN features
  • FCN Full Convolutional Networks
  • CNN Convolution Neural Network
  • a "recurrent neural network” (fully connected recurrent neural network) that can handle more complex information and allows information analysis whose meaning changes depending on the order or sequence, and in which information flows in both directions, may be used.
  • the "presence or absence of an affected area” judgment item is based on size, location, number, color, etc.
  • Passing time “number of frames acquired,” “number of times the lumen was lost,” and “number of times the insertion/removal direction was redone” indicate the state of the endoscope insertion part when it was inserted or removed, and respectively indicate the time required to pass the area, the number of frames acquired at the area, the number of times the lumen (deep area) was lost when imaging the area, and the number of times the insertion part was inserted and removed when imaging the area.
  • “Color characteristics” indicate the characteristics of the color and color change of the area
  • deformation during air supply indicates the characteristics of the state in which the shape of the area changes due to air supply to the area.
  • Active treatment refers to active action on the object that differs from normal observation (water supply, air supply, irradiation with special light (and image judgment at that time), dyeing (and image judgment at that time), action by treatment tool, etc.) in addition to normal screening and diagnostic observation.
  • the judgment item DB 40 may record information on the active operation recommended for each of the above anatomical parts, and display a guide to the endoscope operator according to that information in accordance with the display device that displays the endoscopic image.
  • the display control unit 16 is provided with such a composite display function.
  • the part feature judgment unit 13 judges the part feature, which is a feature of the part judged by the part judgment unit 12, for one or more judgment items. That is, the part feature judgment unit 13 as a feature judgment unit judges the part feature for various judgment items for each part to obtain part feature information.
  • the part feature judgment unit 13 may obtain part feature information that classifies and shows the judgment results of the part feature in text format or table format. For example, the part feature judgment unit 13 may judge each judgment item by image analysis or AI processing of the input image.
  • the part feature judgment unit 13 may judge the part feature based on the image change of each frame of the image obtained sequentially. As shown in FIG. 4, there are cases where judgment items common to all parts are set, but the judgment items may be different for each part.
  • the active operation determination unit 14 obtains active operation information by determining signals based on active operation by the surgeon when inserting the endoscope into the body. Possible active operations include, for example, taking still images by operating the operation unit of the endoscope, and operating devices for supplying air or water into the body.
  • the active operation determination unit 14 obtains active operation information as a determination result of active operation by receiving operation signals based on operations on these devices. Note that the active operation determination unit 14 may obtain a determination result of active operation by image analysis of the input image. It may also be possible to determine from the change in the image over time that water has been supplied (e.g., an image of water splashing is obtained and then subsides) or air has been supplied (e.g., tissue swells and returns to normal).
  • the association unit 15 records the part-specific features for each part in association with the input image. That is, the association unit 15 associates each of the judgment results of the part determination unit 12, the part-specific feature determination unit 13, and the active operation determination unit 14 with the input image.
  • the association unit 15 controls the recording control unit 18 to record the associated results in the recording device 30.
  • the association unit 15 may record each of these judgment results in association as metadata of a still image or video file.
  • part information indicating which part was captured, part-specific feature information for that part in, for example, a table format or text format, and active operation information performed at the timing of shooting that frame are associated and recorded in a still image file or in image information of each frame of a video file.
  • the associated information associated with the input image is also associated and recorded as metadata in the image file as it is.
  • information on the inference model used for the judgment may also be associated and recorded in association with the image.
  • the search unit 17 displays a still image of the part displayed at the time of the stop operation (S44). Also, if in S43 the user inputs a part such as the stomach or large intestine using an input device (not shown) (YES in S43), a still image of the part specified by this input is displayed (S44).
  • the search unit 17 determines whether or not an operation has been performed to check similar cases. If no such checking operation has been performed (NO in S45), the process proceeds to S51, and if a checking operation has been performed, the process proceeds to S48.
  • the search unit 17 searches for the progress information and displays the searched information (see image Pe3 in Figure 1).
  • each body part is classified according to its body part features based on the image of each body part, and the classification results are accumulated.
  • searching for images based on the body part features it becomes easy to search for images with similar body part features. This makes it easier to extract not only one's own examination images with similar body part features, but also other people's examination images similar to one's own examination images, which can be useful for diagnosis and prevention.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

This image classification device for an endoscope comprises: a site determination unit that determines anatomical sites in a human body in accordance with captured images sequentially obtained in a process of inserting or extracting the endoscope into or from the body; a feature determination unit that determines, regarding at least one determination item, site distinctive features which are features of the determined sites, and obtains site distinctive feature information; and an association unit that records, in a manner associated with the captured images, the site distinctive feature information for the respective sites.

Description

内視鏡用画像分類装置、画像分類方法、画像分類プログラム及び検索方法Endoscopic image classification device, image classification method, image classification program, and search method

 本発明は、検査・診断等の利用のために内視鏡挿入から抜去までの過程で得られる画像を分類整理する内視鏡用画像分類装置、画像分類方法、画像分類プログラム及び検索方法に関する。 The present invention relates to an endoscopic image classification device, an image classification method, an image classification program, and a search method that classify and organize images obtained during the process from the insertion to the removal of an endoscope for use in examinations, diagnoses, etc.

 内視鏡は、体内等に挿入して、外部からは見ることができない患部等の観察を可能にするデバイスである。内視鏡は体腔内に挿入される挿入部を有し、挿入部の例えば先端に撮像装置が設けられる。内視鏡を用いた検査では、医師は、挿入部先端の撮像によって取得された画像を順次表示し、表示された画像を確認しながら挿入部先端の位置を調整し、健康状態や疾患の状態を診断する。 An endoscope is a device that is inserted inside the body and allows observation of diseased areas that cannot be seen from the outside. An endoscope has an insertion part that is inserted into a body cavity, and an imaging device is provided, for example, at the tip of the insertion part. In an examination using an endoscope, a doctor sequentially displays images acquired by imaging the tip of the insertion part, and adjusts the position of the tip of the insertion part while checking the displayed images, thereby diagnosing the state of health or disease.

 このような挿入部の挿入から抜去までの過程において撮像装置は撮像を続けており、内視鏡検査では、診断等に用いる画像以外にも、通過した人体の各部(臓器)の膨大な画像などの情報が取得される。 The imaging device continues to capture images throughout the entire process from insertion to removal of the insertion part, and in endoscopic examinations, in addition to images used for diagnosis, a huge amount of information is also obtained, including images of each part (organ) of the human body that passes through.

 取得された画像情報を管理する技術として日本国特開2002-253539号公報(以下、特許文献1という)の提案がある。この提案では、医療画像を識別して最も一致するカテゴリの撮像属性情報を管理情報として付加する技術が開示されている。 A technology for managing acquired image information is proposed in Japanese Patent Application Laid-Open Publication No. 2002-253539 (hereinafter referred to as Patent Document 1). This proposal discloses a technology for identifying medical images and adding the imaging attribute information of the most matching category as management information.

特開2002-253539号公報JP 2002-253539 A

 特許文献1の提案は、撮像装置,撮像部位,撮像方向の撮像属性情報を自動的に管理情報として医用画像に付加する技術である。特許文献1の装置によって、例えばX線装置やMRI装置等のうちのどのような装置によってどの方向からどの部位を撮像したか、例えば、頭部を撮像したか胸部を撮像したか等の区別が容易となる。特許文献1の技術により、画像がいずれの部位のものかを判別することが可能であり、特定の被検者の過去の症例の検索が容易となる。
 しかしながら、特許文献1の提案では、取得した管理情報は、被検者本人の診断には有効であるが、他人の診断のための参考情報等に用いるためには煩雑な検索作業が必要となる。
 本発明は、内視鏡の挿入から抜去までの過程において取得した医療情報を蓄積し、各部位の画像に基づいてそれぞれの部位の特徴に応じた分類を行うことで、診断や処置に極めて有用な情報を得ることができる内視鏡用画像分類装置、画像分類方法、画像分類プログラム及び検索方法を提供することを目的とする。
The proposal of Patent Document 1 is a technology that automatically adds imaging attribute information, such as imaging device, imaging part, and imaging direction, to a medical image as management information. The device of Patent Document 1 makes it easy to distinguish which part was imaged from which direction by which device, such as an X-ray device or an MRI device, for example, whether the head or chest was imaged. The technology of Patent Document 1 makes it possible to determine which part an image is from, making it easy to search for past cases of a specific subject.
However, in the proposal of Patent Document 1, although the acquired management information is effective for diagnosing the subject himself, a complicated search operation is required to use the information as reference information for diagnosing others.
The present invention aims to provide an endoscopic image classification device, image classification method, image classification program, and search method that can accumulate medical information obtained during the process from insertion to removal of an endoscope and classify each part based on images of the parts according to their characteristics, thereby obtaining information that is extremely useful for diagnosis and treatment.

 本発明の一態様による内視鏡用画像分類装置は、内視鏡の体内への挿入又は体内からの抜去過程で順次得られた撮像画像に従って、人体における解剖学的な部位を判定する部位判定部と、上記判定された部位の特徴である部位別特徴を1つ以上の判定項目について判定して部位別特徴情報を得る特徴判定部と、上記部位毎の上記部位別特徴情報を上記撮像画像に関連付けて記録する関連付け部と、を具備する。 An endoscopic image classification device according to one aspect of the present invention includes a part determination unit that determines anatomical parts of the human body according to captured images obtained sequentially during the process of inserting an endoscope into or removing it from the body, a feature determination unit that determines part-specific features that are characteristics of the determined part for one or more determination items to obtain part-specific feature information, and an association unit that records the part-specific feature information for each part in association with the captured image.

 本発明の一態様による画像分類方法は、内視鏡の体内への挿入又は体内からの抜去過程で順次得られた撮像画像等に従って、人体における解剖学的な部位を判定し、上記判定された部位の特徴である部位別特徴を1つ以上の判定項目について判定して部位別特徴情報を得、上記部位毎の上記部位別特徴情報を上記撮像画像に関連付けて記録する。 An image classification method according to one aspect of the present invention determines anatomical parts of the human body according to captured images etc. obtained sequentially during the process of inserting an endoscope into or removing it from the body, determines part-specific features that are characteristics of the determined parts for one or more determination items to obtain part-specific feature information, and records the part-specific feature information for each part in association with the captured image.

 本発明の一態様による画像分類プログラムは、コンピュータに、内視鏡の体内への挿入又は体内からの抜去過程で順次得られた撮像画像等に従って、人体における解剖学的な部位を判定し、上記判定された部位の特徴である部位別特徴を1つ以上の判定項目について判定して部位別特徴情報を得、上記部位毎の上記部位別特徴情報を上記撮像画像に関連付けて記録する、手順を実行させる。 An image classification program according to one aspect of the present invention causes a computer to execute the following steps: determine anatomical parts of the human body according to captured images, etc., obtained sequentially during the process of inserting an endoscope into or removing it from the body; determine part-specific features, which are characteristics of the determined parts, for one or more determination items to obtain part-specific feature information; and record the part-specific feature information for each part in association with the captured image.

 本発明の他の態様による画像分類方法は、内視鏡の体内への挿入又は体内からの抜去過程で順次得られた撮像画像に従って、人体における解剖学的な部位を複数判定し、上記複数の部位毎に部位の特徴である部位別特徴を求めるために、上記部位毎に得るべき特徴を示す判定項目を整理したデータベースを参照し、上記判定されたそれぞれの部位について上記部位別特徴を判定し、判定した部位別特徴を上記撮像画像に関連付けて記録できるように、上記部位別特徴に基づく部位別特徴情報を得る。 An image classification method according to another aspect of the present invention determines a number of anatomical parts of the human body according to captured images obtained sequentially during the process of inserting an endoscope into or removing it from the body, and in order to obtain regional features that are characteristic of each of the multiple parts, a database is referenced that organizes determination items that indicate the features to be obtained for each of the multiple parts, and the regional features are determined for each of the determined parts, and regional feature information is obtained based on the regional features so that the determined regional features can be recorded in association with the captured images.

 本発明の一態様による検索方法は、第1の症例において内視鏡の体内への挿入又は体内からの抜去過程で上記内視鏡が通過する解剖学的な部位毎の特徴を示す部位別特徴情報を用いて、第2の症例において取得された内視鏡画像を検索する。 The search method according to one aspect of the present invention searches for an endoscopic image acquired in a second case using part-specific characteristic information that indicates the characteristics of each anatomical part through which an endoscope passes during insertion into or removal from the body in a first case.

 本発明によれば、内視鏡の挿入から抜去までの過程において取得した医療情報を蓄積し、各部位の画像等に基づいてそれぞれの部位の特徴に応じた分類を行うことで、診断や処置に極めて有用な情報を得ることができるという効果を有する。 The present invention has the effect of accumulating medical information acquired during the process from the insertion to the removal of the endoscope, and classifying the information according to the characteristics of each part based on the images of each part, thereby obtaining information that is extremely useful for diagnosis and treatment.

本発明の一実施形態に係る内視鏡用画像分類装置を示すブロック図である。1 is a block diagram showing an endoscopic image classification device according to an embodiment of the present invention. 入力画像の一例を示す説明図である。FIG. 2 is an explanatory diagram showing an example of an input image. 部位判定を可能にする推論モデルを説明するための説明図である。FIG. 11 is an explanatory diagram for explaining an inference model that enables part determination. 各部位と各判定項目との対応を表形式でまとめた例を示す説明図である。FIG. 13 is an explanatory diagram showing an example in which the correspondence between each part and each determination item is summarized in a table format. 図5は大腸の形状の例を示す説明図である。FIG. 5 is an explanatory diagram showing an example of the shape of the large intestine. 実施形態の動作を説明するためのフローチャートである。4 is a flowchart for explaining the operation of the embodiment. 実施形態の動作を説明するためのフローチャートである。4 is a flowchart for explaining the operation of the embodiment. 内視鏡検査の一例を説明するための説明図である。FIG. 1 is an explanatory diagram for explaining an example of an endoscopic examination. 図8の例において取得される画像を説明するための説明図である。FIG. 9 is an explanatory diagram for explaining an image acquired in the example of FIG. 8 . 実施形態の動作を説明するためのフローチャートである。4 is a flowchart for explaining the operation of the embodiment.

 以下、図面を参照して本発明の実施の形態について詳細に説明する。 Below, an embodiment of the present invention will be described in detail with reference to the drawings.

(実施形態)
 図1は本発明の一実施形態に係る内視鏡用画像分類装置を示すブロック図である。内視鏡検査によって得られる動画は、体外から例えば喉、食道、胃、十二指腸等の各種臓器に至る様々な部位の画像を含んでおり、極めてリッチな情報であるが、十分には活用されていない。本実施形態においては、各部位の画像に基づいてそれぞれの部位を複数の特徴によって分類し分類結果を蓄積し、蓄積した分類結果を診断に役立てる情報として利用可能にするものである。例えば、消化器について特徴ごとに分類し、分類結果を蓄積することで、消化器の疾患に罹患しやすい人の消化器の特徴を判定することができ、診断や予防に役立てることができる。
(Embodiment)
FIG. 1 is a block diagram showing an endoscopic image classification device according to an embodiment of the present invention. Video obtained by endoscopic examination includes images of various parts from outside the body to various organs such as the throat, esophagus, stomach, and duodenum, and is extremely rich information, but is not fully utilized. In this embodiment, each part is classified by a plurality of features based on the image of each part, the classification results are accumulated, and the accumulated classification results are made available as information useful for diagnosis. For example, by classifying the digestive system by features and accumulating the classification results, it is possible to determine the characteristics of the digestive system of a person who is prone to digestive diseases, which can be useful for diagnosis and prevention.

 なお、部位とは、特定の解剖学的特徴を識別できる解剖学的な部位のことである。部位の単位は、特定の機能を持った臓器といった単位でもよい。なお、大腸や胃のように大きな容積の臓器は医学的にはさらに細分化された名称(胃であれば、噴門、穹窿部、胃体部、前庭部、幽門等。大腸であれば上行結腸、横行結腸、下行結腸、S状結腸、直腸等。)が存在する。そのため、細分化された一部を部位としてもよいし、医学的に細分化された方法とは異なる方法で臓器を細分化したものを部位としてもよい。 A part is an anatomical part that can identify a specific anatomical feature. The unit of a part may be an organ with a specific function. Large organs such as the large intestine and stomach have further medically subdivided names (for the stomach, cardia, fundus, body, antrum, pylorus, etc.; for the large intestine, ascending colon, transverse colon, descending colon, sigmoid colon, rectum, etc.). Therefore, a part of the subdivided parts may be used as a part, or an organ may be subdivided in a way that is different from the medical method of subdivision.

 図1において、内視鏡用画像分類装置10には図示しない内視鏡等によって取得された内視鏡画像等の医療画像が入力される。内視鏡は、体腔内に挿入される挿入部を有し、挿入部の先端に撮像装置が設けられる。この撮像装置は、例えば、CCDやCMOSセンサ等の撮像素子を含み、被写体からの光学像を光電変換して撮像信号を得る。この撮像信号が図示しないビデオプロセッサに供給されて信号処理された後、内視鏡用画像分類装置10に供給される場合もある。また、内視鏡の管に沿った内部に処置具などの器具を通すチャネル(体腔内と体外を継ぐ連絡路)が設けられており、それを通して超音波センサなども利用でき、内視鏡先端部に各種センサや発信機を併設させることも可能で、こうしたセンサ類、あるいは他の機器と連携して、内視鏡の体内挿入に従って画像以外の情報を取得することも可能である。連携機器は院内システムなどでもよく、内視鏡検査中の医師の声やコメントや端末操作も利用が可能な場合がある。有用な情報は内視鏡の動画情報が時間に沿った経時的情報であるので、動画のタイミングに対応させて利用できるようにすればよい。これらを図1の「付随情報」として、画像と関連付けて記録してもよい。
 内視鏡分類装置10はここでは、多くの内視鏡から得られた画像を分類する特別な装置のように記載しているが、内視鏡を直接接続して、内視鏡検査の結果をリアルタイムで分類してもよく、表示制御部16と連携し、内視鏡検査時にその機能を応用したガイドを出すようにしてもよい。
In FIG. 1, medical images such as endoscopic images acquired by an endoscope (not shown) are input to the endoscopic image classification device 10. The endoscope has an insertion section that is inserted into a body cavity, and an imaging device is provided at the tip of the insertion section. The imaging device includes an imaging element such as a CCD or CMOS sensor, and photoelectrically converts an optical image from a subject to obtain an imaging signal. This imaging signal may be supplied to a video processor (not shown) for signal processing, and then supplied to the endoscopic image classification device 10. In addition, a channel (a connection path connecting the inside of the body cavity and the outside of the body) for passing instruments such as treatment tools is provided inside the tube of the endoscope, and ultrasonic sensors can be used through it, and various sensors and transmitters can also be provided at the tip of the endoscope, and it is possible to obtain information other than images as the endoscope is inserted into the body in cooperation with such sensors or other devices. The linked device may be an in-hospital system, and in some cases, the doctor's voice, comments, and terminal operations during the endoscopic examination may be available. Since the video information of the endoscope is time-series information, it is sufficient to make it available in accordance with the timing of the video. These may be recorded in association with the image as "accompanying information" in FIG.
The endoscopic classification device 10 is described here as a special device that classifies images obtained from many endoscopes, but it may also be directly connected to an endoscope to classify the results of an endoscopic examination in real time, or it may work in conjunction with a display control unit 16 to provide a guide that applies its functions during an endoscopic examination.

 内視鏡用画像分類装置10に入力される医療画像は、内視鏡検査等によって取得された体内の画像である。この入力画像、例えば内視鏡画像は、ビデオプロセッサから直接供給されるものであってもよく、また、記録装置に記録された画像が読み出されて供給されるものであってもよい。図1では、内視鏡用画像分類装置10に入力される画像(入力画像)として、動画の例を示しているが、連続的に取得される一連の画像だけでなく、必要に応じて医療従事者の操作や特定の条件で静止画が取得され、入力されてもよい。 The medical images input to the endoscopic image classification device 10 are images of the inside of the body acquired by endoscopic examination or the like. These input images, for example endoscopic images, may be supplied directly from a video processor, or may be images that have been recorded in a recording device and then read out and supplied. In FIG. 1, an example of a video is shown as the image (input image) input to the endoscopic image classification device 10, but in addition to a series of continuously acquired images, still images may also be acquired and input as necessary in response to the operation of a medical professional or under specific conditions.

 図2は入力画像の一例を示す説明図である。図2は四角の枠によって、連続的に取得される一連の画像Peの各コマf1~f6を示している。コマf4は楕円で示す病変部の画像部分を含む。通常の内視鏡検査では、当該コマf4の画像が診断等に利用され、その他のコマf1~f3,f5,f6は内視鏡の挿入のため以外には使用されないことが一般的である。 Figure 2 is an explanatory diagram showing an example of an input image. In Figure 2, frames f1 to f6 of a series of images Pe that are acquired successively are shown in square frames. Frame f4 contains an image portion of the diseased area, shown by an oval. In normal endoscopic examinations, the image of frame f4 is used for diagnosis, etc., and the other frames f1 to f3, f5, and f6 are generally not used for purposes other than inserting the endoscope.

 図1では3人の人物A~Cについての動画像を含む多くの画像が入力される例を示している。人物A~Cについて、2020年に取得された画像がそれぞれ入力画像P2020A~P2020Cであり、2021年に取得された画像がそれぞれ入力画像P2021A~P2021Cである。 Figure 1 shows an example in which many images including video images of three persons A to C are input. For persons A to C, the images acquired in 2020 are input images P2020A to P2020C, respectively, and the images acquired in 2021 are input images P2021A to P2021C, respectively.

 なお、入力画像には、動画だけでなく付随情報が付加されていてもよい。付随情報は、操作情報やセンサ情報、内視鏡機器の設定情報、内視鏡検査施行医や介助者の当該内視鏡検査中における行動に関する情報、使用した処置具等の情報、その他診断結果や病理結果、問診結果等を含む。 In addition to video, accompanying information may be added to the input image. The accompanying information includes operation information, sensor information, endoscopic device setting information, information on the behavior of the doctor performing the endoscopic examination and the caregiver during the endoscopic examination, information on the treatment tools used, and other diagnostic results, pathology results, interview results, etc.

 病院や手術検査室情報、その日時、年齢、人種、性別といった患者情報、担当医師や検査などに参加した医療従事者の情報などを含んでもよい。検査時の他の機器の情報なども含んでもよく、例えば、最近では、医師と医療従事者の会話などもマイクなどで収録され記録可能になっているので、そうした情報を画像コマと対応可能なように記録できるようにしてもよい。 It may also include information about the hospital and surgery room, patient information such as the date and time, age, race, and gender, information about the doctor in charge and medical staff who participated in the examination, etc. It may also include information about other equipment used during the examination. For example, recently it has become possible to record conversations between doctors and medical staff using microphones, etc., so it may be possible to record such information so that it can be associated with the image frames.

 これに類するが、上述の各種センサ情報を含んでもよい。例えば、図示しない内視鏡の操作部には各種スイッチが設けられているが、当該スイッチの操作等の操作情報が内視鏡画像の画像データに付随情報として付加されて入力される場合もある。また、送気送水装置の操作に基づく操作情報が付随情報として付加される場合もある。これらが動画コマのどのタイミングのものかを示す情報が入っていれば、これも本願の内視鏡用画像分類に使える。 Similar to this, it may also include the various sensor information mentioned above. For example, various switches are provided on the operation section of the endoscope (not shown), and operation information such as the operation of these switches may be added to the image data of the endoscopic image as accompanying information and input. Also, operation information based on the operation of the air and water supply device may be added as accompanying information. If information indicating which timing of the video frame these are from is included, this can also be used for the endoscopic image classification of the present application.

 また、特殊光観察の場合には、通常画像とは異なる特徴を有するので、特殊光観察画像と通常光観察画像とは、各種判定について別扱いにした方がよい場合がある。そこで、付随情報として、撮像画像の各コマが特殊光観察画像であるか通常光観察画像であるかを区別するための情報を画像情報に付加してもよい。また、付随情報として、内視鏡挿入形状観察装置によって取得した情報を画像情報に付加してもよい。 In addition, since special light observation has different characteristics from normal images, it may be better to treat special light observation images and normal light observation images separately for various judgments. Therefore, information for distinguishing whether each frame of the captured image is a special light observation image or a normal light observation image may be added to the image information as accompanying information. Also, information acquired by the endoscope insertion shape observation device may be added to the image information as accompanying information.

 内視鏡用画像分類装置10は、部位判定部12、部位別特徴判定部13、能動操作判定部14、関連付け部15、表示制御部16、検索部17及び記録制御部18を含む。内視鏡用画像分類装置10の各構成要素は、CPU(Central Processing Unit)やFPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)等を用いたプロセッサによって構成されていてもよく、図示しないメモリに記憶されたプログラムに従って動作して各部を制御するものであってもよいし、ハードウェアの電子回路で機能の一部又は全部を実現するものであってもよい。 The endoscopic image classification device 10 includes a body part determination unit 12, a body part feature determination unit 13, an active operation determination unit 14, an association unit 15, a display control unit 16, a search unit 17, and a recording control unit 18. Each component of the endoscopic image classification device 10 may be configured by a processor using a CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), GPU (Graphics Processing Unit), etc., and may operate according to a program stored in a memory (not shown) to control each unit, or may realize some or all of the functions by a hardware electronic circuit.

 本実施形態においては、内視鏡用画像分類装置10の部位判定部12は、入力画像がいずれの部位を撮像しているものであるかを順次判定する。部位判定部12は、内視鏡の挿入過程や抜去過程、即ち、内視鏡の挿入開始から抜去完了までの間において内視鏡によって順次取得された内視鏡画像から人体の各部位を判定する。部位判定部12は、各部位の解剖学的特徴を各部位の画像から直接識別できるだけでなく、解剖学的特徴が識別された他の各部位の情報から当該各部位の解剖学的特徴を類推できる場合にも、部位を判定できることがある。 In this embodiment, the part determination unit 12 of the endoscopic image classification device 10 sequentially determines which part of the body is imaged by the input image. The part determination unit 12 determines each part of the human body from endoscopic images sequentially acquired by the endoscope during the endoscope insertion and removal process, i.e., from the start of the endoscope's insertion to the completion of its removal. The part determination unit 12 can not only directly identify the anatomical features of each part from the image of each part, but can also determine the part when the anatomical features of each part can be inferred from information on other parts whose anatomical features have been identified.

 例えば、部位判定部12は、部位を内視鏡画像の画像解析や推論処理によって判定する。例えば、部位判定部12は、鼻腔や胃等の特定部位については、画像特徴から管腔の形状を判定することで特定できる。また、例えば、部位判定部12は、曲がりながら挿入部が進行することを画像の特徴変化(画像の履歴)を判別することで、大腸等の特定部位を判定可能であり、下行結腸であるか横行結腸であるか等についても判定可能である。 For example, the part determination unit 12 determines the part by image analysis and inference processing of the endoscopic image. For example, the part determination unit 12 can identify specific parts such as the nasal cavity or stomach by determining the shape of the lumen from image features. In addition, for example, the part determination unit 12 can determine specific parts such as the large intestine by determining changes in image features (image history) that show that the insertion part progresses while bending, and can also determine whether it is the descending colon or the transverse colon.

 また、部位判定部12は、その部位の有する特徴的な色や形状や表面に見えている血管などのパターンなどを図示しないデータベースを参照することで判定してもよい。また、内視鏡の先端や挿入部に設けられた磁気などの発信機の発信結果を外部の受信機で受信して、体のどの位置に内視鏡先端部があるかを判定することによって、画像がいずれの部位を撮像して得られたものであるかを判定する方法や、内視鏡の挿入量やひねり具合から部位を判定する方法もある。各部位の代表画像(論文に乗っているような画質なども調整された画像等)や、各部位の画像特徴を示すデータを図示しない記録媒体に記録しておき、部位判定部12は、記録媒体に記録した情報を参照しながら、各部位を判定してもよい。 The part determination unit 12 may also determine the characteristic color or shape of the part, or the pattern of blood vessels or the like visible on the surface by referring to a database (not shown). Another method is to use an external receiver to receive the transmission results of a magnetic or other transmitter attached to the tip or insertion part of the endoscope, and determine where on the body the tip of the endoscope is located, thereby determining which part the image was taken of, or to determine the part from the insertion depth and twist of the endoscope. Representative images of each part (images with adjusted image quality, such as those found in papers) and data showing the image characteristics of each part may be recorded on a recording medium (not shown), and the part determination unit 12 may determine each part by referring to the information recorded on the recording medium.

 また、部位判定部12は、AI(人工知能)処理によって、部位を判定してもよい。 The part determination unit 12 may also determine the part by AI (artificial intelligence) processing.

 図3は部位判定を可能にする推論モデルを説明するための説明図である。
 部位判定部12は、AI処理によって部位を判定する場合には、各部位にそれぞれ対応するネットワークを採用する。図3の例では第1及び第2部位を推論するための2つのネットワークN1,N2を示している。ネットワークN1,N2にはそれぞれ入力及び出力に対応する大量の画像が教師データとして与えられる。図3の例では、ネットワークN1には、教師データとして第1部位内の複数の画像(四角枠)が入力され、ネットワークN2には、教師データとして第2部位内の複数の画像(四角枠)が入力される。入力される画像には、例えば、各画像に対応した部位名がアノテーションとして施されている。
FIG. 3 is an explanatory diagram for explaining an inference model that enables part determination.
When determining the part by AI processing, the part determination unit 12 employs a network corresponding to each part. In the example of FIG. 3, two networks N1 and N2 for inferring the first and second parts are shown. A large amount of images corresponding to the input and output are provided as teacher data to the networks N1 and N2, respectively. In the example of FIG. 3, a plurality of images (rectangular frames) in the first part are input as teacher data to the network N1, and a plurality of images (rectangular frames) in the second part are input as teacher data to the network N2. For example, the input images are annotated with the part names corresponding to each image.

 大量の教師データによる学習を行うことで、ネットワークN1,N2は、それぞれ入力に対応する出力が得られるように、ネットワークデザインが決定される。即ち、図3の例では、第1部位内の画像が入力されると、ネットワークN1から第1部位の部位名の情報が出力され、第2部位内の画像が入力されると、ネットワークN2から第2部位の部位名の情報が出力される。即ち、ネットワークN1により、入力画像から第1部位の部位名を検出する推論モデルが構築され、ネットワークN2により、入力画像から第2部位の部位名を検出する推論モデルが構築される。 By learning from large amounts of training data, the network design of networks N1 and N2 is determined so that an output corresponding to each input is obtained. That is, in the example of Figure 3, when an image of a first part is input, network N1 outputs information on the part name of the first part, and when an image of a second part is input, network N2 outputs information on the part name of the second part. That is, network N1 constructs an inference model that detects the part name of the first part from the input image, and network N2 constructs an inference model that detects the part name of the second part from the input image.

 正解判定部12aは、ネットワークN1,N2からの推論結果が正解であるか否かを判定し、不正解の場合には、ネットワークN1,N2のネットワークデザインを再構築するための学習制御を行う。 The correct answer determination unit 12a determines whether the inference results from networks N1 and N2 are correct, and if they are incorrect, performs learning control to reconstruct the network design of networks N1 and N2.

 なお、深層学習(ディープ・ラーニング)」は、ニューラル・ネットワークを用いた「機械学習」の過程を多層構造化したものである。情報を前から後ろに送って判定を行う「順伝搬型ニューラル・ネットワーク」が代表的なものである。これは、最も単純なものでは、m1個のニューロンで構成される入力層、パラメータで与えられるm2個のニューロンで構成される中間層、判別するクラスの数に対応するm3個のニューロンで構成される出力層の3層があればよい。そして、入力層と中間層、中間層と出力層の各ニューロンはそれぞれが結合加重で結ばれ、中間層と出力層はバイアス値が加えられることで、論理ゲートの形成が容易である。簡単な判別なら3層でもよいが、中間層を多数にすれば、機械学習の過程において複数の特徴量の組み合わせ方を学習することも可能となる。近年では、9層~152層のものが、学習にかかる時間や判定精度、消費エネルギーの関係から実用的になっている。 "Deep learning" is a multi-layered structure of the "machine learning" process using neural networks. A typical example is the "forward propagation neural network" which sends information from front to back and makes a judgment. In its simplest form, it has three layers: an input layer consisting of m1 neurons, a middle layer consisting of m2 neurons given by parameters, and an output layer consisting of m3 neurons corresponding to the number of classes to be discriminated. The neurons in the input layer and middle layer, and the middle layer and output layer are each connected by a connection weight, and a bias value is added to the middle layer and output layer, making it easy to form logic gates. Three layers are sufficient for simple discrimination, but if there are many middle layers, it is also possible to learn how to combine multiple features in the machine learning process. In recent years, 9 to 152 layers have become practical in terms of the time it takes to learn, the accuracy of judgment, and energy consumption.

 機械学習に採用するネットワークN1としては、公知の種々のネットワークを採用してもよい。例えば、CNN(Convolution Neural Network)を利用したR-CNN(Regions with CNN features)やFCN(Fully Convolutional Networks)等を用いてもよい。これは、画像の特徴量を圧縮する、「畳み込み」と呼ばれる処理を伴い、最小限処理で動き、パターン認識に強い。また、より複雑な情報を扱え、順番や順序によって意味合いが変わる情報分析に対応して、情報を双方向に流れる「再帰型ニューラル・ネットワーク」(全結合リカレントニューラルネット)を利用してもよい。 A variety of well-known networks may be used as the network N1 used for machine learning. For example, R-CNN (Regions with CNN features) or FCN (Fully Convolutional Networks) using CNN (Convolution Neural Network) may be used. This involves a process called "convolution" that compresses the features of an image, operates with minimal processing, and is strong in pattern recognition. In addition, a "recurrent neural network" (fully connected recurrent neural network) that can handle more complex information and allows information analysis whose meaning changes depending on the order or sequence, and in which information flows in both directions, may be used.

 これらの技術の実現のためには、CPUやFPGAといったこれまでの汎用的な演算処理回路などを使ってもよいが、ニューラル・ネットワークの処理の多くが行列の掛け算であることから、行列計算に特化したGPUやTensor Processing Unit(TPU)と呼ばれるものが利用される場合もある。近年ではこうした人工知能(AI)専用ハードの「ニューラル・ネットワーク・プロセッシング・ユニット(NPU)」がCPUなどその他の回路とともに集積して組み込み可能に設計され、処理回路の一部になっている場合もある。 To realize these technologies, conventional general-purpose calculation processing circuits such as CPUs and FPGAs can be used, but because much of the processing in neural networks involves matrix multiplication, GPUs and Tensor Processing Units (TPUs), which are specialized for matrix calculations, may also be used. In recent years, such artificial intelligence (AI) dedicated hardware "neural network processing units (NPUs)" have been designed to be integrated and embedded with CPUs and other circuits, and may form part of the processing circuit.

 また、深層学習に限らず、公知の各種機械学習の手法を採用して推論モデルを取得してもよい。例えば、サポートベクトルマシン、サポートベクトル回帰という手法もある。ここでの学習は、識別器の重み、フィルター係数、オフセットを算出するもので、他には、ロジスティック回帰処理を利用する手法もある。機械に何かを判定させる場合、人間が機械に判定の仕方を教える必要があり、今回の実施例では、画像の判定を、機械学習により導出する手法を採用したが、そのほか、特定の判断を人間が経験則・ヒューリスティクスによって獲得したルールを適応するルールベースの手法を応用して用いてもよい。 Furthermore, in addition to deep learning, various well-known machine learning methods may be employed to obtain an inference model. For example, there are methods such as support vector machines and support vector regression. The learning here involves calculating the weights, filter coefficients, and offsets of the classifier, and other methods use logistic regression processing. When making a machine make a judgment, a human must teach the machine how to make the judgment. In this embodiment, a method is used to derive a judgment on an image using machine learning, but it is also possible to apply a rule-based method that applies rules acquired by humans through experience and heuristics to make a specific judgment.

 本実施形態においては、部位判定部12によって判定した各部位について、それぞれの部位の特徴(以下、部位別特徴という)を判定し、判定結果に応じた分類を行う。部位別特徴を判定する判定項目としては、患部の有無、通過時間、取得コマ数、管腔方向見失い回数、抜き差し方向やり直し回数、色特徴、送気時変形、残渣程度、長さ、太さ、色、皺、動き、弾力、ねじれ、たわみ等がある。 In this embodiment, the characteristics of each part determined by the part determination unit 12 (hereinafter referred to as part-specific characteristics) are determined, and classification is performed according to the determination results. The items used to determine the part-specific characteristics include the presence or absence of an affected area, passing time, number of frames acquired, number of times the lumen direction was lost, number of times the insertion and removal direction was redone, color characteristics, deformation during air supply, degree of residue, length, thickness, color, wrinkles, movement, elasticity, twisting, bending, etc.

 図4は各部位と各判定項目との対応の例を表形式で分類して示す説明図である。部位として肛門、直腸、S状結腸、下行結腸が例示してある。 Figure 4 is an explanatory diagram showing examples of the correspondence between each body part and each assessment item, classified in a table format. Examples of body parts shown are the anus, rectum, sigmoid colon, and descending colon.

 「患部の有無」の判定項目については、大きさ、位置、数、色等について判定が行われる。「通過時間」、「取得コマ数」、「管腔見失い回数」及び「抜き差し方向やり直し回数」は、内視鏡挿入部の挿入時や抜去時の挿入部の状態を示すもので、それぞれ当該部位の通過に要する時間、当該部位の撮像コマ数、当該部位の撮像時における管腔(深部)方向の見失い回数、当該部位の撮像時における挿入部の挿入抜去の回数を示す。「色特徴」は部位の色や色の変化の特徴を示し、「送気時変形」は当該部位に対する送気によって当該部位の形状が変化する状態の特徴を示し、送気時の管腔組織のふくらみなどによる変形の様子から、弾力性のある組織か、硬い、柔らかいかなどの特徴も分かる。送水でも同様の事が言え、送水の効果がどうかといった特徴を記録してもよい。つまり、本願の内視鏡用画像分類装置は、上記部位について判定すべき特徴を示す判定項目を参照するための判定項目データベース(DB)40に、能動的処置に従った画像変化の部位別特徴を判定するための特徴(判定項目)を含むことを特徴としている。能動的処置は、単に通常のスクリーニングや診断用の観察に加え、対象物に能動的に通常観察時とは異なる働きかけ(送水、送気、特殊光の照射(とその時の画像判定)、染色(とその時の画像判定)処置具による働きかけなど)を表したものである。 The "presence or absence of an affected area" judgment item is based on size, location, number, color, etc. "Passing time," "number of frames acquired," "number of times the lumen was lost," and "number of times the insertion/removal direction was redone" indicate the state of the endoscope insertion part when it was inserted or removed, and respectively indicate the time required to pass the area, the number of frames acquired at the area, the number of times the lumen (deep area) was lost when imaging the area, and the number of times the insertion part was inserted and removed when imaging the area. "Color characteristics" indicate the characteristics of the color and color change of the area, and "deformation during air supply" indicates the characteristics of the state in which the shape of the area changes due to air supply to the area. From the state of deformation due to swelling of the lumen tissue when air is supplied, characteristics such as whether the tissue is elastic, hard, or soft can also be determined. The same can be said for water supply, and characteristics such as the effect of water supply can be recorded. In other words, the endoscopic image classification device of the present application is characterized in that the judgment item database (DB) 40 for referring to judgment items indicating the characteristics to be judged for the above-mentioned parts includes features (judgment items) for judging the part-specific characteristics of the image changes according to active treatment. Active treatment refers to active action on the object that differs from normal observation (water supply, air supply, irradiation with special light (and image judgment at that time), dyeing (and image judgment at that time), action by treatment tool, etc.) in addition to normal screening and diagnostic observation.

 また、「残渣程度」は、便等の残留物の多少の程度を示す。もちろん、この残留物の色や大きさ、残っていた位置など特徴を具体的に記載・記録しておけば、消化器関係の内部構造の特徴や消化能力、病気の特定などに使うことが出来る可能性がある。 "Level of residue" indicates the amount of fecal matter remaining. Of course, if the color, size, location, and other characteristics of the residue are specifically noted and recorded, it may be possible to use this information to identify the characteristics of the internal structure of the digestive tract, digestive ability, and identify illnesses.

 送気以外に、送水による洗浄に効果があるかどうかという特徴判定も可能である。つまり、これらは、管腔に対して能動的に作用する措置(能動操作)の反応を特徴に分類している、と言い換えることが出来る。こうした能動操作は、症例ごとに行ったり行わなかったり、その適応部位が違うので、症例感の比較が出来ない可能性があるので、判定項目DB40にて、この部位では送気をして、管腔の柔らかさの状態を確認する、といった検査項目を入れておき、検査時にどの症例でも検査者にその操作を促すようなガイドを出し、標準化した検査項目としてもよい。 In addition to air supply, it is also possible to determine whether cleaning with water supply is effective. In other words, these can be said to classify the reactions of measures that actively act on the lumen (active manipulation) as characteristics. Since such active manipulation may or may not be performed for each case, and the areas where it is applicable vary, it may not be possible to compare the sensations of cases. Therefore, in the judgment item DB40, test items such as supplying air to this area to check the softness of the lumen can be entered, and a guide can be displayed during the examination to encourage the examiner to perform the operation for each case, making it a standardized test item.

 内視鏡用画像分類装置10に直接、内視鏡を接続して内視鏡検査を行うような場合、判定項目DB40は、上記解剖学的な部位ごとにおいて、それぞれ推奨する能動操作の情報を記録しておき、当該情報に従って、内視鏡操作者にガイドを、内視鏡画像を表示する表示装置に合わせて表示するようにしてもよい。表示制御部16がそうした合成表示機能を有するようにする。 When an endoscopic examination is performed by connecting an endoscope directly to the endoscopic image classification device 10, the judgment item DB 40 may record information on the active operation recommended for each of the above anatomical parts, and display a guide to the endoscope operator according to that information in accordance with the display device that displays the endoscopic image. The display control unit 16 is provided with such a composite display function.

 「長さ」、「太さ」、「色」、「皺」、「動き」、「弾力」、「ねじれ」、「たわみ」の判定項目は、部位の長さ、太さ、色、皺、動き、弾力、ねじれ、たわみの特徴を示す。長さなどは挿入、抜去の時間や、血管のような微細構造をパターンとして判定し、それが、どれぐらい続いているかなどを画像から判定するといった方法もある。管腔内を内視鏡が移動する時の画像とX線などで得られた管腔の長さを教師データとして学習した推論モデルを使って、内視鏡画像から管腔長さを推論するような方法を取ってもよい。その他、腸管の襞の数とか、大きさとか、間隔の特徴などを記録してもよい。 The judgment items "length," "thickness," "color," "wrinkles," "movement," "elasticity," "twisting," and "flexibility" indicate the characteristics of the part's length, thickness, color, wrinkles, movement, elasticity, twisting, and flexing. One method for judging length, etc. is to judge the insertion and removal time or fine structures such as blood vessels as patterns, and determine how long this continues from the images. It is also possible to use a method in which the lumen length is inferred from endoscopic images using an inference model that has been trained using images of the endoscope moving inside the lumen and the lumen length obtained from X-rays, etc., as training data. Other characteristics such as the number, size, and spacing of the folds in the intestine may also be recorded.

 部位別特徴判定部13は、部位判定部12によって判定された部位についてその特徴である部位別特徴を1つ以上の判定項目について判定する。即ち、特徴判定部としての部位別特徴判定部13は、部位毎に各種判定項目について部位別特徴を判定して部位別特徴情報を得る。部位別特徴判定部13は、部位別特徴の判定結果をテキスト形式又は表形式で分類して示す部位別特徴情報を得るようになっていてもよい。例えば、部位別特徴判定部13は、入力画像に対する画像解析やAI処理によって、各判定項目の判定を行ってもよい。部位別特徴判定部13は、順次得られる画像の各コマの画像変化に基づいて部位別特徴を判定してもよい。図4に示すように、全ての部位に共通の判定項目が設定される場合もあるが、部位毎に判定項目が相互に異なっていてもよい。また、判定項目が共通の部位毎に表形式の情報を保持するようにしてもよい。判定項目DB40は、部位毎の判定項目の情報を記憶するデータベースである。部位別特徴判定部13は、部位毎に判定項目DB40に記憶された判定項目を読み出すことで、読み出した判定項目についての判定を行うようになっていてもよい。つまり本願の内視鏡用画像分類装置は、内視鏡が通過する複数の部位毎に、それぞれの部位について部位別特徴を判定するための特徴(判定項目)を参照するためのデータベースを具備する。 The part feature judgment unit 13 judges the part feature, which is a feature of the part judged by the part judgment unit 12, for one or more judgment items. That is, the part feature judgment unit 13 as a feature judgment unit judges the part feature for various judgment items for each part to obtain part feature information. The part feature judgment unit 13 may obtain part feature information that classifies and shows the judgment results of the part feature in text format or table format. For example, the part feature judgment unit 13 may judge each judgment item by image analysis or AI processing of the input image. The part feature judgment unit 13 may judge the part feature based on the image change of each frame of the image obtained sequentially. As shown in FIG. 4, there are cases where judgment items common to all parts are set, but the judgment items may be different for each part. In addition, table-format information may be held for each part with common judgment items. The judgment item DB 40 is a database that stores information on judgment items for each part. The part-specific characteristic determination unit 13 may read out the determination items stored in the determination item DB 40 for each part, and make a determination for the read-out determination items. In other words, the endoscopic image classification device of the present application has a database for referencing features (determination items) for determining part-specific characteristics for each of multiple parts through which the endoscope passes.

 能動操作判定部14は、内視鏡の体内への挿入時における術者の能動的な操作に基づく信号を判定して能動操作情報を得る。例えば、能動操作としては、内視鏡の操作部の操作による静止画の撮影操作や、体内への送気や送水のための装置の操作等が考えられる。能動操作判定部14は、これらの機器に対する操作に基づく操作信号を受信することで、能動操作の判定結果として能動操作情報を得る。なお、能動操作判定部14は、入力画像に対する画像解析によって能動操作の判定結果を得るようになっていてもよい。画像の時間変化から送水(水しぶきの画像が得られ、やがて収まる等)や送気(組織が膨らんで元に戻る等)が行われたことが分かる場合もある。 The active operation determination unit 14 obtains active operation information by determining signals based on active operation by the surgeon when inserting the endoscope into the body. Possible active operations include, for example, taking still images by operating the operation unit of the endoscope, and operating devices for supplying air or water into the body. The active operation determination unit 14 obtains active operation information as a determination result of active operation by receiving operation signals based on operations on these devices. Note that the active operation determination unit 14 may obtain a determination result of active operation by image analysis of the input image. It may also be possible to determine from the change in the image over time that water has been supplied (e.g., an image of water splashing is obtained and then subsides) or air has been supplied (e.g., tissue swells and returns to normal).

 関連付け部15は、部位毎の部位別特徴を入力された画像に関連付けて記録する。即ち、関連付け部15は、部位判定部12、部位別特徴判定部13及び能動操作判定部14の各判定結果を、入力された画像に関連付ける。関連付け部15は、記録制御部18を制御して、関連付けた結果を記録装置30に記録する。例えば、関連付け部15は、これらの各判定結果を静止画又は動画ファイルのメタデータとして関連付けて記録してもよい。これにより、静止画ファイルに、或いは動画ファイルの各コマの画像情報に、いずれの部位を撮像したものかを示す部位情報、その部位についての例えば表形式やテキスト形式の部位別特徴情報、そのコマの撮影タイミングで行われた能動操作情報が関連付けられて記録されることになる。なお、入力された画像に付随した付随情報についてもそのまま画像ファイルにメタデータとして関連付けられて記録される。また、部位判定部12がAI処理によって部位を判定した場合には、判定に用いた推論モデルの情報も画像に関連付けて記録するようになっていてもよい。 The association unit 15 records the part-specific features for each part in association with the input image. That is, the association unit 15 associates each of the judgment results of the part determination unit 12, the part-specific feature determination unit 13, and the active operation determination unit 14 with the input image. The association unit 15 controls the recording control unit 18 to record the associated results in the recording device 30. For example, the association unit 15 may record each of these judgment results in association as metadata of a still image or video file. As a result, part information indicating which part was captured, part-specific feature information for that part in, for example, a table format or text format, and active operation information performed at the timing of shooting that frame are associated and recorded in a still image file or in image information of each frame of a video file. Note that the associated information associated with the input image is also associated and recorded as metadata in the image file as it is. In addition, when the part determination unit 12 determines the part by AI processing, information on the inference model used for the judgment may also be associated and recorded in association with the image.

 記録制御部18は、関連付け部15に従って、データの記録を制御する。記録装置30は、図示しない記録媒体を有し、記録制御部18に制御されて、関連付けが行われた画像ファイルを記録する。こうして、内視鏡検査を受けた多くの人物の画像には、撮像の段階で付加された付随情報の外に、各コマについて部位情報、部位別特徴情報、能動操作情報が関連付けられて記録される。 The recording control unit 18 controls the recording of data in accordance with the association unit 15. The recording device 30 has a recording medium (not shown), and records the associated image files under the control of the recording control unit 18. In this way, images of many people who have undergone endoscopic examinations are recorded with associated body part information, body part characteristic information, and active operation information for each frame, in addition to the accompanying information added at the imaging stage.

 表示制御部16は、表示装置20の表示に関する制御を行う。表示装置20は、LCD(液晶ディスプレイ)等の表示装置であり、表示制御部16に制御されて各種表示を行う。表示制御部16は、後述する検索部17の検索結果を表示画面上に表示することができる。 The display control unit 16 controls the display of the display device 20. The display device 20 is a display device such as an LCD (liquid crystal display), and performs various displays under the control of the display control unit 16. The display control unit 16 can display the search results of the search unit 17, which will be described later, on the display screen.

 検索部17は、図示しない入力装置に対するユーザ操作に基づいて、画像の検索を行う。たとえば、検索部17は、部位情報が共通で且つ部位別特徴情報が共通の画像を検索してもよい。即ち、検索部17は、部位判定部12により判定された部位の撮像画像について、部位別特徴情報に基づく検索処理を行って類似する症例の撮像画像を抽出することも可能である。また、検索部17は、同一人物の同一部位について、撮像時期が異なる画像を検索してもよい。検索部17は検索結果を表示制御部16に与えて、表示装置20の表示画面上に検索表示を表示させる。 The search unit 17 searches for images based on user operations on an input device (not shown). For example, the search unit 17 may search for images that have common body part information and common body part characteristic information. That is, the search unit 17 can perform a search process based on the body part characteristic information for captured images of the body part determined by the body part determination unit 12 to extract captured images of similar cases. The search unit 17 may also search for images of the same body part of the same person captured at different times. The search unit 17 provides the search results to the display control unit 16, which causes the search display to be displayed on the display screen of the display device 20.

 図1には、表示装置20の表示画面上の表示例を示してある。図1の例では、被検者αについて現在(2023年)取得されたある部位の画像Pe1が表示されている。画像Pe1中には、ポリープ等の病変部の画像Pe1aが表示されている。検索部17は、画像Pe1に関連付けられている部位情報及び部位別特徴情報に一致する部位情報及び部位別特徴情報を有する画像を検索する。例えば、部位判定部12により画像Pe1の部位が大腸であると判定されるものとする。 FIG. 1 shows an example of a display on the display screen of the display device 20. In the example of FIG. 1, an image Pe1 of a certain part currently (2023) acquired for subject α is displayed. Within image Pe1, an image Pe1a of a lesion such as a polyp is displayed. The search unit 17 searches for an image having part information and part characteristic information that match the part information and part characteristic information associated with image Pe1. For example, it is assumed that the part of image Pe1 is determined to be the large intestine by the part determination unit 12.

 図5は大腸の形状の例を示す説明図である。例E1はねじれやたわみが少ない大腸の一例を示し、例2はねじれが大きい大腸の一例を示し、例3はたわみが大きい大腸の一例を示す。部位別特徴情報には、このような部位の形状特徴の情報も含まれる。同一部位であっても、大きさや形状等が異なる臓器同士では、同様の病変部が存在する場合でも、症状等が異なることが考えられる。そこで、本実施形態においては、同一部位であっても部位別特徴が同一の画像を検索対象とする。 FIG. 5 is an explanatory diagram showing examples of the shape of the large intestine. Example E1 shows an example of a large intestine with little twisting or bending, Example 2 shows an example of a large intestine with a lot of twisting, and Example 3 shows an example of a large intestine with a lot of bending. The part-specific characteristic information also includes information on the shape characteristics of such parts. Even if the same part is present, symptoms may differ between organs with different sizes and shapes. Therefore, in this embodiment, images with the same part-specific characteristics are searched for, even if they are the same part.

 検索部17は、画像Pe1に対応する部位情報及び部位別特徴情報を有する画像を検索する。即ち、同一部位である大腸の画像であって、部位の形状や、大きさ、弾力等が同様で、同様の患部を有する部位の画像、即ち、部位別特徴が同一の画像が検索結果として得られる。なお、検索部17は、部位別特徴の分類の仕方によっては、部位別特徴が同一の画像だけでなく、部位別特徴が類似する画像を検索結果として得るようになっていてもよい。 The search unit 17 searches for images having the part information and part-specific characteristic information corresponding to the image Pe1. That is, images of the same part, the large intestine, that have similar shapes, sizes, elasticity, etc., and similar affected areas, i.e., images with the same part-specific characteristics, are obtained as search results. Note that, depending on how the part-specific characteristics are classified, the search unit 17 may be configured to obtain, as search results, not only images with the same part-specific characteristics, but also images with similar part-specific characteristics.

 図1の例では、画像Pe1に対応する部位情報及び部位別特徴情報を有する画像として、画像Pe2が検索されて表示されたことを示している。この画像Pe2には、画像Pe1の画像Pe1aに類似した病変部の画像Pe2aが含まれる。なお、この画像Pe2が撮像された時期は2020年である。更に、検索部17は、当該画像Pe2が撮像された人物について、処置の内容や患部の状態についての経過情報、例えば、画像Pe2が撮像された時期より後の2021年に同一部位を撮像して得た画像が存在するか否かを検索し、検索結果を表示する。画像Pe3は、この検索結果の画像を示しており、画像Pe3には画像Pe2aにて示す病変部が大きくなったことを示す画像Pe3aが含まれる。 In the example of FIG. 1, image Pe2 is searched for and displayed as an image having part information and part-specific characteristic information corresponding to image Pe1. Image Pe2 includes image Pe2a of a lesion similar to image Pe1a of image Pe1. Note that image Pe2 was captured in 2020. Furthermore, search unit 17 searches for progress information on the treatment content and condition of the affected area for the person of whom image Pe2 was captured, for example, whether there is an image obtained by capturing the same area in 2021 after image Pe2 was captured, and displays the search results. Image Pe3 shows an image from this search, and image Pe3 includes image Pe3a showing that the lesion shown in image Pe2a has grown in size.

 即ち、検索部17は、第1の症例において内視鏡の体内への挿入又は体内からの抜去過程で内視鏡が通過する解剖学的な部位毎に求めた部位別特徴情報を用いて、第2の症例において取得された内視鏡画像を検索することが可能である。 In other words, the search unit 17 can search for endoscopic images acquired in the second case using the part-specific characteristic information obtained for each anatomical part through which the endoscope passes during insertion into or removal from the body in the first case.

 図1の表示によれば、例えば、医師は、被検者αの大腸に生じた病変部と同様の病変部を有し部位別特徴が同一の人物についてはその後病変部が拡大していることから、被検者αについても病変部が拡大する可能性があると判断することができる。また、部位別特徴情報によって、患者を特定することも可能である。従って、例えば、患者名等の患者情報が入手できない場合でも、部位別特徴情報を利用することで、患者の特定や症例記録等が可能となる。 According to the display in Figure 1, for example, a doctor can determine that there is a possibility that the lesion in subject α will also expand, since the lesion has subsequently expanded in a person with a lesion similar to that in the large intestine of subject α and the same site-specific characteristics. In addition, it is also possible to identify the patient using the site-specific characteristic information. Therefore, for example, even if patient information such as the patient's name is not available, the use of the site-specific characteristic information makes it possible to identify the patient and record the case, etc.

(動作)
 次に、このように構成された実施形態の動作について図6から図10を参照して説明する。図6、図7及び図10は実施形態の動作を説明するためのフローチャートである。また、図8は内視鏡検査の一例を説明するための説明図であり、図9は図8の例において取得される画像を説明するための説明図である。
(operation)
Next, the operation of the embodiment configured as above will be described with reference to Fig. 6 to Fig. 10. Fig. 6, Fig. 7 and Fig. 10 are flow charts for explaining the operation of the embodiment. Fig. 8 is an explanatory diagram for explaining an example of an endoscopic examination, and Fig. 9 is an explanatory diagram for explaining an image acquired in the example of Fig. 8.

 図8は人体Bの口腔、喉頭及び咽頭部分を示している。図8は口から挿入部51を挿入する経口内視鏡検査による上部消化管内視鏡検査や気管支検査の様子を示している。図8に示すように、内視鏡50による検査や処置では、医師は、内視鏡50を操作し内視鏡50の挿入部51を人体Bに挿入する。挿入部51の先端には図示しない湾曲部が設けられており、医師は、内視鏡50に設けられた湾曲ノブ50a等を操作して湾曲部を湾曲させたり、挿入部51を進退させたりして挿入部51の先端を観察対象部位まで挿入する。 Figure 8 shows the oral cavity, larynx, and pharyngeal parts of human body B. Figure 8 shows an upper gastrointestinal endoscopy or bronchial examination using oral endoscopy in which an insertion portion 51 is inserted through the mouth. As shown in Figure 8, in an examination or treatment using an endoscope 50, a doctor operates the endoscope 50 to insert the insertion portion 51 of the endoscope 50 into human body B. A bending portion (not shown) is provided at the tip of the insertion portion 51, and the doctor operates a bending knob 50a or the like provided on the endoscope 50 to bend the bending portion or to move the insertion portion 51 forward or backward, thereby inserting the tip of the insertion portion 51 to the area to be observed.

 図9は図8の内視鏡検査において取得される画像の一例を示している。図8の四角枠は取得されるコマを示しており、内視鏡挿入時には、観察対象部位とは別に、舌、気管、食道等の多くの画像が取得される。このように、挿入部51は食道に至る前に様々な部位を通過し、様々な部位の画像が取得される。 FIG. 9 shows an example of an image acquired during the endoscopic examination of FIG. 8. The square frames in FIG. 8 indicate the frames that are acquired, and when the endoscope is inserted, many images of the tongue, trachea, esophagus, etc. are acquired in addition to the area to be observed. In this way, the insertion portion 51 passes through various areas before reaching the esophagus, and images of the various areas are acquired.

 この内視鏡挿入時において特定の観察対象部位に至るまでの画像は診断等に使用されない場合がある。しかし、こうした観察対象部位に至る過程で各部位を通過する内視鏡挿入時或いは内視鏡抜去時には、観察対象部位以外の各部位の画像も取得されている。即ち、診断に用いる内視鏡画像の他に、内視鏡の挿入過程或いは抜去過程には、多くの内視鏡画像が取得される。そして、このような内視鏡画像には、次回の検査や同様の症状を有する他人の治療等に極めて有用な情報が含まれている可能性がある。 When the endoscope is inserted, images taken up to the specific area to be observed may not be used for diagnosis, etc. However, when the endoscope passes through various areas on the way to the area to be observed, images of areas other than the area to be observed are also acquired when the endoscope is inserted or removed. That is, in addition to the endoscopic images used for diagnosis, many endoscopic images are acquired during the process of inserting or removing the endoscope. These endoscopic images may contain information that is extremely useful for the next examination or for treating others with similar symptoms.

 しかし、単にこれらの内視鏡画像を記録しただけでは、膨大な画像から有用な情報を抽出することは極めて困難である。そこで、本実施形態においては、部位毎に部位別特徴を判定して、判定結果を画像にメタデータとして関連付けて記録することで、有用な情報の抽出を容易にする。 However, simply recording these endoscopic images makes it extremely difficult to extract useful information from the huge number of images. Therefore, in this embodiment, the characteristics of each part are determined and the determination results are recorded in association with the images as metadata, making it easier to extract useful information.

 図6はこのような部位別特徴の判定を内視鏡挿入時に実施する例を示しているが、スクリーニング時や観察時に実施してもよく、また、内視鏡の抜去後に、図示しない記録装置において記録された内視鏡画像を内視鏡用画像分類装置10に与えて部位別特徴の判定を実施するようになっていてもよい。 FIG. 6 shows an example in which such determination of region-specific characteristics is performed when the endoscope is inserted, but it may also be performed during screening or observation. In addition, after the endoscope is removed, the endoscopic images recorded in a recording device (not shown) may be provided to the endoscopic image classification device 10 to determine the region-specific characteristics.

 図6の例では、内視鏡用画像分類装置10は、S1において内視鏡挿入時であるか否かを判定する。挿入時には(S1のYES)、部位判定部12は部位判定を実施し、部位判定が行われたか否かを判定する(S2)。部位判定が行われると、次のS3において、特殊光観察画像については別扱いにした後、部位別特徴判定部13が部位別特徴を検出する。特殊光観察では赤外光等の特殊光で照明された臓器を撮像する。部位別特徴の判定に際して、通常光(白色光)で照明された臓器を撮像して得た撮像画像と特殊光での撮像で得られた撮像画像とを単純に比較することはできないことから、特殊光観察画像については別扱いにする。即ち、特殊光観察画像については特殊光観察画像のグループ内で部位別特徴の判定を行い、当該グループ内での検索に用いる。なお、内視鏡用画像分類装置10は、特殊光観察画像であるか否かを画像解析によって判定してもよく、また、特殊光観察画像であるか否かを示す付随情報が画像に付加されている場合には、この付随情報を用いて特殊光観察画像であるか否かを判定してもよい。 In the example of FIG. 6, the endoscopic image classification device 10 determines in S1 whether or not the endoscope is being inserted. When the endoscope is inserted (YES in S1), the part determination unit 12 performs part determination and determines whether or not part determination has been performed (S2). When part determination has been performed, the special light observation image is treated separately in the next S3, and then the part feature determination unit 13 detects part features. In special light observation, an organ illuminated with special light such as infrared light is imaged. When determining part features, it is not possible to simply compare an image obtained by imaging an organ illuminated with normal light (white light) with an image obtained by imaging with special light, so the special light observation image is treated separately. In other words, for the special light observation image, part features are determined within a group of special light observation images, and the image is used for searching within the group. The endoscopic image classification device 10 may determine whether or not the image is a special light observation image by image analysis, or, if accompanying information indicating whether or not the image is a special light observation image is added to the image, this accompanying information may be used to determine whether or not the image is a special light observation image.

 なお、部位判定部12及び部位別特徴判定部13は、入力画像の画像解析やAI処理によって部位判定及び部位別特徴の判定を行うだけでなく、付随情報や能動操作情報を利用してこれら判定を行ってもよい。例えば、部位別特徴の判定項目のうちの送気時変形については、能動操作情報により送気操作の情報を取得し、送気操作期間における臓器の変形の画像解析によって、部位別特徴の判定が行われる。即ち、この場合の能動操作情報は、撮像画像のタイミングに関連したものであり、能動操作に対応する画像の変化に従って部位別特徴を判定することにより、有効な判定結果が得られる。また、挿入形状観察装置の出力に基づく付随情報を利用して部位判定を行うようにしてもよい。 Note that the part determination unit 12 and part feature determination unit 13 may not only perform part determination and part feature determination by image analysis of the input image or AI processing, but may also perform these determinations using associated information and active operation information. For example, for deformation during air supply, which is one of the determination items for part feature, information on the air supply operation is obtained from active operation information, and part feature determination is performed by image analysis of the deformation of the organ during the air supply operation period. That is, the active operation information in this case is related to the timing of the captured image, and valid determination results can be obtained by determining part features according to changes in the image corresponding to the active operation. Part determination may also be performed using associated information based on the output of an insertion shape observation device.

 部位別特徴判定部13により部位別特徴が検出されると(S4のYES)、関連付け部15は、部位別特徴を部位毎に整理して内視鏡画像に関連付けて記録する(S5)。例えば、関連付け部15は、部位情報、部位別特徴情報をテキストとして画像のメタデータとして各コマに関連付けて記録してもよい。記録が終了すると、処理はS1に戻される。なお、S2,S4でNO判定の場合にも処理はS1に戻される。なお、S5の記録時には、部位情報、部位別特徴情報だけでなく、入力画像に含まれていた付随情報、能動操作情報等の情報や、部位の判定に用いた論理モデルの種類等の各種情報が記録される。 When the part-specific features are detected by the part-specific feature determination unit 13 (YES in S4), the association unit 15 organizes the part-specific features by part and records them in association with the endoscopic image (S5). For example, the association unit 15 may record the part information and part-specific feature information as text, associated with each frame as image metadata. When recording is completed, processing returns to S1. Processing also returns to S1 if NO is determined in S2 and S4. When recording in S5, not only the part information and part-specific feature information are recorded, but also various information such as accompanying information and active operation information contained in the input image, and the type of logical model used to determine the part, etc.

 このように内視鏡検査で得られた膨大な画像情報が部位別特徴で整理されるので、特定の症例において、内視鏡の体内への挿入又は体内からの抜去過程で通過する解剖学的な部位毎の部位別特徴情報を用いて、他の症例の内視鏡画像を検索することが可能となる。 In this way, the vast amount of image information obtained from endoscopic examinations is organized by features specific to each part, so that in a specific case, it is possible to search for endoscopic images from other cases using the feature information specific to each anatomical part that the endoscope passes through during insertion into or removal from the body.

 内視鏡用画像分類装置10は、S1において挿入時でないものと判定すると(S1のNO)、S11において観察時であるか否かを判定する。また、内視鏡用画像分類装置10は、S11において観察時でないものと判定すると(S11のNO)、S12においてスクリーニングを行う。なお、スクリーニングは、比較的広い範囲を撮像して病変部の探索等を行う行為をいう。また、特定の部位に例えば近接して撮像したりズームしたりして、特定の部位を詳細に撮像して確認する行為を「観察」という。 If the endoscopic image classification device 10 determines in S1 that it is not the time for insertion (NO in S1), it determines in S11 whether it is the time for observation. If the endoscopic image classification device 10 determines in S11 that it is not the time for observation (NO in S11), it performs screening in S12. Note that screening refers to the act of imaging a relatively wide area to search for a lesion, etc. Also, the act of imaging a specific area in detail and checking it, for example by imaging close up or zooming in on the specific area, is called "observation".

 内視鏡用画像分類装置10は、挿入時、スクリーニング時、観察時を、画像解析によって判定可能である。例えば、挿入部51が管腔内を進行するものとする。この場合には、内視鏡先端部からの照明光が届かない管腔奥(管腔長さ方向の奥)の画像部分は、低輝度の管腔断面形状(略円形である場合が多い)であり、挿入部51が管腔内を進行する場合には、この画像部分が内視鏡画像の略中央に位置し、画像周辺は管腔壁のパターンが画像周辺に向かって移動する連続画像が得られる。また、管腔奥を示す低輝度の管腔断面形状部分が画像中央に位置する状態から内視鏡先端が対象の壁面に向かって屈曲操作された場合には、中心にあった低輝度部分が画面周辺に移動するので、この状態を画像解析により判定することができる。また、特定のパターンの部位を長時間、近づいたり遠ざかったり、あるいは見る方向を変えながら観察する場合には、連続した画像には同様の血管や病変の凸凹などのパターンが捉えられているので、これらのパターンの変化により観察状態を判定することができる。 The endoscopic image classification device 10 can determine the time of insertion, screening, and observation by image analysis. For example, assume that the insertion section 51 advances inside the lumen. In this case, the image part of the back of the lumen (back in the direction of the lumen length) where the illumination light from the endoscope tip does not reach has a low-luminance lumen cross-sectional shape (often approximately circular), and when the insertion section 51 advances inside the lumen, this image part is located approximately in the center of the endoscopic image, and continuous images are obtained in which the pattern of the lumen wall moves toward the periphery of the image. In addition, when the endoscope tip is bent toward the target wall surface from a state in which the low-luminance lumen cross-sectional shape part indicating the back of the lumen is located in the center of the image, the low-luminance part that was in the center moves to the periphery of the screen, and this state can be determined by image analysis. In addition, when a specific patterned area is observed for a long time by moving closer or further away, or by changing the viewing direction, similar patterns such as blood vessels and irregularities of lesions are captured in the continuous images, and the observation state can be determined by the change in these patterns.

 S13では、スクリーニングの結果が表示装置20表示されると共に、記録装置30において記録される。また、観察時には(S11のYES)、内視鏡用画像分類装置10は、公知の画像処理やAI(人工知能)処理等によって、病変の判定、鑑別を行い(S14)、その結果を表示装置20に表示すると共に記録装置30により記録する(S15)。S13,S15の処理の後、処理をS1に戻す。 In S13, the results of the screening are displayed on the display device 20 and recorded in the recording device 30. Furthermore, during observation (YES in S11), the endoscopic image classification device 10 performs lesion determination and differentiation (S14) using known image processing, AI (artificial intelligence) processing, etc., and displays the results on the display device 20 and records them in the recording device 30 (S15). After the processing of S13 and S15, the process returns to S1.

 こうして、記録装置30には、内視鏡検査を受けた多くの人物の内視鏡画像であって、部位情報、部位別特徴情報、付随情報、能動操作情報等の情報が画像に関連付けられて付加された画像ファイルが蓄積される。記録装置30に記録された画像情報は、画像に関連付けられた情報によって分類することができ、また、画像に関連付けられた情報を元に画像検索が可能である。 In this way, the recording device 30 stores image files that are endoscopic images of many people who have undergone endoscopic examinations, with information such as body part information, body part characteristic information, associated information, and active operation information associated with the images. The image information recorded in the recording device 30 can be classified by the information associated with the images, and image searches are possible based on the information associated with the images.

(動画)
 図7のフローは図6のフローに対応するものであり、動画により部位別特徴を検出する場合の例である。図7において図6のフローと同一の手順には同一符号を付して説明を省略する。なお、図7のフローにおいても内視鏡挿入時に部位判定及び部位別特徴の判定を行う例を示しているが、部位判定及び部位別特徴の判定は、内視鏡抜去時、内視鏡観察時、スクリーニング時に行ってもよく、また、内視鏡検査の終了後に行ってもよい。
(movie)
The flow of Fig. 7 corresponds to the flow of Fig. 6, and is an example of detecting site-specific features from a video. In Fig. 7, the same steps as those in the flow of Fig. 6 are given the same reference numerals, and the description thereof will be omitted. Note that, although the flow of Fig. 7 also shows an example in which site determination and site-specific feature determination are performed when an endoscope is inserted, site determination and site-specific feature determination may be performed when the endoscope is removed, during endoscopic observation, during screening, or after the endoscopy is completed.

 S21において、内視鏡による撮像を開始し、部位及び部位別特徴の判定(特徴判定)を開始し、撮像画像の表示を開始し、撮像画像の記録を開始する。S22において、内視鏡用画像分類装置10は、内視鏡挿入時であるか否かを判定する。挿入時には(S22のYES)、部位を示す変数Nを1に初期化し、第N部位の判定開始を判断する(S24)。第N部位の判定が開始されると(S24のYES)、内視鏡用画像分類装置10は、S25において、撮像時の条件、例えば、特殊光観察であるか通常観察であるか等の条件を揃えて、第N部位画像を取得する。なお、付随情報及び能動操作情報についても画像と同時に取得する。 In S21, imaging by the endoscope is started, determination of the part and features of each part (feature determination) is started, display of the captured image is started, and recording of the captured image is started. In S22, the endoscopic image classification device 10 determines whether or not it is time to insert the endoscope. When it is inserted (YES in S22), the variable N indicating the part is initialized to 1, and it is determined to start determination of the Nth part (S24). When determination of the Nth part is started (YES in S24), in S25, the endoscopic image classification device 10 matches the conditions at the time of imaging, such as whether special light observation or normal observation, and acquires an image of the Nth part. Incidental information and active operation information are also acquired at the same time as the image.

 部位判定部12は、取得した画像、付随情報及び能動操作情報を用いて各部位を判定する。また、S26において、部位別特徴判定部13は、取得した画像、付随情報及び能動操作情報を用いて部位毎に、部位別特徴を判定する。内視鏡用画像分類装置10は、S26において、第N部位についての判定処理が終了したか否かを判定する。第N部位の判定が終了していない場合には(S26のNO)、処理をS25に戻して部位及び部位別特徴の判定を続ける。 The part determination unit 12 determines each part using the acquired image, associated information, and active operation information. In S26, the part feature determination unit 13 determines part features for each part using the acquired image, associated information, and active operation information. In S26, the endoscopic image classification device 10 determines whether the determination process for the Nth part has been completed. If the determination of the Nth part has not been completed (NO in S26), the process returns to S25 to continue determining the parts and part features.

 第N部位の判定が終了すると(S26のNO)、S27において、内視鏡用画像分類装置10は、タイミング情報やトラック情報を取得する。タイミング情報は、第N部位についての撮像時間の情報であり、トラック情報は第N部位の画像情報中の記録単位(トラック)の位置を示す情報である。 When the determination of the Nth part is completed (NO in S26), in S27, the endoscopic image classification device 10 acquires timing information and track information. The timing information is information on the imaging time for the Nth part, and the track information is information that indicates the position of the recording unit (track) in the image information of the Nth part.

 関連付け部15は、第N部位についての部位別特徴情報を整理し、表形式やテキスト形式で画像情報にメタデータとして仮記録する(S28)。なお、この部位別特徴情報は、タイミング情報やトラック情報に対応させて内視鏡画像に関連付けて記録する。タイミング情報やトラック情報を用いることで、記録された画像情報から第N部位の部位別特徴情報を容易に抽出することができる。ここで、テキスト形式でメタデータを記録する場合、記録されるテキストのパターンはあらかじめ計数できることから、各テキストのパターンに対応する符号を付し、当該符号をメタデータとして記録するようにしても良い。この場合、当該符号を参照するシステムには、テキストのパターンと符号の対応情報を適宜共有する。 The association unit 15 organizes the part-specific characteristic information for the Nth part, and provisionally records it in a table format or text format in the image information as metadata (S28). This part-specific characteristic information is recorded in association with the endoscopic image in correspondence with timing information and track information. By using the timing information and track information, the part-specific characteristic information for the Nth part can be easily extracted from the recorded image information. Here, when recording metadata in text format, since the patterns of the recorded text can be counted in advance, a code corresponding to each text pattern can be assigned and the code can be recorded as metadata. In this case, the correspondence information between the text pattern and the code is appropriately shared with the system that references the code.

 内視鏡用画像分類装置10は、S29において、部位を示す変数Nをインクリメントし、S30において、検査が終了したか否かを判定する。検査が終了していない場合には(S30のNO)、処理をS22に戻して処理を繰り返す。想定した全ての部位の撮像を行い、検査が終了した場合には(S30のYES)、関連付け部15は、S31において記録制御部18を制御して、記録装置30により、全ての部位についての部位別特徴情報を、部位毎に表形式やテキスト形式で画像ファイル(検査中取得画像ファイル)にメタデータとして記録して検査を終了する。これにより、記録制御部18は、挿入又は抜去過程において通過する複数の部位毎に、それぞれの部位の特徴を記した部位別特徴情報として表形式の情報を記録する。 In S29, the endoscopic image classification device 10 increments the variable N indicating the part, and in S30, determines whether the examination has ended. If the examination has not ended (NO in S30), the process returns to S22 and is repeated. When images of all anticipated parts have been taken and the examination has ended (YES in S30), the association unit 15 controls the recording control unit 18 in S31 to have the recording device 30 record part-specific characteristic information for all parts in table format or text format for each part in the image file (image file acquired during examination) as metadata, and then ends the examination. As a result, the recording control unit 18 records tabular information as part-specific characteristic information describing the characteristics of each part for each of the multiple parts passed through during the insertion or removal process.

 なお、S22においてNO判定の場合の動作は図6と同様である。 If the result of S22 is NO, the operation is the same as in FIG. 6.

 こうして、記録装置30には、内視鏡検査を受けた多くの人物の内視鏡画像であって、部位情報、部位別特徴情報、付随情報、能動操作情報等の情報が画像に関連付けられて付加された画像ファイルが蓄積される。記録装置30に記録された画像情報は、画像に関連付けられた情報によって分類することができ、また、画像に関連付けられた情報を元に画像検索が可能である。 In this way, the recording device 30 stores image files that are endoscopic images of many people who have undergone endoscopic examinations, with information such as body part information, body part characteristic information, associated information, and active operation information associated with the images. The image information recorded in the recording device 30 can be classified by the information associated with the images, and image searches are possible based on the information associated with the images.

(分類蓄積された情報の利用)
 図10は記録装置30に記録された画像情報の利用方法(データ確認フロー)を示している。
(Use of classified and accumulated information)
FIG. 10 shows a method for using image information recorded in the recording device 30 (data confirmation flow).

 内視鏡用画像分類装置10は、図示しない入力装置によって、利用する画像情報を指定するための検査指定を受け付ける。内視鏡用画像分類装置10は、S41において、ある被検者の検査指定の待機状態である。例えば、ユーザは、人物名、検査日時、上部内視鏡検査等の検査種類等を指定することで、対象の画像情報を指定することができる。検査指定があると(S41のYES)、検索部17は、指定された検査に対応する画像ファイルを検索する(S42)。検索部17は、検索結果の画像ファイルを表示制御部16に与えて、表示装置20に画像を表示させる。 The endoscopic image classification device 10 receives an examination specification for specifying the image information to be used by an input device (not shown). In S41, the endoscopic image classification device 10 is in a standby state for the specification of an examination for a certain subject. For example, the user can specify the target image information by specifying the person's name, the examination date and time, the type of examination such as an upper endoscopy examination, etc. When an examination is specified (YES in S41), the search unit 17 searches for an image file corresponding to the specified examination (S42). The search unit 17 provides the image file of the search result to the display control unit 16, which displays the image on the display device 20.

 検索部17は、ユーザが画像を確認したい部位についての指定(部位指定)があるか否かを判定する(S43)。部位指定がない場合には、検索部17は、表示制御部16を制御して、表示中の画像の動画再生を開始(S46)させた後、再生停止操作があるか否かを判定する(S47)。S47において、検索部17は、ユーザによる停止操作があるまで動画再生を継続し、停止操作があった場合には、処理をS44に移行し、停止操作がなかった場合には処理をS51に移行する。S51では、検索部17は、処理の終了を判定し、終了していない場合には処理をS43に戻す。 The search unit 17 determines whether or not the user has specified a part of the image that he or she wishes to check (part specification) (S43). If no part has been specified, the search unit 17 controls the display control unit 16 to start video playback of the displayed image (S46), and then determines whether or not a playback stop operation has been performed (S47). In S47, the search unit 17 continues video playback until the user performs a stop operation, and if a stop operation has been performed, the process proceeds to S44, and if no stop operation has been performed, the process proceeds to S51. In S51, the search unit 17 determines whether the process has ended, and if not, returns to S43.

 動画再生の途中で停止操作があった場合には(S47のYES)、検索部17は、停止操作があった時点で表示されている部位の画像を静止画表示する(S44)。また、S43において、ユーザが図示しない入力装置により、胃や大腸等の部位を指定する入力を行った場合には(S43のYES)、この入力の指定に応じた部位の画像を静止画表示する(S44)。 If a stop operation is performed during video playback (YES in S47), the search unit 17 displays a still image of the part displayed at the time of the stop operation (S44). Also, if in S43 the user inputs a part such as the stomach or large intestine using an input device (not shown) (YES in S43), a still image of the part specified by this input is displayed (S44).

 こうして、指定された被検者の画像であって、医師等が画像を確認したい部位の画像が表示される。検索部17は、S45において、類似症例の確認のための操作があったか否かを判定する。この確認操作が無い場合には(S45のNO)、処理をS51に移行し、確認操作があった場合には処理をS48に移行する。 In this way, an image of the specified subject, of the part of the body that the doctor or other person wishes to check, is displayed. In S45, the search unit 17 determines whether or not an operation has been performed to check similar cases. If no such checking operation has been performed (NO in S45), the process proceeds to S51, and if a checking operation has been performed, the process proceeds to S48.

 S48では、検索部17は、類似特徴を有する動画を検索する。即ち、検索部17は、記録装置30に蓄積されている膨大な画像情報の中から、部位情報に基づく部位であって、部位別特徴情報に基づく部位別特徴を有する画像の画像部分を検索し(S48)、当該画像部分の位置を指定するタイミング情報やトラック情報に基づいて当該画像部分読み出して、表示装置20に静止画表示させる(S49)(図1画像Pe2参照)。なお、検索部17は、この検索処理に、付随情報や能動操作情報を利用してもよい。 In S48, the search unit 17 searches for videos with similar characteristics. That is, the search unit 17 searches the vast amount of image information stored in the recording device 30 for an image portion that is based on the body part information and has a body part characteristic based on the body part characteristic information (S48), reads out the image portion based on timing information and track information that specify the position of the image portion, and displays it as a still image on the display device 20 (S49) (see image Pe2 in Figure 1). The search unit 17 may also use accompanying information and active operation information in this search process.

 更に、検索部17は、S48において検索した類似画像が撮像された被検者の経過情報が存在する場合には、経過情報を検索し、検索した検索情報について表示を行う(図1画像Pe3参照)。 Furthermore, if there is progress information for the subject whose similar image was captured in S48, the search unit 17 searches for the progress information and displays the searched information (see image Pe3 in Figure 1).

 このように本実施形態においては、各部位の画像に基づいてそれぞれの部位を部位別特徴によって分類し分類結果を蓄積しており、部位別特徴に基づいて画像を検索することによって、部位別特徴が類似する画像の検索が容易となる。これにより、部位別特徴が類似する自分の検査画像だけでなく、自分の検査画像に類似した他人の検査画像を抽出しやすくなり、診断や予防に役立てることができる。 In this manner, in this embodiment, each body part is classified according to its body part features based on the image of each body part, and the classification results are accumulated. By searching for images based on the body part features, it becomes easy to search for images with similar body part features. This makes it easier to extract not only one's own examination images with similar body part features, but also other people's examination images similar to one's own examination images, which can be useful for diagnosis and prevention.

 なお、内視鏡検査や内視鏡を用いた処置や手術を実施しているときの、術者(施行医)の動作や、介助者の動作に関する情報を用いて、手技まで含めて類似した画像を検索するようにしても良い。同様に、当該検査や処置、手術に用いた処置具や機器の設定情報を用いて、画像を検索するようにしても良い。 In addition, information on the movements of the surgeon (doctor performing the examination) or the movements of the assistant during an endoscopic examination or treatment or surgery using an endoscope may be used to search for similar images, including the procedure. Similarly, images may be searched for using setting information on the treatment tools and equipment used in the examination, treatment, or surgery.

 本実施形態では、消化管内視鏡検査を例に説明したが、腹腔鏡手術や胸腔鏡手術等、消化管内部に挿入する内視鏡以外の内視鏡(外科分野、耳鼻咽喉科分野、婦人科分野、泌尿器科分野等)に対しても適用できる。
 腸管のように管が一本繋がっている場合のみならず、気管支のような部位の場合は、管が枝分かれしているが、この場合は、どの管を選んだかの情報を付与した方が好ましい。
In this embodiment, gastrointestinal endoscopic examination has been used as an example, but the present invention can also be applied to endoscopes other than those inserted into the gastrointestinal tract (in fields such as surgery, otolaryngology, gynecology, and urology), such as those used in laparoscopic surgery and thoracoscopic surgery.
Not only in the case of a single connected tube such as the intestine, but also in the case of a region such as the bronchi, the tubes are branched. In this case, it is preferable to add information on which tube has been selected.

 また、内視鏡はその特性上、挿入と抜去で体内を往復するが、その挿入時と抜去時でそれぞれ分けて、特徴を分類してもよい。その時は、一つの症例に対し、図4のような表が2つ作成されることになる。管腔などが摩擦で押されたり引っ張られたりして特徴が変化する可能性があり、平均的な値として表に整理してもよい。 Also, due to its nature, an endoscope travels back and forth within the body when inserted and removed, and the characteristics can be classified separately for when it is inserted and when it is removed. In that case, two tables like the one in Figure 4 will be created for one case. The characteristics can change when the lumen is pushed or pulled by friction, and so these can be organized in a table as average values.

 本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。更に、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiments, and can be embodied by modifying the components in the implementation stage without departing from the gist of the invention. In addition, various inventions can be formed by appropriately combining the multiple components disclosed in the above-described embodiments. For example, some of the components shown in the embodiments may be deleted. Furthermore, components from different embodiments may be appropriately combined.

 また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD-ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記録又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールしたりすることで、容易に本実施形態の内視鏡用画像分類装置を実現することができる。 Furthermore, among the technologies described herein, many of the controls and functions mainly described in the flowcharts can be set by a program, and the above-mentioned controls and functions can be realized by having a computer read and execute the program. The program can be recorded or stored in whole or in part as a computer program product on portable media such as flexible disks, CD-ROMs, nonvolatile memories, or storage media such as hard disks and volatile memories, and can be distributed or provided at the time of product shipment or via portable media or communication lines. A user can easily realize the endoscopic image classification device of this embodiment by downloading the program via a communication network and installing it on a computer, or by installing it from a recording medium on a computer.

Claims (20)

 内視鏡の体内への挿入又は体内からの抜去過程で順次得られた撮像画像に従って、人体における解剖学的な部位を判定する部位判定部と、
 上記判定された部位の特徴である部位別特徴を1つ以上の判定項目について判定して部位別特徴情報を得る特徴判定部と、
 上記部位毎の上記部位別特徴情報を上記撮像画像に関連付けて記録する関連付け部と、
を具備することを特徴とする内視鏡用画像分類装置。
a part determination unit that determines an anatomical part of a human body according to images sequentially obtained during the process of inserting the endoscope into the body or removing the endoscope from the body;
a feature determination unit that determines a feature by region, which is a feature of the determined region, for one or more determination items to obtain feature information by region;
an association unit that associates the part-specific characteristic information for each of the parts with the captured image and records the information;
An endoscopic image classification device comprising:
 上記挿入又は抜去過程において通過する複数の部位毎に、それぞれの部位の特徴を記した上記部位別特徴情報として表形式の情報を記録する記録制御部、
を更に具備することを特徴とする請求項1に記載の内視鏡用画像分類装置。
a recording control unit that records information in a table format as the site-specific characteristic information describing the characteristics of each of a plurality of sites through which the device passes during the insertion or removal process;
The endoscopic image classification device according to claim 1 , further comprising:
 上記挿入又は抜去過程において通過する複数の部位毎に、それぞれの部位について上記部位別特徴を判定するための上記判定項目を参照するためのデータベース、
を更に具備することを特徴とする請求項1に記載の内視鏡用画像分類装置。
a database for referring to the judgment items for judging the site-specific characteristics for each of a plurality of sites passed through during the insertion or removal process;
The endoscopic image classification device according to claim 1 , further comprising:
 上記データベースは、能動的処置に従った画像変化の上記部位別特徴を判定するための上記判定項目を含む、
ことを特徴とする請求項1に記載の内視鏡用画像分類装置。
The database includes the judgment items for judging the site-specific characteristics of the image change following an active treatment.
The endoscopic image classification device according to claim 1 .
 上記データベースは、上記解剖学的な部位において推奨する能動操作の情報を含み、
 上記能動操作の情報に従って、内視鏡操作者にガイドを表示する表示制御部、
を更に具備することを特徴とする請求項3に記載の内視鏡用画像分類装置。
the database includes information of recommended active manipulations at the anatomical site;
a display control unit that displays a guide to an endoscope operator according to the information on the active operation;
The endoscopic image classification device according to claim 3, further comprising:
 第1の症例において上記内視鏡の体内への挿入又は体内からの抜去過程で上記内視鏡が通過する上記解剖学的な部位毎に求めた部位別特徴情報を用いて、第2の症例において取得された内視鏡画像を検索する検索部、
を更に具備する請求項1に記載の内視鏡用画像分類装置。
a search unit that searches for an endoscopic image acquired in a second case by using the site-specific characteristic information obtained for each anatomical site through which the endoscope passes during the insertion or removal of the endoscope into or from the body in a first case;
The endoscopic image classification device according to claim 1 , further comprising:
 上記内視鏡が体内に挿入されているときにおける術者の操作に基づく信号を判定して能動操作情報を得る能動操作判定部を更に具備し、
 上記関連付け部は、上記部位を示す部位情報、上記部位別特徴情報及び上記能動操作情報を上記撮像画像に関連付けて記録する、
ことを特徴とする請求項1に記載の内視鏡用画像分類装置。
an active operation determination unit that determines a signal based on an operation by an operator while the endoscope is inserted into a body and obtains active operation information;
The associating unit associates part information indicating the part, the part feature information, and the active operation information with the captured image and records them.
The endoscopic image classification device according to claim 1 .
 上記撮像画像には付随情報が付加されており、
 上記関連付け部は、上記部位情報、上記部位別特徴情報、上記能動操作情報及び上記付随情報を上記撮像画像に関連付けて記録する、
ことを特徴とする請求項7に記載の内視鏡用画像分類装置。
The captured image has accompanying information added thereto,
the associating unit associates the body part information, the body part feature information, the active operation information, and the accompanying information with the captured image and records them;
The endoscopic image classification device according to claim 7 .
 上記特徴判定部は、上記部位別特徴の判定結果をテキスト形式、符号又は表形式にて分類して示す部位別特徴情報を得る、
ことを特徴とする請求項1に記載の内視鏡用画像分類装置。
The feature determination unit obtains part-specific feature information indicating the result of the determination of the part-specific features in a text format, a code format, or a table format.
The endoscopic image classification device according to claim 1 .
 上記関連付け部は、上記撮像画像のファイルを記録する際に上記表形式の上記部位別特徴情報を上記撮像画像にメタデータとして付加して記録する、
ことを特徴とする請求項9に記載の内視鏡用画像分類装置。
the associating unit adds the part-by-part characteristic information in the table format to the captured image as metadata when recording a file of the captured image, and records the information.
The endoscopic image classification device according to claim 9 .
 上記関連付け部は、上記部位別特徴情報を上記撮像画像のタイミング情報に対応させて上記撮像画像に関連付けて記録する、
ことを特徴とする請求項9に記載の内視鏡用画像分類装置。
The associating unit associates the part-specific characteristic information with timing information of the captured image and records the information in association with the captured image.
The endoscopic image classification device according to claim 9 .
 上記特徴判定部は、上記順次得られる撮像画像の各コマの画像変化に基づいて上記部位別特徴を判定する、
ことを特徴とする請求項1に記載の内視鏡用画像分類装置。
the feature determination unit determines the site-specific features based on image changes in each frame of the sequentially acquired captured images;
The endoscopic image classification device according to claim 1 .
 上記撮像画像のタイミングに関連した上記能動操作情報を取得し、上記能動操作に対応する画像の変化に従って上記部位別特徴を判定する、
ことを特徴とする請求項1に記載の内視鏡用画像分類装置。
acquiring the active operation information related to a timing of the captured image, and determining the body part feature according to a change in the image corresponding to the active operation;
The endoscopic image classification device according to claim 1 .
 上記部位判定部により判定された部位の撮像画像について、上記部位別特徴情報に基づく検索処理を行って類似する症例の撮像画像を抽出する検索部、
を更に具備することを特徴とする請求項1に記載の内視鏡用画像分類装置。
a search unit that performs a search process based on the part-by-part characteristic information on the captured images of the part determined by the part determination unit to extract captured images of similar cases;
The endoscopic image classification device according to claim 1 , further comprising:
 上記検索部の検索結果を表示装置に表示するための表示制御部、
を更に具備することを特徴とする請求項9に記載の内視鏡用画像分類装置。
a display control unit for displaying a search result of the search unit on a display device;
The endoscopic image classification device according to claim 9, further comprising:
 上記検索部は、上記類似する症例の撮像画像が撮像された被検者の経過情報が存在する場合には、当該経過情報を検索し、
 上記表示制御部は、上記経過情報について表示を行う、
ことを特徴とする請求項15に記載の内視鏡用画像分類装置。
The search unit searches for progress information of a subject from whom an image of the similar case has been captured, if such progress information exists;
The display control unit displays the progress information.
The endoscopic image classification device according to claim 15 .
 内視鏡の体内への挿入又は体内からの抜去過程で順次得られた撮像画像に従って、人体における解剖学的な部位を判定し、
 上記判定された部位の特徴である部位別特徴を1つ以上の判定項目について判定して部位別特徴情報を得、
 上記部位毎の上記部位別特徴情報を上記撮像画像に関連付けて記録する、
ことを特徴とする画像分類方法。
determining an anatomical location in the human body according to images sequentially obtained during the process of inserting the endoscope into the body or removing it from the body;
determining a region-specific characteristic, which is a characteristic of the determined region, for one or more determination items to obtain region-specific characteristic information;
The part-specific characteristic information for each of the parts is recorded in association with the captured image.
13. An image classification method comprising:
 コンピュータに、
 内視鏡の体内への挿入又は体内からの抜去過程で順次得られた撮像画像に従って、人体における解剖学的な部位を判定し、
 上記判定された部位の特徴である部位別特徴を1つ以上の判定項目について判定して部位別特徴情報を得、
 上記部位毎の上記部位別特徴情報を上記撮像画像に関連付けて記録する、
手順を実行させるための画像分類プログラム。
On the computer,
determining an anatomical location in the human body according to images sequentially obtained during the process of inserting the endoscope into the body or removing it from the body;
determining a region-specific characteristic, which is a characteristic of the determined region, for one or more determination items to obtain region-specific characteristic information;
The part-specific characteristic information for each of the parts is recorded in association with the captured image.
An image classification program to carry out the procedure.
 内視鏡の体内への挿入又は体内からの抜去過程で順次得られた撮像画像に従って、人体における解剖学的な部位を複数判定し、
 上記複数の部位毎に部位の特徴である部位別特徴を求めるために、上記部位毎に得るべき特徴を示す判定項目を整理したデータベースを参照し、
 上記判定されたそれぞれの部位について上記部位別特徴を判定し、判定した部位別特徴を上記撮像画像に関連付けて記録できるように、上記部位別特徴に基づく部位別特徴情報を得る、
ことを特徴とする画像分類方法。
determining a plurality of anatomical parts of the human body according to images sequentially obtained during the process of inserting the endoscope into the body or removing the endoscope from the body;
In order to obtain site-specific characteristics for each of the plurality of sites, a database is referred to that organizes judgment items indicating characteristics to be obtained for each of the sites;
determining the region-specific characteristics for each of the determined regions, and obtaining region-specific characteristic information based on the region-specific characteristics so that the determined region-specific characteristics can be recorded in association with the captured image;
13. An image classification method comprising:
 第1の症例において内視鏡の体内への挿入又は体内からの抜去過程で上記内視鏡が通過する解剖学的な部位毎の特徴を示す部位別特徴情報を用いて、第2の症例において取得された内視鏡画像を検索する
ことを特徴とする検索方法。
A search method characterized by searching for endoscopic images acquired in a second case using part-specific characteristic information indicating the characteristics of each anatomical part through which an endoscope passes during insertion or removal of the endoscope into or from the body in a first case.
PCT/JP2023/046630 2023-12-26 2023-12-26 Image classification device for endoscope, image classification method, image classification program, and search method Pending WO2025141689A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/046630 WO2025141689A1 (en) 2023-12-26 2023-12-26 Image classification device for endoscope, image classification method, image classification program, and search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/046630 WO2025141689A1 (en) 2023-12-26 2023-12-26 Image classification device for endoscope, image classification method, image classification program, and search method

Publications (1)

Publication Number Publication Date
WO2025141689A1 true WO2025141689A1 (en) 2025-07-03

Family

ID=96217073

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/046630 Pending WO2025141689A1 (en) 2023-12-26 2023-12-26 Image classification device for endoscope, image classification method, image classification program, and search method

Country Status (1)

Country Link
WO (1) WO2025141689A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012070938A (en) * 2010-09-28 2012-04-12 Fujifilm Corp Endoscope image recording apparatus, endoscope image recording assisting method and program
JP2012249956A (en) * 2011-06-06 2012-12-20 Toshiba Corp Capsule endoscope image processing apparatus and capsule endoscope system
WO2017183339A1 (en) * 2016-04-21 2017-10-26 富士フイルム株式会社 Endoscope system, processor device, and endoscope system operation method
WO2017199635A1 (en) * 2016-05-18 2017-11-23 オリンパス株式会社 Image analysis device, image analysis system, and method for operating image analysis device
WO2018179991A1 (en) * 2017-03-30 2018-10-04 富士フイルム株式会社 Endoscope system and method for operating same
JP2020081332A (en) * 2018-11-22 2020-06-04 富士フイルム株式会社 Endoscope information management system
WO2020194568A1 (en) * 2019-03-27 2020-10-01 Hoya株式会社 Endoscopic processor, information processing device, endoscope system, program, and information processing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012070938A (en) * 2010-09-28 2012-04-12 Fujifilm Corp Endoscope image recording apparatus, endoscope image recording assisting method and program
JP2012249956A (en) * 2011-06-06 2012-12-20 Toshiba Corp Capsule endoscope image processing apparatus and capsule endoscope system
WO2017183339A1 (en) * 2016-04-21 2017-10-26 富士フイルム株式会社 Endoscope system, processor device, and endoscope system operation method
WO2017199635A1 (en) * 2016-05-18 2017-11-23 オリンパス株式会社 Image analysis device, image analysis system, and method for operating image analysis device
WO2018179991A1 (en) * 2017-03-30 2018-10-04 富士フイルム株式会社 Endoscope system and method for operating same
JP2020081332A (en) * 2018-11-22 2020-06-04 富士フイルム株式会社 Endoscope information management system
WO2020194568A1 (en) * 2019-03-27 2020-10-01 Hoya株式会社 Endoscopic processor, information processing device, endoscope system, program, and information processing method

Similar Documents

Publication Publication Date Title
JP6657480B2 (en) Image diagnosis support apparatus, operation method of image diagnosis support apparatus, and image diagnosis support program
CN113164010A (en) Method for supporting diagnosis of disease using endoscopic image of digestive organ, diagnosis support system, diagnosis support program, and computer-readable recording medium storing the diagnosis support program
JP2022502150A (en) Devices and methods for diagnosing gastric lesions using deep learning of gastroscopy images
CN110097105A (en) A kind of digestive endoscopy based on artificial intelligence is checked on the quality automatic evaluation method and system
JP2017108792A (en) Endoscope work support system
JP7081862B1 (en) Surgery support system, surgery support method, and surgery support program
CN112823396A (en) Endoscope device and method for diagnosing gastric lesion based on gastric endoscope image obtained in real time
KR102261408B1 (en) The method of providing disease information using medical image
US20090023993A1 (en) System and method for combined display of medical devices
EP4211649B1 (en) Systems and methods for identifying images of polyps
WO2023095208A1 (en) Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method
US20240112450A1 (en) Information processing device and information processing method
US12524986B2 (en) Systems and methods for comparing distance between embedding of images to threshold to classify images as containing the same or different occurrence of event indicators
JP7789774B2 (en) Systems and methods for identifying images containing indicators of celiac-like disease
CN111768389A (en) Automatic timing method of digestive tract manipulation based on convolutional neural network and random forest
JP7611999B2 (en) Insertion assistance system, endoscope system, and method of operating the insertion assistance system
CN115485719A (en) System and method for analyzing image streams
JP7498739B2 (en) Method, system, and software program product for generating training data for endoscopy applications
WO2025141689A1 (en) Image classification device for endoscope, image classification method, image classification program, and search method
EP4497369A1 (en) Method and system for medical endoscopic imaging analysis and manipulation
JP7441452B2 (en) Training data generation method, learned model generation method, and disease onset prediction method
JP2007105458A (en) System and method for recognizing image in image database
WO2023218523A1 (en) Second endoscopic system, first endoscopic system, and endoscopic inspection method
CN116322467A (en) Estimated adequacy of surgery
CN117893953B (en) A method and system for evaluating standardized movements of flexible digestive tract endoscopy

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23963045

Country of ref document: EP

Kind code of ref document: A1