[go: up one dir, main page]

JP7594015B2 - 医療画像処理装置、医療画像処理装置の作動方法、内視鏡システム、及び医療画像処理プログラム - Google Patents

医療画像処理装置、医療画像処理装置の作動方法、内視鏡システム、及び医療画像処理プログラム Download PDF

Info

Publication number
JP7594015B2
JP7594015B2 JP2022545530A JP2022545530A JP7594015B2 JP 7594015 B2 JP7594015 B2 JP 7594015B2 JP 2022545530 A JP2022545530 A JP 2022545530A JP 2022545530 A JP2022545530 A JP 2022545530A JP 7594015 B2 JP7594015 B2 JP 7594015B2
Authority
JP
Japan
Prior art keywords
state
instrument
interest
treatment state
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022545530A
Other languages
English (en)
Other versions
JPWO2022044606A5 (ja
JPWO2022044606A1 (ja
Inventor
美沙紀 目黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2022044606A1 publication Critical patent/JPWO2022044606A1/ja
Publication of JPWO2022044606A5 publication Critical patent/JPWO2022044606A5/ja
Application granted granted Critical
Publication of JP7594015B2 publication Critical patent/JP7594015B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Endoscopes (AREA)

Description

本発明は医療画像処理装置、医療画像処理方法、内視鏡システム、及び医療画像処理プログラムに関する。
特許文献1に記載された内視鏡システムは、被写体を撮影した画像を取得する画像取得部と、画像を用いて被写体を認識する認識処理を行う認識部と、被写体に対する操作を判別する判別部と、判別部の判別結果を用いて、認識部を有効または無効に設定する設定部と、認識部の有効または無効の状態を報知する報知部と、を備える。
WO2020/036224号公報
本発明の一つの実施形態は、関心領域を適切な識別力で表示することができる医療画像処理装置、医療画像処理方法、内視鏡システム、及び医療画像処理プログラムを提供する。
本発明の第1の態様に係る医療画像処理装置は、プロセッサを備える医療画像処理装置であって、プロセッサは、被検体の観察画像を取得する画像取得処理と、観察画像から関心領域を認識する関心領域認識処理と、観察画像から被検体の処置に用いられる器具の情報である器具情報を認識する器具情報認識処理と、観察画像を、関心領域が器具情報の認識結果に応じた識別力を有する態様で、表示装置に識別表示させる表示制御処理と、を行う。
第2の態様に係る医療画像処理装置は第1の態様において、プロセッサは、器具情報認識処理において、器具情報に基づいて、器具により関心領域に対し処置が行われている処置状態、処置の準備がされている処置前状態、処置状態及び処置前状態以外の状態である非処置状態のいずれであるかを判断し、表示制御処理において、処置状態及び処置前状態では、非処置状態よりも識別力を低下させて観察画像を表示させる。
第3の態様に係る医療画像処理装置は第2の態様において、プロセッサは、表示制御処理において、処置状態では、処置前状態よりも識別力を低下させて観察画像を表示させる。
第4の態様に係る医療画像処理装置は第2または第3の態様において、プロセッサは、器具情報認識処理において、器具が挿入されているか、挿入された器具の種類、挿入の長さ、器具の操作状態、器具と関心領域の距離、観察画像で器具と関心領域が重なっているか否か、のうち少なくとも1つを含む器具情報に基づいて、処置状態、処置前状態、及び非処置状態のうちいずれであるかを判断する。
第5の態様に係る医療画像処理装置は第2から第4の態様のいずれか1つにおいて、プロセッサは、表示制御処理において、処置状態及び/または処置前状態では、関心領域を囲む枠を観察画像に重畳表示させる。
第6の態様に係る医療画像処理装置は第2から第5の態様のいずれか1つにおいて、プロセッサは、表示制御処理において、処置状態及び処置前状態では、関心領域を示す記号を観察画像に重畳表示させる。
第7の態様に係る医療画像処理装置は第2から第6の態様のいずれか1つにおいて、プロセッサは、表示制御処理において、処置状態及び処置前状態では、観察画像において関心領域の一部に文字、図形、記号のうち少なくとも1つを重畳表示させる。
第8の態様に係る医療画像処理装置は第5から第7の態様のいずれか1つにおいて、プロセッサは、処置状態及び前記処置前状態では、非処置状態と比較して重畳表示の識別力を低下させる。
第9の態様に係る医療画像処理装置は第2から第8の態様のいずれか1つにおいて、プロセッサは、表示制御処理において、処置状態及び処置前状態では、非処置状態と比較して関心領域の色彩及び/または明るさを変化させて観察画像を表示させる。
第10の態様に係る内視鏡システムは、第1から第9の態様のいずれか1つに係る医療画像処理装置と、観察画像を表示する表示装置と、被検体に挿入される内視鏡スコープであって、観察画像を撮影する撮影部を有する内視鏡スコープと、を備える。
本発明の第11の態様に係る医療画像処理方法は、コンピュータに、被検体の観察画像を取得する画像取得工程と、観察画像から関心領域を認識する関心領域認識工程と、観察画像から被検体の処置に用いられる器具の情報である器具情報を認識する器具情報認識工程と、観察画像を、関心領域が器具情報の認識結果に応じた識別力を有する態様で、表示装置に識別表示させる表示制御工程と、を行わせる。第11の態様及び以下の各態様に係る医療画像処理方法は、医療画像処理装置の作動方法として把握することもできる。
第12の態様に係る医療画像処理方法は第11の態様において、器具情報認識工程においては、器具情報に基づいて、器具により関心領域に対し処置を行っている処置状態、処置の準備がされている処置前状態、処置状態及び処置前状態以外の状態である非処置状態のいずれであるかを判断させ、表示制御工程においては、処置状態及び処置前状態では、非処置状態よりも識別力を低下させて観察画像を表示装置に表示させる。
第13の態様に係る医療画像処理方法は第12の態様において、表示制御工程においては、処置状態では、処置前状態よりも識別力を低下させて観察画像を表示させる。
第14の態様に係る医療画像処理方法は第12または第13の態様において、器具情報認識工程では、器具が挿入されているか、挿入された器具の種類、挿入の長さ、器具の操作状態、器具と関心領域の距離、観察画像で器具と関心領域が重なっているか否か、のうち少なくとも1つを含む器具情報に基づいて、処置状態、処置前状態、及び非処置状態のうちいずれであるかを判断する。
第15の態様に係る医療画像処理プログラムは第11から第14の態様のいずれか1つに係る医療画像処理方法をコンピュータに実行させる。第15の態様に係る医療画像処理プログラムのコンピュータ読み取り可能なコードを記録した非一時的記録媒体も、本発明の一態様として挙げることができる。
図1は、第1の実施形態に係る内視鏡システムの外観図である。 図2は、内視鏡システムの要部構成を示すブロック図である。 図3は、画像処理部の機能ブロック図である。 図4は、畳み込みニューラルネットワークの構成を示す図である。 図5は、フィルタによる畳み込み処理の様子を示す図である。 図6は、第1の実施形態に係る医療画像処理方法の手順を示すフローチャートである。 図7は、処置状態等の定義を設定する画面の例を示す図である。 図8は、識別表示の態様を設定する画面の例を示す図である。 図9は、生検ターゲット範囲(関心領域)の識別表示の例を示す図である。 図10は、関心領域の識別力を低下させて観察画像を表示した例を示す図である。 図11は、器具と関心領域の距離に応じた識別表示の例を示す図である。 図12は、器具の操作状態に応じた識別表示の例を示す図である。 図13は、器具の操作状態に応じた識別表示の他の例を示す図である。 図14は、器具の操作状態に応じた識別表示のさらに他の例を示す図である。 図15は、器具の操作状態に応じた識別表示のさらに他の例を示す図である。
以下、添付図面を参照しつつ、本発明に係る医療画像処理装置、医療画像処理方法、内視鏡システム、及び医療画像処理プログラムの実施形態について詳細に説明する。
<第1の実施形態>
<内視鏡システムの構成>
図1は、内視鏡システム10(内視鏡システム)の外観図であり、図2は内視鏡システム10の要部構成を示すブロック図である。図1,2に示すように、内視鏡システム10は、内視鏡スコープ100(画像取得部、内視鏡スコープ)、医療画像処理装置200(医療画像処理装置、プロセッサ、医療画像取得部、関心領域認識部、器具情報認識部、表示制御部、記録制御部)、光源装置300(光源装置)、及びモニタ400(表示装置、ディスプレイ)から構成される。
<内視鏡スコープの構成>
内視鏡スコープ100は、手元操作部102と、この手元操作部102に連設される挿入部104とを備える。術者(ユーザ)は手元操作部102を把持して操作し、挿入部104を被検体(生体)の体内に挿入して観察する。また、手元操作部102には送気送水ボタン141、吸引ボタン142、及び各種の機能を割り付けられる機能ボタン143、及び撮影指示操作(静止画像、動画像)を受け付ける撮影ボタン144が設けられている。
手元操作部102には、内視鏡スコープ100の個体情報(個体情報、スコープ情報)を記録するスコープ情報記録部139が設けられている。個体情報は、例えば内視鏡スコープ100のタイプ(直視か側視か、等)、機種、個体識別番号、光学系の特性(視野角、歪み等)、被検体の処置に使用される器具(処置具等)の情報等である。画像処理部204のスコープ情報取得部230(スコープ情報取得部、個体情報取得部;図3を参照)が、この個体情報を取得し、医療画像処理装置200による処理(画像取得処理、関心領域認識処理、器具情報認識処理、表示制御処理)に用いられる。なお、スコープ情報記録部139はライトガイドコネクタ108内等、他の部分に設けられていてもよい。
挿入部104は、手元操作部102側から順に、軟性部112、湾曲部114、先端硬質部116で構成されている。すなわち、先端硬質部116の基端側に湾曲部114が接続され、湾曲部114の基端側に軟性部112が接続される。挿入部104の基端側に手元操作部102が接続される。ユーザは、手元操作部102を操作することにより湾曲部114を湾曲させて先端硬質部116の向きを上下左右に変えることができる。先端硬質部116には、撮影光学系130、照明部123、鉗子口126等が設けられる(図1,2参照)。
観察、処置の際には、操作部208(図2参照)の操作により、照明部123の照明用レンズ123A,123Bから白色光及び/または狭帯域光(赤色狭帯域光、緑色狭帯域光、青色狭帯域光、及び紫色狭帯域光のうち1つ以上)を照射することができる。また、送気送水ボタン141の操作により図示せぬ送水ノズルから洗浄水が放出されて、撮影光学系130の撮影レンズ132(撮影レンズ、撮影部)、及び照明用レンズ123A,123Bを洗浄することができる。先端硬質部116で開口する鉗子口126には不図示の管路が連通しており、この管路に腫瘍摘出等のための図示せぬ処置具が挿通されて、適宜進退して被検体に必要な処置を施せるようになっている。
図1,2に示すように、先端硬質部116の先端側端面116Aには撮影レンズ132(撮影部)が配設されている。撮影レンズ132の奥にはCMOS(Complementary Metal-Oxide Semiconductor)型の撮像素子134(撮像素子、画像取得部)、駆動回路136、AFE138(AFE:Analog Front End)が配設されて、これらの要素により画像信号を出力する。撮像素子134はカラー撮像素子であり、特定のパターン配列(ベイヤー配列、X-Trans(登録商標)配列、ハニカム配列等)でマトリクス状に配置(2次元配列)された複数の受光素子により構成される複数の画素を備える。撮像素子134の各画素はマイクロレンズ、赤(R)、緑(G)、または青(B)のカラーフィルタ及び光電変換部(フォトダイオード等)を含んでいる。撮像素子134、駆動回路136、及びAFE138を1つのパッケージに含めたイメージセンサを用いてもよい。撮影光学系130は、赤,緑,青の3色の画素信号からカラー画像を生成することもできるし、赤,緑,青のうち任意の1色または2色の画素信号から画像を生成することもできる。なお、撮像素子134はXYアドレス型やCCD(Charge Coupled Device)型でもよい。また、撮像素子134の各画素は紫色光源310Vに対応した紫色カラーフィルタ、及び/または赤外光源に対応した赤外用フィルタをさらに備えていてもよい。
被検体の光学像は撮影レンズ132により撮像素子134の受光面(撮像面)に結像されて電気信号に変換され、不図示の信号ケーブルを介して医療画像処理装置200に出力されて映像信号に変換される。これにより、医療画像処理装置200に接続されたモニタ400に被写体の内視鏡画像(観察画像、医療画像)が画面表示される。
また、先端硬質部116の先端側端面116Aには、撮影レンズ132に隣接して照明部123の照明用レンズ123A、123Bが設けられている。照明用レンズ123A,123Bの奥には、後述するライトガイド170の射出端が配設され、このライトガイド170が挿入部104、手元操作部102、及びユニバーサルケーブル106に挿通され、ライトガイド170の入射端がライトガイドコネクタ108内に配置される。
ユーザは、上述した構成の内視鏡スコープ100(挿入部104)を被検体である生体内に挿入または抜去しながら決められたフレームレートで撮影を行う(医療画像取得部220の制御により行うことができる)ことにより、生体内の時系列の画像を順次撮影することができる。
<光源装置の構成>
図2に示すように、光源装置300は、照明用の光源310、絞り330、集光レンズ340、及び光源制御部350等から構成されており、観察光をライトガイド170に入射させる。光源310は、それぞれ赤色、緑色、青色、紫色の狭帯域光を照射する赤色光源310R、緑色光源310G、青色光源310B、及び紫色光源310Vを備えており、赤色、緑色、青色、及び紫色の狭帯域光を照射することができる。光源310による観察光の照度は光源制御部350により制御され、必要に応じて観察光の照度を変更する(上げる、または下げる)こと、及び照明を停止することができる。
光源310は赤色、緑色、青色、及び紫色の狭帯域光を任意の組合せで発光させることができる。例えば、赤色、緑色、青色、及び紫色の狭帯域光を同時に発光させて白色光(通常光)を観察光として照射することもできるし、いずれか1つもしくは2つを発光させることで狭帯域光(特殊光)を照射することもできる。光源310は、赤外光(狭帯域光の一例)を照射する赤外光源をさらに備えていてもよい。また、白色光を照射する光源と、白色光及び各狭帯域光を透過させるフィルタとにより、白色光または狭帯域光を観察光として照射してもよい。
<光源の波長帯域>
光源310は白色帯域の光、または白色帯域の光として複数の波長帯域の光を発生する光源でもよいし、白色の波長帯域よりも狭い特定の波長帯域の光を発生する光源でもよい。特定の波長帯域は、可視域の青色帯域もしくは緑色帯域、あるいは可視域の赤色帯域であってもよい。特定の波長帯域が可視域の青色帯域もしくは緑色帯域である場合、390nm以上450nm以下、または530nm以上550nm以下の波長帯域を含み、かつ、390nm以上450nm以下または530nm以上550nm以下の波長帯域内にピーク波長を有していてもよい。また、特定の波長帯域が可視域の赤色帯域である場合、585nm以上615nm以下、または610nm以上730nm以下、の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下または610nm以上730nm以下の波長帯域内にピーク波長を有していてもよい。
上述した特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有していてもよい。この場合、特定の波長帯域は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、または600nm以上750nm以下の波長帯域にピーク波長を有していてもよい。
また、光源310が発生する光の波長帯域は790nm以上820nm以下、または905nm以上970nm以下の波長帯域を含み、かつ、光源310が発生する光は790nm以上820nm以下または905nm以上970nm以下の波長帯域にピーク波長を有していてもよい。
また、光源310は、ピークが390nm以上470nm以下である励起光を照射する光源を備えていてもよい。この場合、被検体(生体)内の蛍光物質が発する蛍光の情報を有する医療画像(医用画像、生体内画像)を取得することができる。蛍光画像を取得する場合は、蛍光法用色素剤(フルオレスチン、アクリジンオレンジ等)を使用してもよい。
光源310の光源種類(レーザ光源、キセノン光源、LED光源(LED:Light-Emitting Diode)等)、波長、フィルタの有無等は被写体の種類、部位、観察の目的等に応じて構成することが好ましく、また観察の際は被写体の種類、部位、観察の目的等に応じて観察光の波長を組合せ及び/または切り替えることが好ましい。波長を切り替える場合、例えば光源の前方に配置され特定波長の光を透過または遮光するフィルタが設けられた円板状のフィルタ(ロータリカラーフィルタ)を回転させることにより、照射する光の波長を切り替えてもよい。
また、本発明を実施する際に用いる撮像素子は撮像素子134のように各画素に対しカラーフィルタが配設されたカラー撮像素子に限定されるものではなく、モノクロ撮像素子でもよい。モノクロ撮像素子を用いる場合、観察光の波長を順次切り替えて面順次(色順次)で撮像することができる。例えば出射する観察光の波長を(紫色、青色、緑色、赤色)の間で順次切り替えてもよいし、広帯域光(白色光)を照射してロータリカラーフィルタ(赤色、緑色、青色、紫色等)により出射する観察光の波長を切り替えてもよい。また、1または複数の狭帯域光(緑色、青色、紫色等)を照射してロータリカラーフィルタ(緑色、青色、紫色等)により出射する観察光の波長を切り替えてもよい。狭帯域光は波長の異なる2波長以上の赤外光(第1狭帯域光、第2狭帯域光)でもよい。
ライトガイドコネクタ108(図1,2参照)を光源装置300に連結することにより、光源装置300から照射された観察光がライトガイド170を介して照明用レンズ123A、123Bに伝送され、照明用レンズ123A、123Bから観察範囲に照射される。
<医療画像処理装置の構成>
図2に基づき医療画像処理装置200の構成を説明する。医療画像処理装置200は、内視鏡スコープ100から出力される画像信号を画像入力コントローラ202により入力し、画像処理部204(プロセッサ、コンピュータ)で必要な画像処理を行ってビデオ出力部206から出力する。これにより、モニタ400(表示装置)に観察画像(医療画像、内視鏡画像、生体内画像)が表示される。これらの処理はCPU210(CPU:Central Processing Unit、プロセッサ、コンピュータ)の制御下で行われる。通信制御部205は、図示せぬ病院内システム(HIS:Hospital Information System)や病院内LAN(Local Area Network)、及び/または外部のシステムやネットワークとの間で医療画像の取得等についての通信制御を行う。
<画像処理部の機能>
図3は画像処理部204の機能ブロック図である。画像処理部204は、医療画像取得部220(医療画像取得部)と、関心領域認識部222(関心領域認識部)と、器具情報認識部224(器具情報認識部)、表示制御部226(表示制御部)と、記録制御部228(記録制御部)と、スコープ情報取得部230(スコープ情報取得部)と、を備える。これらの機能を用いた処理については、詳細を後述する。
画像処理部204は、上述した機能により、医療画像の認識、生検状態等の判断、特徴量の算出、特定の周波数帯域の成分を強調または低減する処理、特定の対象(関心領域、所望の深さの血管等)を強調または目立たなくする処理を行うことができる。画像処理部204は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像に基づいて特定の波長帯域の情報を有する特殊光画像を取得する特殊光画像取得部を備えていてもよい。この場合、特定の波長帯域の信号は、通常光画像に含まれるRGB(R:赤、G:緑、B:青)あるいはCMY(C:シアン、M:マゼンタ、Y:イエロー)の色情報に基づく演算により得ることができる。また、画像処理部204は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像と、特定の波長帯域の光を照射して得る特殊光画像との少なくとも一方に基づく演算によって特徴量画像を生成する特徴量画像生成部を備え、医療画像(医用画像)としての特徴量画像を取得及び表示してもよい。なお、上述した処理はCPU210の制御下で行われる。
<各種のプロセッサによる機能の実現>
上述した画像処理部204の各部の機能は、各種のプロセッサ(processor)及び記録媒体を用いて実現できる。各種のプロセッサには、例えばソフトウェア(プログラム)を実行して各種の機能を実現する汎用的なプロセッサであるCPU(Central Processing Unit)が含まれる。また、上述した各種のプロセッサには、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)も含まれる。本発明のように画像の学習や認識を行う場合は、GPUを用いた構成が効果的である。さらに、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路なども上述した各種のプロセッサに含まれる。
各部の機能は1つのプロセッサにより実現されてもよいし、同種または異種の複数のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ、またはCPUとGPUの組み合わせ)で実現されてもよい。また、複数の機能を1つのプロセッサで実現してもよい。複数の機能を1つのプロセッサで構成する例としては、第1に、コンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の機能として実現する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、システム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の機能は、ハードウェア的な構造として、上述した各種のプロセッサを1つ以上用いて構成される。さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。これらの電気回路は、論理和、論理積、論理否定、排他的論理和、及びこれらを組み合わせた論理演算を用いて上述した機能を実現する電気回路であってもよい。
上述したプロセッサあるいは電気回路がソフトウェア(プログラム)を実行する際は、実行するソフトウェアのコンピュータ(例えば、画像処理部204を構成する各種のプロセッサや電気回路、及び/またはそれらの組み合わせ)で読み取り可能なコードをROM211(ROM:Read Only Memory)やフラッシュメモリ(不図示)等の非一時的記録媒体に記憶しておき、コンピュータがそのソフトウェアを参照する。非一時的記録媒体に記憶しておくソフトウェアは、本発明に係る医療画像処理方法(医療画像処理装置の作動方法)を実行するためのプログラム及び実行に際して用いられるデータ(医療画像の取得に関するデータ、生検状態等の定義や識別表示の態様設定に用いられるデータ、認識部で用いられるパラメータ等)を含む。ROM211ではなく各種の光磁気記録装置、半導体メモリ等の非一時的記録媒体にコードを記録してもよい。ソフトウェアを用いた処理の際には例えばRAM212(RAM:Random Access Memory)が一時的記憶領域として用いられ、また例えば不図示のEEPROM(Electrically Erasable and Programmable Read Only Memory)に記憶されたデータを参照することもできる。「非一時的記録媒体」として記録部207を用いてもよい。
また、ROM211(ROM:Read Only Memory)は不揮発性の記憶素子(非一時的記録媒体)であり、各種の画像処理方法(本発明に係る医療画像処理方法を含む)をCPU210及び/または画像処理部204(コンピュータ)に実行させるプログラムのコンピュータ読み取り可能なコードが記憶されている。RAM212(RAM:Random Access Memory)は各種処理の際の一時記憶用の記憶素子であり、また画像取得時のバッファとしても使用することができる。音声処理部209は、CPU210及び画像処理部204の制御により、医療画像処理、部位認識、報知等に関するメッセージ(音声)をスピーカ209A(報知部、スピーカ)から出力する。なお、プログラムは、図示しない外部記録媒体に記録されて配布され、その記録媒体からCPU210によりインストールされてもよい。または、プログラムは、ネットワークに接続されたサーバ等に、外部からアクセス可能な状態で記憶され、要求に応じてCPU210によりROM211にダウンロードされ、インストールおよび実行されてもよい。
<操作部>
操作部208は図示せぬキーボード、マウス等のデバイスにより構成することができ、ユーザは操作部208を介して医療画像処理方法の実行指示や実行に必要な条件(例えば、後述する処置状態等の定義や識別表示の態様)の設定を行うことができる。
<ニューラルネットワークを用いた認識部>
第1の実施形態では、ニューラルネットワーク等の学習済みモデル(生体を撮影した画像から構成される画像セットを用いて学習したモデル)を用いて、関心領域認識部222及び器具情報認識部224を構成することができる。関心領域認識部222は観察画像から関心領域を認識し(関心領域認識処理)、器具情報認識部224は観察画像から器具の情報(処置状態、処置前状態、非処置状態)を認識する(器具情報認識処理)。具体的には、器具情報認識部224は、観察画像から器具の挿入有無や挿入量、器具と関心領域の距離等を判断し、その結果に基づいて内視鏡スコープ100(医療画像処理装置200、内視鏡システム10)の状態が処置状態、処置前状態、非処置状態のいずれであるかを判断する。なお、「処置状態」、「処置前状態」、「非処置状態」は、例えばそれぞれ「器具により関心領域に対し実際に処置が行われている状態(ユーザが処置を行っている状態)」、「器具挿入等、ユーザが処置の準備をしている状態や、器具と関心領域の距離が近い状態」、「処置のための操作(器具挿入等)が行われていない状態(ユーザが処置及びその準備をしていない状態)や、器具と関心領域が遠い状態(処置状態及び処置前状態以外の状態)」として把握することができる。処置状態と処置前状態を分けずに、処置状態と非処置状態に区分してもよい。
なお、「処置」には生検(病変と疑わしい領域を切り取って病理などの検査に回すこと)の他、ESD(Endoscopic Submucosal Dissection;内視鏡的粘膜下層剥離術)やEMR(Endoscopic Mucosal Resection;内視鏡的粘膜切除術)等の内視鏡的切除も含み、「器具」は生検用の器具の他にESDやEMR等に用いられる器具も含む。
<認識部の構成の例>
以下、ニューラルネットワークとしてCNN(Convolutional Neural Network)を用いて認識(検出、鑑別等)を行う場合の認識部の構成について説明する。図4はCNN562(ニューラルネットワーク)の構成を示す図である。図4の(a)部分に示す例では、CNN562は、入力層562A、中間層562B、及び出力層562Cを有する。入力層562Aは医療画像取得部220が取得した内視鏡画像(医療画像、観察画像)を入力して特徴量を出力する。中間層562Bは畳み込み層564及びプーリング層565を含み、入力層562Aが出力する特徴量を入力して他の特徴量を算出する。これらの層は複数の「ノード」が「エッジ」で結ばれた構造となっており、入力した画像に適用される重み係数が、ノード及びエッジに関連付けられて、図示せぬ重み係数記憶部に記憶されている。重み係数の値は、学習が進むにつれて変化していく。
<中間層における処理>
中間層562Bは、畳み込み演算及びプーリング処理によって特徴量を算出する。畳み込み層564で行われる畳み込み演算はフィルタを使用した畳み込み演算により特徴マップを取得する処理であり、画像からのエッジ抽出等の特徴抽出の役割を担う。このフィルタを用いた畳み込み演算により、1つのフィルタに対して1チャンネル(1枚)の「特徴マップ」が生成される。「特徴マップ」のサイズは、畳み込みによりダウンスケーリングされる場合は、各層で畳み込みが行われるにつれて小さくなって行く。プーリング層565で行われるプーリング処理は畳み込み演算により出力された特徴マップを縮小(または拡大)して新たな特徴マップとする処理であり、抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。中間層562Bは、これらの処理を行う1または複数の層により構成することができる。なお、CNN562はプーリング層565なしで構成されていてもよい。
CNN562は、図4の(b)部分に示す例のように全結合層566を含んでいてもよい。CNN562の層構成は、畳み込み層564とプーリング層565とが1つずつ繰り返される場合に限らず、いずれかの層(例えば、畳み込み層564)が複数連続して含まれていてもよい。
図5は、図4に示したフィルタによる畳み込み処理の様子を示す図である。中間層562Bの最初(1番目)の畳み込み層では、複数の医療画像により構成される画像セット(学習時は学習用画像セット、部位認識時は部位認識用画像セット)とフィルタFとの畳み込み演算が行われる。画像セットは、縦がH、横がWの画像サイズを有するN枚(Nチャンネル)の画像により構成される。通常光画像を入力する場合、画像セットを構成する画像はR(赤色),G(緑色),B(青色)の3チャンネルの画像である。この画像セットと畳み込み演算されるフィルタFは、画像セットがNチャンネル(N枚)であるため、例えばサイズ5(5×5)のフィルタの場合、フィルタサイズは5×5×Nのフィルタになる。このフィルタFを用いた畳み込み演算により、1つのフィルタFに対して1チャンネル(1枚)の「特徴マップ」が生成される。2番目の畳み込み層で使用されるフィルタFは、例えばサイズ3(3×3)のフィルタの場合、フィルタサイズは3×3×Mになる。
1番目の畳み込み層と同様に、2番目からn番目の畳み込み層ではフィルタF~Fを用いた畳み込み演算が行われる。n番目の畳み込み層における「特徴マップ」のサイズが、2番目の畳み込み層における「特徴マップ」のサイズよりも小さくなっているのは、前段までの畳み込み層またはプーリング層によりダウンスケーリングされているからである。
中間層562Bの層のうち、入力側に近い畳み込み層では低次の特徴抽出(エッジの抽出等)が行われ、出力側に近づくにつれて高次の特徴抽出(認識対象の形状、構造等に関する特徴の抽出)が行われる。
なお、中間層562Bは畳み込み層564及びプーリング層565の他にバッチノーマライゼーションを行う層を含んでいてもよい。バッチノーマライゼーション処理は学習を行う際のミニバッチを単位としてデータの分布を正規化する処理であり、学習を速く進行させる、初期値への依存性を下げる、過学習を抑制する等の役割を担う。
出力層562Cは、中間層562Bが算出した特徴量を、部位認識に即した形式で出力する。出力層562Cは全結合層を含んでいてもよい。
なお、関心領域認識部222による関心領域認識処理と器具情報認識部224による器具情報認識処理は共通のニューラルネットワークにより行ってもよいし、別個のニューラルネットワークにより行ってもよい。
<生検ターゲット領域の識別表示>
内視鏡システム等を用いて範囲的な疾患を観察する場合、病状の進行が進んでいる領域を生検し病理検査の対象とすることが多い。この際、医療画像処理装置で生検ターゲット領域(関心領域等)を検出し、生検に適した領域を表示することが行われる。しかし、器具(処置具)を用いて生検する場合、器具を挿入した時点で医師は生検位置を把握しており、その状態でもターゲット領域に対する識別表示(識別力)を維持すると(後述する図9を参照)、医師の生検を妨げる恐れがある。そこで本発明では、以下に詳細を説明するように、観察画像における器具情報を認識して、観察画像を、生検ターゲット領域(関心領域)が器具情報の認識結果に応じた識別力を有する態様で、表示装置に識別表示させる。
なお、本発明において「識別力」とは、「観察画像を視認した医師等のユーザが、関心領域を他の領域と識別できること」を意味する。ユーザは、識別力が高いほど、関心領域を他の領域と明確に識別することができる。また、「識別表示」とは関心領域の識別力を高めた状態で観察画像を表示することを意味し、具体的には、後述する表示例で示すように、関心領域自体の強調(例えば塗りつぶし、輪郭表示)や関心領域を示す情報(例えば関心領域を囲む枠の表示、関心領域を示す図形や記号の表示)が含まれる。
<医療画像処理方法の各処理>
図6は、第1の実施形態に係る医療画像処理方法(医療画像処理装置の作動方法)の手順を示すフローチャートである。なお、学習用データを用いたCNN562の学習を実行済みであるものとする。
<生検状態等の定義>
画像処理部204は、操作部208を介したユーザの操作に応じて生検状態等の定義を設定する(ステップS100:定義設定工程)。ユーザは、図7に例示する画面700(モニタ400に表示される)を介して設定操作を行うことができる。
画面700は、ラジオボタン及び数値入力領域が配置された領域702,710,720を有する。ユーザは、ラジオボタンを操作することにより各項目による判断を行うか否かを設定することができ、また、各項目の判断基準となる数値を入力することができる。例えば、ユーザは領域702(生検状態の定義をする領域)において「器具挿入XXmm以上」のラジオボタン703Aをオンにし、領域703Bに数値(図7の例では10mm)を入力することにより、「器具挿入量が10mm以上である場合に、生検状態(処置状態)と判断する」ことを設定することができる。なお、器具情報認識部224は、観察画像で器具と関心領域の距離がゼロ、あるいはしきい値以下の場合に「器具と関心領域が重なっている」と判断することができる。
同様に、ユーザは器具と関心領域の距離、及び器具の使用状態(操作状態)により生検状態を判断することを設定できる。なお、「器具が使用状態(操作状態)である」には、例えば鉗子の刃が開いている場合や、スネアのワイヤーの環が縮んでいる場合が含まれる(後述する図9~15を参照)。また、器具の種類(鉗子、スネア、ブラシ等)に応じて異なる定義を設定してもよい。
ユーザは、生検状態(領域702)、生検準備状態(領域710)、及び非生検状態(領域720)についてこのような操作を行うことができる。なお、図7では器具情報を「生検状態(処置状態)」、「生検準備状態(処置前状態)」、「非生検状態(非処置状態)」の3段階に分ける例を示しているが、生検状態と非生検状態の2段階に分けてもよい。
ユーザは、このような判断基準のオン/オフや数値の入力を複数の項目について行うことができ、オンにした項目が複数ある場合は、器具情報認識部224(プロセッサ)は、それらの項目に対応する条件が全て満たされた場合に「生検状態(あるいは、生検準備状態、非生検状態)である」と判断することができる。図7の例では、器具情報認識部224は、器具挿入量が10mm以上であり、器具と関心領域の距離が10mm未満であり、器具が使用状態である場合に「生検状態である」と判断することができる。
<識別表示の態様設定>
表示制御部226(プロセッサ)は、操作部208を介したユーザの操作に応じて識別表示の態様を設定する(ステップS110:表示制御工程)。ユーザは、図8に例示する画面750(モニタ400に表示される)を介して設定操作を行うことができる。
図8に示すように、画面750は、ラジオボタンが配置された領域760,770,780を有する。これらの領域は、それぞれ、生検状態、生検準備状態、及び非生検状態での識別表示の態様を設定するための領域であり、ユーザは、各領域でラジオボタンを操作することにより識別表示の態様を設定することができる。生検状態についての領域760にはラジオボタン760A~760Dが設けられており、例えばラジオボタン760Aをオンにすると、生検状態において関心領域は点線で輪郭表示される。同様に、ユーザは領域770,780のラジオボタンで生検準備状態、非生検状態での識別表示の態様を設定することができる。
ユーザは上述したラジオボタン等の操作により、生検状態及び生検準備状態では非生検状態よりも関心領域の識別力が低下するような識別表示の態様を設定することができる。また、ユーザは、生検状態では生検準備状態よりも識別力が低下するように設定してもよい。器具情報認識部224(プロセッサ)は、ユーザの設定では生検状態及び生検準備状態での識別力が非生検状態での識別力よりも低下していない場合に警告のメッセージを出力してもよいし、いずれかの状態で表示態様が設定されたら他の状態での表示態様を連動して設定してもよい(生検状態及び生検準備状態では非生検状態よりも関心領域の識別力を低下させる)。
このように、内視鏡システム10(内視鏡システム)では、ユーザは必要に応じて生検状態等の定義及び識別表示の態様を設定できる。なお、生検状態等の定義及び識別表示の態様の設定は医療画像処理の開始時だけでなく、処理の間に任意のタイミングで行って良い。さらに、生検状態等の定義及び識別表示の態様の設定を、ユーザの操作によらずに内視鏡システム10が自動的に行ってもよい。
<内視鏡画像の取得>
医療画像取得部220(プロセッサ)は、時系列の内視鏡画像(観察画像、医療画像)を取得する(ステップS120:画像取得工程、画像取得処理)。医療画像取得部220は、内視鏡スコープ100で撮影された内視鏡画像を取得してもよいし、記録部207に記録された内視鏡画像を取得してもよい。記録制御部228は、取得した内視鏡画像を記録部207に記録することができる。
<関心領域及び器具情報の認識>
関心領域認識部222(プロセッサ)は、CNN562により、観察画像から関心領域を認識する(ステップS130:関心領域認識工程、関心領域認識処理)。また、器具情報認識部224(プロセッサ)CNN562により、観察画像から器具情報を認識する(ステップS140:器具情報認識工程、器具情報認識処理)。器具情報は、内視鏡スコープ100の鉗子口126に連通する管路に挿通された器具が被検体内に挿入されているか、被検体内に挿入された器具の種類、挿入の長さ(被検体内に挿入されている器具の長さ)、被検体内に挿入されている器具の操作状態、被検体内に挿入されている器具と関心領域の距離、観察画像で器具と関心領域が重なっているか否か、のうち少なくとも1つを含む。関心領域認識部222及び器具情報認識部224は、上述の認識において内視鏡スコープ100の個体情報を参照してもよい。
<生検状態等の判断>
器具情報認識部224は、図7で設定した定義及び判断基準となる数値、及びステップS140で認識した器具情報に基づいて、生検状態または生検準備状態であるか否かを判断する(ステップS150:状態判断工程)。生検状態または生検準備状態である場合(ステップS150でYES)、表示制御部226は、図8で設定した態様にしたがって、生検状態の場合は生検状態の識別表示態様を、生検準備状態の場合は生検準備状態の識別表示態様を設定する(ステップS160:表示制御工程)。非生検状態である場合(ステップS150でNO)は、表示制御部226は、図8で設定した態様にしたがって非生検状態の識別表示態様を設定する(ステップS170:表示制御工程)。なお、そもそも関心領域が認識されていない場合は、識別表示を行う必要がない。
<観察画像の識別表示>
表示制御部226(プロセッサ)は、観察画像を、関心領域が器具情報の認識結果に応じた識別力を有する態様で、表示装置に識別表示させる(ステップS180:表示制御工程)。
図9は、生検ターゲット範囲(関心領域)の識別表示の例である。同図に示す観察画像800において、領域830は真の関心領域であり(領域830の境界は説明の便宜上表示したものである;以下同様)、領域850は関心領域認識部222(CNN562)が認識(検出)した関心領域である。同図に示す状態では器具は挿入されておらず、非生検状態(非使用状態、非操作状態)である。同図において表示制御部226は領域850を塗りつぶし表示しており、関心領域の識別力が高いが、上述のように、生検状態や生検準備状態でもこのような識別表示が継続すると医師の妨げとなる恐れがある。そこで本実施形態では、生検状態及び生検準備状態において、以下に例示するように非生検状態よりも関心領域の識別力を低下させた識別表示を行う。なお、これらの識別表示は、生検以外の処置(ESDやEMR等)の場合も同様に行うことができる。
(表示例:その1)
図10は、関心領域の識別力を低下させて観察画像を表示した例を示す図(器具(処置具)の一例である鉗子900が挿入された生検準備状態)である。図10の(a)部分は観察画像802において関心領域の一部に矢印852(記号)を重畳表示させた例であり、同図の(b)部分は観察画像804において領域850(関心領域)を輪郭表示した例であり、同図の(c)部分は観察画像806において関心領域の一部に円形の図形854(図形)を重畳表示した例を示す。重畳表示する図形は、中サイズ(図8の領域770の「一部表示(中)」を参照)である。なお、重畳表示するのは、これらの例に示す図形や記号に限らず文字や数字でもよい。また、表示制御部226は、関心領域を囲む枠(バウンディングボックス等)を観察画像に重畳表示してもよい。表示制御部226は、生検状態では、重畳表示する文字や数字、記号の数を減らす、実線を点線にする、等により重畳表示の識別力を生検準備状態より低下させることができる。また、表示制御部226は、生検状態においては重畳表示の識別力を低下させる他に関心領域の色彩及び/または明るさを変化させる、等により生検準備状態より関心領域の識別力を低下させてもよい。
(表示例:その2)
図11は器具と関心領域との距離に応じた識別表示の例を示す図である。図11の(a)部分に示す状態では、観察画像808において鉗子900(器具、処置具)と関心領域(真の関心領域832,関心領域認識部222が認識した関心領域834)の距離が遠いので、関心領域834は輪郭表示されているが、同図の(b)部分に示す状態では、観察画像810において鉗子900と関心領域の距離が近いので、図形835(図形)により関心領域の割合を小さく表示して識別力を低下させている。なお、図11の(b)部分では関心領域834の輪郭を点線で示しているが、この点線は関心領域の割合を小さく表示していることを示すための参考線なので、実際にモニタ400に表示する必要はない。
(表示例:その3)
図12は器具の操作状態に応じた識別表示の例を示す図である。図12の(a)部分に示す状態では、観察画像812において鉗子900Aが挿入されているが刃が閉じている(非操作状態)ので、器具情報認識部224は「生検準備状態である」と判断することができる。そこで、表示制御部226は関心領域836(関心領域認識部222が認識した関心領域;真の関心領域は、関心領域832である)を塗りつぶし表示して識別力を高めている。これに対し、図12の(b)部分に示す状態では観察画像814において鉗子900Bの刃が開いている(操作状態)ので、器具情報認識部224は「生検状態である」と判断することができ、これにより表示制御部226は関心領域838を輪郭表示にして識別力を低下させている。
(表示例:その4)
図13は器具の操作状態に応じた識別表示の他の例を示す図である。図13の(a)部分に示す状態では、観察画像816においてスネア902(器具、処置具)が挿入されているが、ワイヤーの輪902Aが関心領域840(病変)に引っかかっていないため、器具情報認識部224は「生検準備状態である」と判断することができる。そこで、表示制御部226は関心領域840に図形866A(図形)を重畳表示して識別力を高めている。これに対し、図13の(b)部分に示す状態では、観察画像818において輪902Aが関心領域に引っかかりはじめているため、器具情報認識部224は「生検状態である」と判断することができる。そこで、表示制御部226は関心領域840に小さな円形の図形866B(図形)を重畳表示して、同図の(a)部分に示す状態よりも識別力を低下させている。
なお、図13の(b)部分に示す状態において、器具情報認識部224は「器具が関心領域に重なっている(距離がしきい値以下である)」と判断してもよい。
(表示例:その5)
図14は、器具の操作状態に応じた識別表示のさらに他の例を示す図である。図14の(a)部分に示す状態では、観察画像820においてスネア902(器具、処置具)が挿入されておりワイヤーの輪902Aが関心領域840(病変)に引っかかっているが、輪902Aが開いた状態なので、器具情報認識部224は「生検準備状態である」と判断することができる。そこで、表示制御部226は関心領域840に図形868A(図形)を重畳表示して識別力を高めている。これに対し、図14の(b)部分に示す状態では、観察画像822において輪902Aが閉じかけているため、器具情報認識部224は「生検状態である」と判断することができる。そこで、表示制御部226は関心領域840に矢印869A(記号)及び点869B(図形、記号)を重畳表示して、同図の(a)部分に示す状態よりも識別力を低下させている。
(表示例:その6)
図15は、器具の操作状態に応じた識別表示のさらに他の例を示す図である。図15の(a)部分に示す状態では、ブラシ904(器具)が関心領域842から遠いため器具情報認識部224は「生検準備状態である」と判断することができ、表示制御部226は関心領域842に図形870A(図形)を重畳表示して識別力を高めている。これに対し、図15の(b)部分に示す状態では、観察画像826においてブラシ904が関心領域842に近いため、器具情報認識部224は「生検状態である」と判断することができ、表示制御部226は関心領域842に矢印870B(記号)及び点870C(図形、記号)を重畳表示して、同図の(a)部分に示す状態よりも識別力を低下させている。
なお、上述した表示例において、表示制御部226は非生検状態と比較して塗りつぶし、輪郭、記号等の色彩及び/または明るさを変化させることにより生検状態、生検準備状態の識別力を低下させてもよい。
CPU210及び画像処理部204は、観察が終了するまで(ステップS190でNOの間)、ステップS120~S180の処理を繰り返す。
以上説明したように、第1の実施形態に係る医療画像処理装置、内視鏡システム、医療画像処理方法、及び医療画像処理プログラムによれば、ユーザは必要に応じて生検状態等の定義及び識別表示の態様を設定でき、器具情報認識部224が器具の情報を認識し、表示制御部226が認識結果に基づいて観察画像の識別表示を行うことにより、関心領域を適切な識別力で表示することができる。
(付記)
上述した態様に加えて、以下に記載の構成も本発明の範囲に含まれる。
(付記1)
医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出し、
医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
(付記2)
医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき対象の有無を検出し、
医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
(付記3)
医療画像解析結果取得部は、
医療画像の解析結果を記録する記録装置から取得し、
解析結果は、医療画像に含まれる注目すべき領域である注目領域と、注目すべき対象の有無のいずれか、もしくは両方である医療画像処理装置。
(付記4)
医療画像は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得た通常光画像である医療画像処理装置。
(付記5)
医療画像は、特定の波長帯域の光を照射して得た画像であり、
特定の波長帯域は、白色の波長帯域よりも狭い帯域である医療画像処理装置。
(付記6)
特定の波長帯域は、可視域の青色もしくは、緑色帯域である医療画像処理装置。
(付記7)
特定の波長帯域は、390nm以上450nm以下または530nm以上550nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、390nm以上450nm以下または530nm以上550nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
(付記8)
特定の波長帯域は、可視域の赤色帯域である医療画像処理装置。
(付記9)
特定の波長帯域は、585nm以上615nm以下または610nm以上730nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下または610nm以上730nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
(付記10)
特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する医療画像処理装置。
(付記11)
特定の波長帯域は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域にピーク波長を有する医療画像処理装置。
(付記12)
医療画像は生体内を写した生体内画像であり、
生体内画像は、生体内の蛍光物質が発する蛍光の情報を有する医療画像処理装置。
(付記13)
蛍光は、ピークが390nm以上470nm以下である励起光を生体内に照射して得る医療画像処理装置。
(付記14)
医療画像は生体内を写した生体内画像であり、
特定の波長帯域は、赤外光の波長帯域である医療画像処理装置。
(付記15)
特定の波長帯域は、790nm以上820nm以下または905nm以上970nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、790nm以上820nm以下または905nm以上970nm以下の波長帯域にピーク波長を有する医療画像処理装置。
(付記16)
医療画像取得部は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を取得する特殊光画像取得部を備え、
医療画像は特殊光画像である医療画像処理装置。
(付記17)
特定の波長帯域の信号は、通常光画像に含まれるRGBあるいはCMYの色情報に基づく演算により得る医療画像処理装置。
(付記18)
白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像と、特定の波長帯域の光を照射して得る特殊光画像との少なくとも一方に基づく演算によって、特徴量画像を生成する特徴量画像生成部を備え、
医療画像は特徴量画像である医療画像処理装置。
(付記19)
付記1から18のいずれか1つに記載の医療画像処理装置と、
白色の波長帯域の光、または、特定の波長帯域の光の少なくともいずれかを照射して画像を取得する内視鏡と、
を備える内視鏡装置。
(付記20)
付記1から18のいずれか1つに記載の医療画像処理装置を備える診断支援装置。
(付記21)
付記1から18のいずれか1つに記載の医療画像処理装置を備える医療業務支援装置。
以上で本発明の実施形態及び他の例に関して説明してきたが、本発明は上述した態様に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能である。
10 内視鏡システム
100 内視鏡スコープ
102 手元操作部
104 挿入部
106 ユニバーサルケーブル
108 ライトガイドコネクタ
112 軟性部
114 湾曲部
116 先端硬質部
116A 先端側端面
123 照明部
123A 照明用レンズ
123B 照明用レンズ
126 鉗子口
130 撮影光学系
132 撮影レンズ
134 撮像素子
136 駆動回路
138 AFE
139 スコープ情報記録部
141 送気送水ボタン
142 吸引ボタン
143 機能ボタン
144 撮影ボタン
170 ライトガイド
200 医療画像処理装置
202 画像入力コントローラ
204 画像処理部
205 通信制御部
206 ビデオ出力部
207 記録部
208 操作部
209 音声処理部
209A スピーカ
210 CPU
211 ROM
212 RAM
220 医療画像取得部
222 関心領域認識部
224 器具情報認識部
226 表示制御部
228 記録制御部
230 スコープ情報取得部
300 光源装置
310 光源
310B 青色光源
310G 緑色光源
310R 赤色光源
310V 紫色光源
330 絞り
340 集光レンズ
350 光源制御部
400 モニタ
562A 入力層
562B 中間層
562C 出力層
564 畳み込み層
565 プーリング層
566 全結合層
700 画面
702 領域
703A ラジオボタン
703B 領域
710 領域
720 領域
750 画面
760 領域
760A ラジオボタン
760B ラジオボタン
760C ラジオボタン
760D ラジオボタン
770 領域
780 領域
800 観察画像
802 観察画像
804 観察画像
806 観察画像
808 観察画像
812 観察画像
814 観察画像
816 観察画像
818 観察画像
822 観察画像
826 観察画像
830 領域
832 関心領域
834 関心領域
835 図形
836 関心領域
838 関心領域
840 関心領域
842 関心領域
850 領域
852 矢印
854 図形
866A 図形
866B 図形
868A 図形
869A 矢印
869B 点
870A 図形
870B 矢印
870C 点
900 鉗子
900A 鉗子
900B 鉗子
902 スネア
902A 輪
904 ブラシ
フィルタ
フィルタ
S100~S190 医療画像処理方法の各ステップ

Claims (15)

  1. プロセッサを備える医療画像処理装置であって、
    前記プロセッサは、
    被検体の観察画像を取得する画像取得処理と、
    前記観察画像から関心領域を認識する関心領域認識処理と、
    前記観察画像から前記被検体の処置に用いられる器具の情報である器具情報を認識する器具情報認識処理と、
    前記観察画像を、前記関心領域が前記器具情報の認識結果に応じた識別力を有する態様で、表示装置に識別表示させる表示制御処理と、
    を行い、
    前記器具情報認識処理において、前記器具情報に基づいて、前記器具による処置の状態を判断し、
    前記表示制御処理において、前記判断の結果に基づいて前記識別表示を行う、
    医療画像処理装置。
  2. 前記プロセッサは、
    前記器具情報認識処理において、前記器具情報に基づいて、前記器具による処置の状態が前記関心領域に対し処置が行われている処置状態、前記処置の準備がされている処置前状態、前記処置状態及び前記処置前状態以外の状態である非処置状態のいずれであるかを判断し、
    前記表示制御処理において、前記処置状態及び前記処置前状態では、前記非処置状態よりも前記識別力を低下させて前記観察画像を表示させる請求項1に記載の医療画像処理装置。
  3. 前記プロセッサは、
    前記表示制御処理において、前記処置状態では、前記処置前状態よりも前記識別力を低下させて前記観察画像を表示させる請求項2に記載の医療画像処理装置。
  4. 前記プロセッサは、
    前記器具情報認識処理において、前記器具が挿入されているか、挿入された前記器具の種類、前記挿入の長さ、前記器具の操作状態、前記器具と前記関心領域の距離、前記観察画像で前記器具と前記関心領域が重なっているか否か、のうち少なくとも1つを含む前記器具情報に基づいて、前記処置状態、前記処置前状態、及び前記非処置状態のうちいずれであるかを判断する請求項2または3に記載の医療画像処理装置。
  5. 前記プロセッサは、
    前記表示制御処理において、前記処置状態及び/または前記処置前状態では、前記関心領域を囲む枠を前記観察画像に重畳表示させる請求項2から4のいずれか1項に記載の医療画像処理装置。
  6. 前記プロセッサは、
    前記表示制御処理において、前記処置状態及び前記処置前状態では、前記関心領域を示す記号を前記観察画像に重畳表示させる請求項2から5のいずれか1項に記載の医療画像処理装置。
  7. 前記プロセッサは、
    前記表示制御処理において、前記処置状態及び前記処置前状態では、前記観察画像において前記関心領域の一部に文字、図形、記号のうち少なくとも1つを重畳表示させる請求項2から6のいずれか1項に記載の医療画像処理装置。
  8. 前記プロセッサは、
    前記処置状態及び前記処置前状態では、前記非処置状態と比較して前記重畳表示の識別力を低下させる請求項5から7のいずれか1項に記載の医療画像処理装置。
  9. 前記プロセッサは、
    前記表示制御処理において、前記処置状態及び前記処置前状態では、前記非処置状態と比較して前記関心領域の色彩及び/または明るさを変化させて前記観察画像を表示させる請求項2から8のいずれか1項に記載の医療画像処理装置。
  10. 請求項1から9のいずれか1項に記載の医療画像処理装置と、
    前記観察画像を表示する前記表示装置と、
    前記被検体に挿入される内視鏡スコープであって、前記観察画像を撮影する撮影部を有する内視鏡スコープと、
    を備える内視鏡システム。
  11. プロセッサを備える医療画像処理装置の作動方法であって、
    前記プロセッサは、
    被検体の観察画像を取得する画像取得工程と、
    前記観察画像から関心領域を認識する関心領域認識工程と、
    前記観察画像から前記被検体の処置に用いられる器具の情報である器具情報を認識する器具情報認識工程と、
    前記観察画像を、前記関心領域が前記器具情報の認識結果に応じた識別力を有する態様で、表示装置に識別表示させる表示制御工程と、
    実行し、
    前記器具情報認識工程において、前記器具情報に基づいて、前記器具による処置の状態を判断し、
    前記表示制御工程において、前記判断の結果に基づいて前記識別表示を行う作動方法。
  12. 前記プロセッサは、
    前記器具情報認識工程においては、前記器具情報に基づいて、前記器具により前記関心領域に対し処置が行われている処置状態、前記処置の準備がされている処置前状態、前記処置状態及び前記処置前状態以外の状態である非処置状態のいずれであるかを判断させ、
    前記表示制御工程においては、前記処置状態及び前記処置前状態では、前記非処置状態よりも前記識別力を低下させて前記観察画像を前記表示装置に表示させる請求項11に記載の作動方法。
  13. 前記プロセッサは、
    前記表示制御工程においては、前記処置状態では、前記処置前状態よりも前記識別力を低下させて前記観察画像を表示させる請求項12に記載の作動方法。
  14. 前記プロセッサは、
    前記器具情報認識工程では、前記器具が挿入されているか、挿入された前記器具の種類、前記挿入の長さ、前記器具の操作状態、前記器具と前記関心領域の距離、前記観察画像で前記器具と前記関心領域が重なっているか否か、のうち少なくとも1つを含む前記器具情報に基づいて、前記処置状態、前記処置前状態、及び前記非処置状態のうちいずれであるかを判断する請求項12または13に記載の作動方法。
  15. 請求項11から14のいずれか1つに記載の作動方法をコンピュータに実行させる医療画像処理プログラム。
JP2022545530A 2020-08-24 2021-07-16 医療画像処理装置、医療画像処理装置の作動方法、内視鏡システム、及び医療画像処理プログラム Active JP7594015B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020140943 2020-08-24
JP2020140943 2020-08-24
PCT/JP2021/026720 WO2022044606A1 (ja) 2020-08-24 2021-07-16 医療画像処理装置、医療画像処理方法、内視鏡システム、及び医療画像処理プログラム

Publications (3)

Publication Number Publication Date
JPWO2022044606A1 JPWO2022044606A1 (ja) 2022-03-03
JPWO2022044606A5 JPWO2022044606A5 (ja) 2023-05-24
JP7594015B2 true JP7594015B2 (ja) 2024-12-03

Family

ID=80355025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022545530A Active JP7594015B2 (ja) 2020-08-24 2021-07-16 医療画像処理装置、医療画像処理装置の作動方法、内視鏡システム、及び医療画像処理プログラム

Country Status (5)

Country Link
US (1) US12478437B2 (ja)
EP (1) EP4201301A4 (ja)
JP (1) JP7594015B2 (ja)
CN (1) CN116234487A (ja)
WO (1) WO2022044606A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115265620B (zh) * 2022-09-28 2023-01-17 明度智云(浙江)科技有限公司 一种仪器显示数据的获取录入方法、装置和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016064281A (ja) 2015-12-25 2016-04-28 オリンパス株式会社 内視鏡装置
US20200188033A1 (en) 2018-12-13 2020-06-18 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4063933B2 (ja) * 1997-12-01 2008-03-19 オリンパス株式会社 手術シミュレーション装置
US11452464B2 (en) * 2012-04-19 2022-09-27 Koninklijke Philips N.V. Guidance tools to manually steer endoscope using pre-operative and intra-operative 3D images
US10485629B2 (en) * 2017-02-24 2019-11-26 Sony Olympus Medical Solutions Inc. Endoscope device
JP6833978B2 (ja) * 2017-03-30 2021-02-24 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
CN110663251B (zh) * 2017-06-02 2021-12-31 富士胶片株式会社 医疗图像处理装置
WO2019079126A1 (en) * 2017-10-17 2019-04-25 Verily Life Sciences Llc DISPLAYING PREOPERATIVE AND INTRA-OPERATIVE IMAGES
CN109215079B (zh) * 2018-07-17 2021-01-15 艾瑞迈迪医疗科技(北京)有限公司 图像处理方法、手术导航设备、电子设备、存储介质
CN112566538B (zh) 2018-08-17 2024-11-12 富士胶片株式会社 内窥镜系统
JP7206770B2 (ja) * 2018-10-05 2023-01-18 コニカミノルタ株式会社 超音波診断装置、超音波画像表示方法、及びプログラム
US11026561B2 (en) * 2019-03-21 2021-06-08 Verb Surgical Inc. Method and system for automatically repositioning a viewable area within an endoscope video view

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016064281A (ja) 2015-12-25 2016-04-28 オリンパス株式会社 内視鏡装置
US20200188033A1 (en) 2018-12-13 2020-06-18 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method

Also Published As

Publication number Publication date
US12478437B2 (en) 2025-11-25
EP4201301A4 (en) 2024-02-21
US20230157768A1 (en) 2023-05-25
WO2022044606A1 (ja) 2022-03-03
CN116234487A (zh) 2023-06-06
JPWO2022044606A1 (ja) 2022-03-03
EP4201301A1 (en) 2023-06-28

Similar Documents

Publication Publication Date Title
JP7430287B2 (ja) 医用画像処理装置及び内視鏡システム
JP7170032B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
JP7629050B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP7038641B2 (ja) 医療診断支援装置、内視鏡システム、及び作動方法
JP7526449B2 (ja) 学習済みモデルの生成方法、内視鏡画像学習方法及びプログラム
JP7048732B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
JP2023026480A (ja) 医療画像処理装置、内視鏡システム、及び医療画像処理装置の作動方法
JP7507797B2 (ja) 医用画像処理装置、内視鏡システム、医用画像処理装置の作動方法、プログラム、及び記録媒体
US20250151974A1 (en) Medical image processing apparatus, endoscope system, and medical image processing method
JP7530434B2 (ja) 医療画像処理方法及び医療画像処理装置
JP7125499B2 (ja) 画像処理装置及び画像処理方法
JP7774610B2 (ja) 医療画像処理装置、内視鏡システム、医療画像処理方法、医療画像処理プログラム、及び記録媒体
JP7594015B2 (ja) 医療画像処理装置、医療画像処理装置の作動方法、内視鏡システム、及び医療画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241121

R150 Certificate of patent or registration of utility model

Ref document number: 7594015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150