[go: up one dir, main page]

JP2018185265A - Information processing apparatus, control method, and program - Google Patents

Information processing apparatus, control method, and program Download PDF

Info

Publication number
JP2018185265A
JP2018185265A JP2017088231A JP2017088231A JP2018185265A JP 2018185265 A JP2018185265 A JP 2018185265A JP 2017088231 A JP2017088231 A JP 2017088231A JP 2017088231 A JP2017088231 A JP 2017088231A JP 2018185265 A JP2018185265 A JP 2018185265A
Authority
JP
Japan
Prior art keywords
region
layer
gland duct
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017088231A
Other languages
Japanese (ja)
Other versions
JP6819445B2 (en
Inventor
弘泰 齊賀
Hiroyasu Saiga
弘泰 齊賀
朝春 喜友名
Asaharu Kiyuna
朝春 喜友名
慶子 吉原
Keiko Yoshihara
慶子 吉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2017088231A priority Critical patent/JP6819445B2/en
Publication of JP2018185265A publication Critical patent/JP2018185265A/en
Application granted granted Critical
Publication of JP6819445B2 publication Critical patent/JP6819445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Processing (AREA)

Abstract

【課題】病理診断に利用できる新たな指標を病理画像データから得る。
【解決手段】情報処理装置2000は、病理画像データ10に含まれる組織を表す画像領域(組織領域20)から、正常な腺管で構成される層(第1層22)と、腫瘍腺管で構成される層(第2層24)を検出する。情報処理装置2000は、検出した第1層22と第2層24とに基づく指標値を算出する。例えば情報処理装置2000は、第1層22と第2層24の厚さ、又は検出した第1層22と第2層24の面積に基づく指標値を算出する。
【選択図】図1
A new index that can be used for pathological diagnosis is obtained from pathological image data.
An information processing apparatus 2000 includes a layer (first layer 22) composed of normal gland ducts and a tumor gland duct from an image area (tissue area 20) representing a tissue included in pathological image data 10. The layer to be constructed (second layer 24) is detected. The information processing apparatus 2000 calculates an index value based on the detected first layer 22 and second layer 24. For example, the information processing apparatus 2000 calculates an index value based on the thicknesses of the first layer 22 and the second layer 24 or the detected areas of the first layer 22 and the second layer 24.
[Selection] Figure 1

Description

本発明は、病理画像の画像解析に関する。   The present invention relates to image analysis of pathological images.

人や動物を診断する方法の1つとして、病理画像を用いた病理診断が行われている。病理画像とは、人や動物の体内の組織をカメラで撮像することで得られる画像である。   As one of methods for diagnosing humans and animals, pathological diagnosis using pathological images is performed. A pathological image is an image obtained by capturing a tissue of a human or animal body with a camera.

そして、病理画像のデータ(以下、病理画像データ)を画像解析することで病変の検出などを行う技術が開発されている。例えば特許文献1は、腺管内の核の分布によって腺管の異形度を評価し、その評価結果を出力する技術を開示している。   A technique for detecting a lesion by performing image analysis on pathological image data (hereinafter referred to as pathological image data) has been developed. For example, Patent Document 1 discloses a technique for evaluating a deformity of a gland duct by the distribution of nuclei in the gland duct and outputting the evaluation result.

特開2010−281636号公報JP 2010-281636 A

病理診断に利用できる指標は、腺管の異形度だけではない。本発明者は、病理診断に利用できる新たな指標を見出した。本発明の目的の一つは、病理診断に利用できる新たな指標を病理画像データから得る技術を提供することである。   The index that can be used for pathological diagnosis is not only the deformity of the duct. The present inventor has found a new index that can be used for pathological diagnosis. One of the objects of the present invention is to provide a technique for obtaining a new index that can be used for pathological diagnosis from pathological image data.

本発明の情報処理装置は、1)病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出手段と、2)前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出手段と、を有する。   The information processing apparatus according to the present invention includes 1) a first layer composed of normal gland ducts and a tumor gland duct from a tissue region included in the pathological image data by performing image processing on the pathological image data. Detecting means for detecting the second layer; and 2) calculating means for calculating an index value based on the thickness or area of the first layer and the second layer.

本発明の制御方法は、コンピュータによって実行される。当該制御方法は、1)病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出ステップと、2)前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出ステップと、を有する。   The control method of the present invention is executed by a computer. The control method includes: 1) image processing of pathological image data, so that a first layer composed of normal gland ducts and a second layer composed of tumor gland ducts from a tissue region included in the pathological image data And 2) a calculation step of calculating an index value based on the thickness or area of the first layer and the second layer.

本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。   The program of this invention makes a computer perform each step which the control method of this invention has.

本発明によれば、病理診断に利用できる新たな指標を病理画像データから得る技術が提供される。   According to the present invention, a technique for obtaining a new index that can be used for pathological diagnosis from pathological image data is provided.

実施形態1の情報処理装置の動作を概念的に例示する図である。FIG. 2 is a diagram conceptually illustrating an operation of the information processing apparatus according to the first embodiment. 実施形態1の情報処理装置の機能構成を例示するブロック図である。2 is a block diagram illustrating a functional configuration of the information processing apparatus according to the first embodiment. FIG. 情報処理装置を実現するための計算機を例示する図である。It is a figure which illustrates the computer for implement | achieving information processing apparatus. 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。3 is a flowchart illustrating a flow of processing executed by the information processing apparatus according to the first embodiment. 組織領域から第1層及び第2層を検出する処理の流れを例示するフローチャートである。It is a flowchart which illustrates the flow of the process which detects the 1st layer and the 2nd layer from a tissue region. 膨張処理の効果を例示する図である。It is a figure which illustrates the effect of an expansion process. 腺管領域であるか否かの判定が行われた後の病理画像データを概念的に例示する図である。It is a figure which illustrates notionally pathological image data after determination whether it is a gland duct area | region is performed. 閉領域の周辺領域を例示する図である。It is a figure which illustrates the peripheral region of a closed region. 組織の表面から最も遠い、腫瘍腺管の腺管領域の画素を検出する方法を概念的に例示する図である。It is a figure which illustrates notionally the method of detecting the pixel of the gland duct area | region of a tumor gland duct farthest from the surface of a tissue. 第1層を例示する図である。It is a figure which illustrates the 1st layer. 第2層を例示する図である。It is a figure which illustrates the 2nd layer. 実施形態2の情報処理装置の機能構成を例示する図である。6 is a diagram illustrating a functional configuration of an information processing apparatus according to a second embodiment.

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また各ブロック図において、特に説明がない限り、各ブロックは、ハードウエア単位の構成ではなく機能単位の構成を表している。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same reference numerals are given to the same components, and the description will be omitted as appropriate. In each block diagram, unless otherwise specified, each block represents a functional unit configuration, not a hardware unit configuration.

[実施形態1]
図1は、実施形態1の情報処理装置2000の動作を概念的に例示する図である。なお、図1は、情報処理装置2000の理解を容易にするためにその動作の一例を示しているにすぎず、情報処理装置2000の機能を何ら限定するものではない。
[Embodiment 1]
FIG. 1 is a diagram conceptually illustrating the operation of the information processing apparatus 2000 according to the first embodiment. FIG. 1 merely shows an example of the operation for facilitating the understanding of the information processing apparatus 2000, and does not limit the functions of the information processing apparatus 2000 at all.

情報処理装置2000は、病理画像データ10を画像処理する。病理画像データ10は、診断対象の人その他の動物(以下、患者)の体内の組織をカメラで撮像することで得られる画像データである。より具体的には、例えば病理画像データ10は、患者の体内から組織を採取し、その組織を顕微鏡で拡大し、拡大された組織をカメラで撮像することによって得られる。   The information processing apparatus 2000 performs image processing on the pathological image data 10. The pathological image data 10 is image data obtained by imaging a tissue in the body of a person to be diagnosed or another animal (hereinafter referred to as a patient) with a camera. More specifically, for example, the pathological image data 10 is obtained by collecting a tissue from a patient's body, enlarging the tissue with a microscope, and imaging the enlarged tissue with a camera.

情報処理装置2000は、病理画像データ10に含まれる組織を表す画像領域(以下、組織領域)から、正常な腺管で構成される層(以下、第1層)と、腫瘍腺管で構成される層(以下、第2層)を検出する。例えば図1の病理画像データ10では、組織領域20から、第1層22と第2層24が検出される。ここで、腫瘍腺管は、例えば「腺頸部に位置する増殖部を逸脱して腫瘍細胞が増殖した腺管」として定義される。なお、増殖部では腺管が腫瘍か非腫瘍か判別が難しいため、腫瘍が含まれる腺管をすべて腫瘍腺管として扱うのではなく、腫瘍が多く含まれる腺管を腫瘍腺管として扱ってもよい。正常な腺管は、腫瘍腺管以外の腺管である。   The information processing apparatus 2000 includes an image region (hereinafter referred to as a tissue region) representing a tissue included in the pathological image data 10, a layer composed of normal gland ducts (hereinafter referred to as a first layer), and a tumor gland duct. Layer (hereinafter referred to as second layer) is detected. For example, in the pathological image data 10 of FIG. 1, the first layer 22 and the second layer 24 are detected from the tissue region 20. Here, the tumor gland duct is defined as, for example, “a gland duct in which tumor cells have grown out of the proliferation part located in the gland neck”. In addition, because it is difficult to distinguish whether the gland duct is a tumor or non-tumor in the proliferative part, not all gland ducts containing tumors are treated as tumor gland ducts, but gland ducts containing many tumors are treated as tumor gland ducts. Good. Normal ducts are ducts other than tumor ducts.

情報処理装置2000は、検出した第1層22と第2層24とに基づく指標値を算出する。例えば情報処理装置2000は、第1層22と第2層24の厚さ、又は検出した第1層22と第2層24の面積に基づく指標値を算出する。   The information processing apparatus 2000 calculates an index value based on the detected first layer 22 and second layer 24. For example, the information processing apparatus 2000 calculates an index value based on the thicknesses of the first layer 22 and the second layer 24 or the detected areas of the first layer 22 and the second layer 24.

このように本実施形態の情報処理装置2000によれば、病理画像データ10から、正常腺管で構成される第1層22と、腫瘍腺管で構成される第2層24とが検出され、これら検出された第1層22と第2層24に基づく指標値が算出される。このように、本実施形態の情報処理装置2000によれば、病理診断に利用できる新たな指標が提供される。   Thus, according to the information processing apparatus 2000 of the present embodiment, the first layer 22 composed of normal gland ducts and the second layer 24 composed of tumor gland ducts are detected from the pathological image data 10, An index value based on the detected first layer 22 and second layer 24 is calculated. Thus, according to the information processing apparatus 2000 of the present embodiment, a new index that can be used for pathological diagnosis is provided.

例えば上記指標値は、腫瘍が組織表面からどの程度の深さまで浸潤しているか(浸潤の深さ)を定量的に表すための指標として利用できる。浸潤の深さは、転移・再発リスクの評価や、治療方法の選択をする上で重要な因子であり、これを定量的に表すことは臨床的に意義がある。   For example, the above index value can be used as an index for quantitatively expressing to what extent the tumor has infiltrated from the tissue surface (depth of infiltration). The depth of invasion is an important factor in evaluating the risk of metastasis / recurrence and selecting a treatment method, and it is clinically meaningful to express this quantitatively.

以下、本実施形態についてさらに詳細を述べる。   Hereinafter, the present embodiment will be described in further detail.

<機能構成の例>
図2は、情報処理装置2000の機能構成を例示するブロック図である。情報処理装置2000は、検出部2020及び算出部2040を有する。検出部2020は、病理画像データ10を画像処理することで、病理画像データ10に含まれる組織領域20から、正常腺管で構成される第1層22、及び腫瘍腺管で構成される第2層24を検出する。算出部2040は、検出した第1層22及び第2層24に基づく指標値を算出する。
<Example of functional configuration>
FIG. 2 is a block diagram illustrating the functional configuration of the information processing apparatus 2000. The information processing apparatus 2000 includes a detection unit 2020 and a calculation unit 2040. The detection unit 2020 performs image processing on the pathological image data 10, thereby causing the first layer 22 configured with normal gland ducts and the second layer configured with tumor gland ducts from the tissue region 20 included in the pathological image data 10. The layer 24 is detected. The calculation unit 2040 calculates an index value based on the detected first layer 22 and second layer 24.

<情報処理装置2000のハードウエア構成の例>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
<Example of Hardware Configuration of Information Processing Device 2000>
Each functional component of the information processing apparatus 2000 may be realized by hardware (eg, a hard-wired electronic circuit) that implements each functional component, or a combination of hardware and software (eg: It may be realized by a combination of an electronic circuit and a program for controlling it). Hereinafter, the case where each functional component of the information processing apparatus 2000 is realized by a combination of hardware and software will be further described.

図3は、情報処理装置2000を実現するための計算機1000を例示する図である。計算機1000は、任意の種類の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。   FIG. 3 is a diagram illustrating a computer 1000 for realizing the information processing apparatus 2000. The computer 1000 is an arbitrary type of computer. For example, the computer 1000 is a personal computer (PC), a server machine, a tablet terminal, or a smartphone. The computer 1000 may be a dedicated computer designed for realizing the information processing apparatus 2000 or a general-purpose computer.

計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。プロセッサ1040は、CPU(Central Processing Unit)や GPU(Graphics Processing Unit)などの演算処理装置である。メモリ1060は、RAM(Random Access Memory)などで実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、ROM、又はメモリカードなどで実現される補助記憶装置である。ただしストレージデバイス1080は、RAM など、主記憶装置の実現に用いられるハードウエアと同様のハードウエアで実現されてもよい。   The computer 1000 includes a bus 1020, a processor 1040, a memory 1060, a storage device 1080, an input / output interface 1100, and a network interface 1120. The bus 1020 is a data transmission path through which the processor 1040, the memory 1060, the storage device 1080, the input / output interface 1100, and the network interface 1120 transmit / receive data to / from each other. The processor 1040 is an arithmetic processing device such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The memory 1060 is a main storage device realized by a RAM (Random Access Memory) or the like. The storage device 1080 is an auxiliary storage device realized by a hard disk, an SSD (Solid State Drive), a ROM, a memory card, or the like. However, the storage device 1080 may be realized by hardware similar to the hardware used for realizing the main storage device such as RAM.

入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボード、マウス、又はディスプレイ装置などが接続される。   The input / output interface 1100 is an interface for connecting the computer 1000 and an input / output device. For example, a keyboard, a mouse, a display device, or the like is connected to the input / output interface 1100.

ネットワークインタフェース1120は、WAN(Wide Area Network)や LAN(Local Area Network)などの通信網に接続するためのインタフェースである。   The network interface 1120 is an interface for connecting to a communication network such as a WAN (Wide Area Network) or a LAN (Local Area Network).

ストレージデバイス1080は情報処理装置2000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、そのプログラムモジュールに対応する各機能を実現する。   The storage device 1080 stores program modules that implement the functions of the information processing apparatus 2000. The processor 1040 reads each program module into the memory 1060 and executes it, thereby realizing each function corresponding to the program module.

<処理の流れ>
図4は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。情報処理装置2000は、病理画像データ10を取得する(S102)。検出部2020は、病理画像データ10を画像処理することで、病理画像データ10に含まれる組織領域20から、正常腺管で構成される第1層22、及び腫瘍腺管で構成される第2層24を検出する(S104)。算出部2040は、検出した第1層22及び第2層24に基づく指標値を算出する(S106)。
<Process flow>
FIG. 4 is a flowchart illustrating the flow of processing executed by the information processing apparatus 2000 according to the first embodiment. The information processing apparatus 2000 acquires the pathological image data 10 (S102). The detection unit 2020 performs image processing on the pathological image data 10, thereby causing the first layer 22 configured with normal gland ducts and the second layer configured with tumor gland ducts from the tissue region 20 included in the pathological image data 10. The layer 24 is detected (S104). The calculation unit 2040 calculates an index value based on the detected first layer 22 and second layer 24 (S106).

<病理画像データ10の取得:S102>
情報処理装置2000は、画像解析の対象とする病理画像データ10を取得する(S102)。情報処理装置2000が病理画像データ10を取得する方法は任意である。例えば情報処理装置2000は、病理画像データ10が記憶されている記憶装置にアクセスすることで、病理画像データ10を取得する。病理画像データ10が記憶されている記憶装置は、病理画像データ10を生成するカメラの内部に設けられていてもよいし、そのカメラの外部に設けられていてもよい。また例えば、情報処理装置2000は、カメラから送信される病理画像データ10を受信することで、病理画像データ10を取得してもよい。
<Acquisition of pathological image data 10: S102>
The information processing apparatus 2000 acquires the pathological image data 10 to be subjected to image analysis (S102). The method by which the information processing apparatus 2000 acquires the pathological image data 10 is arbitrary. For example, the information processing apparatus 2000 acquires the pathological image data 10 by accessing a storage device in which the pathological image data 10 is stored. The storage device in which the pathological image data 10 is stored may be provided inside the camera that generates the pathological image data 10 or may be provided outside the camera. Further, for example, the information processing apparatus 2000 may acquire the pathological image data 10 by receiving the pathological image data 10 transmitted from the camera.

<第1層22及び第2層24の検出:S104>
検出部2020は、病理画像データ10に含まれる組織領域20から、第1層22及び第2層24を検出する(S104)。第1層22及び第2層24の検出は、例えば図5に示す流れで行われる。図5は、組織領域20から第1層22及び第2層24を検出する処理の流れを例示するフローチャートである。
<Detection of the first layer 22 and the second layer 24: S104>
The detection unit 2020 detects the first layer 22 and the second layer 24 from the tissue region 20 included in the pathological image data 10 (S104). The detection of the first layer 22 and the second layer 24 is performed, for example, according to the flow shown in FIG. FIG. 5 is a flowchart illustrating the flow of processing for detecting the first layer 22 and the second layer 24 from the tissue region 20.

検出部2020は、病理画像データ10から組織領域20を抽出する(S202)。検出部2020は、組織領域20から腺管を表す領域(以下、腺管領域)を抽出する(S204)。検出部2020は、組織領域20から抽出された各腺管領域を、正常腺管の腺管領域と、腫瘍腺管の腺管領域に分類する(S206)。検出部2020は、S206による分類の結果に基づき、組織領域20から第1層22と第2層24を検出する(S208)。   The detection unit 2020 extracts the tissue region 20 from the pathological image data 10 (S202). The detection unit 2020 extracts a region representing a gland duct (hereinafter referred to as a gland duct region) from the tissue region 20 (S204). The detection unit 2020 classifies each gland duct area extracted from the tissue area 20 into a gland duct area of a normal gland duct and a gland duct area of a tumor gland duct (S206). The detection unit 2020 detects the first layer 22 and the second layer 24 from the tissue region 20 based on the classification result in S206 (S208).

以下、図5のフローチャートにおける各ステップについてさらに詳細に説明する。   Hereinafter, each step in the flowchart of FIG. 5 will be described in more detail.

<組織領域20の抽出:S202>
検出部2020は、病理画像データ10から組織領域20を抽出する(S202)。ここで、病理画像データ10に含まれる組織には、ヘマトキシリン・エオシン染色が施されているとする。
<Extraction of tissue region 20: S202>
The detection unit 2020 extracts the tissue region 20 from the pathological image data 10 (S202). Here, it is assumed that the tissue included in the pathological image data 10 is stained with hematoxylin and eosin.

病理画像データ10において、組織領域20以外の画像領域は、染色された組織が含まれない部分であり、いわゆる背景領域として扱える。一方、病理画像データ10において、組織領域20は前景領域として扱える。そこで検出部2020は、病理画像データ10について背景分離を行い、その結果として得られる前景領域を、組織領域20として抽出する。   In the pathological image data 10, image regions other than the tissue region 20 are portions that do not include stained tissue, and can be treated as so-called background regions. On the other hand, in the pathological image data 10, the tissue region 20 can be treated as a foreground region. Therefore, the detection unit 2020 performs background separation on the pathological image data 10 and extracts a foreground region obtained as a result as the tissue region 20.

まず検出部2020は、染色のばらつきが小さくなるように、病理画像データ10の色補正(例えばガンマ補正)を行う。そして検出部2020は、病理画像データ10を前景領域と背景領域に分け、前景領域を組織領域20として抽出する。背景分離の具体的な方法には、既存の種々の方法を利用できる。なお、病理画像データ10の色補正は必ずしも行う必要はない。   First, the detection unit 2020 performs color correction (for example, gamma correction) on the pathological image data 10 so that the variation in staining is reduced. Then, the detection unit 2020 divides the pathological image data 10 into a foreground region and a background region, and extracts the foreground region as the tissue region 20. Various existing methods can be used as a specific method of background separation. Note that color correction of the pathological image data 10 is not necessarily performed.

ここで、検出部2020は、背景分離を行う際、病理画像データ10に対して膨張処理を行うことが好ましい。図6は、膨張処理の効果を例示する図である。図6において、膨張処理を行わずに背景分離を行うと、組織表面周辺の窪んだ部分が組織領域20に含まれない。一方、膨張処理後に背景分離を行うと、組織表面周辺の窪んだ部分も組織領域20に含まれるようになる。よって、膨張処理を行うことで、組織表面周辺の窪んだ部分に存在する腺管領域が、後述する腺管領域の抽出対象から除外されてしまうことを防ぐことができる。つまり、組織表面にある腺管領域も後述の処理で抽出できるようになる。   Here, the detection unit 2020 preferably performs an expansion process on the pathological image data 10 when performing background separation. FIG. 6 is a diagram illustrating the effect of the expansion process. In FIG. 6, when the background separation is performed without performing the expansion process, the recessed portion around the tissue surface is not included in the tissue region 20. On the other hand, when background separation is performed after the expansion process, a recessed portion around the tissue surface is also included in the tissue region 20. Therefore, by performing the expansion process, it is possible to prevent the ductal region existing in the recessed portion around the tissue surface from being excluded from the extraction target of the tubular region described later. That is, the ductal region on the tissue surface can be extracted by the processing described later.

<腺管領域の抽出:S204>
検出部2020は、組織領域20から腺管領域を抽出する(S204)。そのために、まず検出部2020は、組織領域20から、腺管領域の境界線であると推測される線(以下、候補境界線)を抽出する。組織領域20には、ここで抽出される候補境界線で囲われる閉領域が1つ以上含まれる。そこで検出部2020は、これら1つ以上の閉領域それぞれについて、腺管領域であるか否かを判定する。そして検出部2020は、腺管領域であると判定された閉領域を、腺管領域として抽出する。
<Extraction of gland duct region: S204>
The detection unit 2020 extracts a gland duct region from the tissue region 20 (S204). For this purpose, the detection unit 2020 first extracts a line (hereinafter referred to as a candidate boundary line) that is presumed to be a boundary line of the ductal region from the tissue region 20. The tissue region 20 includes one or more closed regions surrounded by the candidate boundary lines extracted here. Therefore, the detection unit 2020 determines whether each of the one or more closed regions is a gland duct region. Then, the detection unit 2020 extracts the closed area determined to be a ductal duct area as the ductal duct area.

<<候補境界線の抽出>>
検出部2020は、組織領域20に含まれるエッジを検出するエッジ検出を行い、検出されたエッジを候補境界線として抽出する。ここでは、エッジとして扱うのは、ヘマトキシリンで染色された画像領域である。例えば検出部2020は、病理画像データ10をヘマトキシリン、エオシン、白、及び赤の4値で構成される画像に変換する(4値化する)ことにより、病理画像データ10から、ヘマトキシリンで染色された画像領域を得る。なお、エッジ検出の具体的な方法には既存の技術を利用することができる。
<< Extraction of candidate boundary lines >>
The detection unit 2020 performs edge detection for detecting an edge included in the tissue region 20 and extracts the detected edge as a candidate boundary line. Here, an image region stained with hematoxylin is treated as an edge. For example, the detection unit 2020 converts the pathological image data 10 into an image composed of four values of hematoxylin, eosin, white, and red (four values), thereby staining the pathological image data 10 with hematoxylin. Get the image area. An existing technique can be used as a specific method of edge detection.

エッジ検出の際、検出部2020は、エッジ強調フィルタを利用してエッジを強調する処理を行ってもよい。これにより、例えば腺管領域の境界線の一部が途切れて写ってしまっている場合であっても、その途切れてしまっている部分をつなげることができるため、このような腺管領域を病理画像データ10から検出できるようになる。   At the time of edge detection, the detection unit 2020 may perform processing for enhancing an edge using an edge enhancement filter. As a result, for example, even when a part of the borderline of the ductal region is cut off, it is possible to connect the disconnected part. It can be detected from the data 10.

エッジ強調の強さ(エッジ強調フィルタのパラメタ)は、予め静的に定められていてもよいし、検出部2020によって動的に決定されてもよい。後者の場合、検出部2020は、病理画像データ10から得られる情報を利用してエッジ強調の強さを決定する。例えば検出部2020は、ヘマトキシリンで染色された領域の面積 Sh と、エオシンで染色された領域の面積 Se とに基づいて、エッジ強調の強さを決定する。より具体的には、Sh/(Sh+Se) の値が小さいほど、エッジ強調の強さを強くする。こうすることで、病理画像データ10の中にヘマトキシリンで染色された部分が少ないほどその部分が増える(エッジを強調される)ように病理画像データ10が補正される。   The strength of edge enhancement (parameter of edge enhancement filter) may be statically determined in advance or may be dynamically determined by the detection unit 2020. In the latter case, the detection unit 2020 uses the information obtained from the pathological image data 10 to determine the strength of edge enhancement. For example, the detection unit 2020 determines the strength of edge enhancement based on the area Sh of the region stained with hematoxylin and the area Se of the region stained with eosin. More specifically, the strength of edge enhancement is increased as the value of Sh / (Sh + Se) is smaller. By doing so, the pathological image data 10 is corrected so that the smaller the portion stained with hematoxylin in the pathological image data 10, the larger the portion (the edge is emphasized).

ここで、検出部2020は、候補境界線の抽出を行う前に、組織領域20からリンパ球領域で表される画像領域(以下、リンパ球領域)を除去する処理を行うことが好適である。リンパ球もヘマトキシリンで染色されるため、リンパ球領域もエッジ検出処理によってエッジとして抽出されてしまう可能性があるためである。   Here, it is preferable that the detection unit 2020 performs a process of removing an image region (hereinafter, a lymphocyte region) represented by a lymphocyte region from the tissue region 20 before extracting candidate boundary lines. This is because lymphocytes are also stained with hematoxylin, and the lymphocyte region may be extracted as an edge by the edge detection process.

病理画像データ10からリンパ球領域を検出する方法には、様々な方法を利用することができる。例えば検出部2020は、機械学習を利用して病理画像データ10からリンパ球領域を検出する。具体的には、リンパ球領域をラベリングした教師データを利用することで、画像データからリンパ球領域を検出する検出器を予め作成しておく。そして検出部2020は、この検出器に病理画像データ10を入力することで得られるリンパ球領域を、病理画像データ10から除去する。上記機械学習には、ディープラーニングを利用することが好適である。   Various methods can be used for detecting the lymphocyte region from the pathological image data 10. For example, the detection unit 2020 detects a lymphocyte region from the pathological image data 10 using machine learning. Specifically, a detector that detects a lymphocyte region from image data is created in advance by using teacher data obtained by labeling the lymphocyte region. Then, the detection unit 2020 removes the lymphocyte region obtained by inputting the pathological image data 10 to the detector from the pathological image data 10. It is preferable to use deep learning for the machine learning.

<<腺管領域であるか否かの判定>>
検出部2020は、候補境界線で囲まれた閉領域それぞれについて、腺管領域であるか否かの判定を行う。図7は、腺管領域であるか否かの判定が行われた後の病理画像データ10を概念的に例示する図である。図7において、閉領域30は点線の枠で囲われている領域であり、腺管領域32は実線の枠で囲われている領域である。図7において、病理画像データ10に含まれる閉領域30の一部が、腺管領域32として検出されている。
<<< Determination of whether or not it is a gland duct area >>>
The detection unit 2020 determines whether each of the closed regions surrounded by the candidate boundary lines is a gland duct region. FIG. 7 is a diagram conceptually illustrating the pathological image data 10 after the determination as to whether or not the region is a gland duct region. In FIG. 7, the closed region 30 is a region surrounded by a dotted line frame, and the gland duct region 32 is a region surrounded by a solid line frame. In FIG. 7, a part of the closed region 30 included in the pathological image data 10 is detected as a gland duct region 32.

閉領域30が腺管領域32であるか否かの判定は、例えば機械学習を利用して実現する。例えば、腺管領域をラベリングした画像データを教師データとして利用することで、閉領域が腺管領域であるか否かを識別する識別器を作成しておく。識別器は、例えばサポートベクタマシンとして実現する。   The determination as to whether or not the closed region 30 is the gland duct region 32 is realized using, for example, machine learning. For example, a discriminator for identifying whether or not the closed region is a gland duct region is created by using image data obtained by labeling the gland duct region as teacher data. The discriminator is realized as a support vector machine, for example.

識別器は、閉領域30の内部や周辺から得られる特徴量に基づいて、閉領域30が腺管領域であるか否かを識別する。例えばこの特徴量としては、1)閉領域30内におけるリンパ球領域の面積の割合、2)閉領域30内における白色領域の面積の割合、3)閉領域30内における間質領域の面積の割合、4)閉領域30内における細胞質の面積の割合、5)閉領域30内の白色領域における灰色領域の面積の割合、6)閉領域30の周辺領域におけるリンパ球領域の面積の割合、及び7)閉領域30の周辺領域における細胞核領域の面積の割合のうち、いずれか1つ以上を利用することができる。なお、周辺領域については後述する。   The discriminator discriminates whether or not the closed region 30 is a gland duct region based on the feature amount obtained from inside or around the closed region 30. For example, the feature amount includes 1) a ratio of the area of the lymphocyte region in the closed region 30, 2) a ratio of the area of the white region in the closed region 30, and 3) a ratio of the area of the interstitial region in the closed region 30. 4) Proportion of cytoplasm area in the closed region 30 5) Proportion of area of the gray region in the white region in the closed region 30 6) Proportion of area of the lymphocyte region in the peripheral region of the closed region 30 and 7 ) Any one or more of the ratios of the area of the cell nucleus region in the peripheral region of the closed region 30 can be used. The peripheral area will be described later.

ここで、閉領域30における白色領域は、閉領域30に含まれる画素のうち、所定の第1閾値以上の輝度を持つ画素で構成される画像領域である。例えば検出部2020は、前述した4値化が施された病理画像データ10を用い、4値化された閉領域30に含まれる白色の画素で構成される領域を、白色領域として抽出する。第1閾値は任意の値とすることができる。第1閾値は、検出部2020に予め設定されていてもよいし、検出部2020からアクセス可能な記憶装置に記憶させておいてもよい。   Here, the white region in the closed region 30 is an image region composed of pixels having a luminance equal to or higher than a predetermined first threshold among the pixels included in the closed region 30. For example, the detection unit 2020 uses the pathological image data 10 that has been subjected to the quaternarization described above, and extracts an area composed of white pixels included in the quaternarized closed area 30 as a white area. The first threshold value can be an arbitrary value. The first threshold value may be set in advance in the detection unit 2020 or may be stored in a storage device accessible from the detection unit 2020.

閉領域30における灰色領域は、閉領域30に含まれる画素のうち、上記第1閾値以上かつ第2閾値以下の輝度を持つ画素で構成される画像領域である。つまり、灰色領域は、白色領域を構成する画素のうち、比較的輝度が低い画素で構成される画像領域である。第2閾値は、第1閾値以上の任意の値とすることができる。第2閾値は、検出部2020に予め設定されていてもよいし、検出部2020からアクセス可能な記憶装置に記憶させておいてもよい。   The gray region in the closed region 30 is an image region composed of pixels having luminances equal to or higher than the first threshold and lower than or equal to the second threshold among the pixels included in the closed region 30. That is, the gray area is an image area composed of pixels with relatively low luminance among the pixels constituting the white area. The second threshold value can be any value equal to or greater than the first threshold value. The second threshold value may be set in advance in the detection unit 2020 or may be stored in a storage device accessible from the detection unit 2020.

閉領域30内における間質領域は、例えば次のようにして得られる領域である。まず検出部2020は、病理画像データ10をヘマトキシリン、エオシン、白、及び赤の4値で構成される画像に4値化することにより、病理画像データ10から、エオシンで染色された画像領域を得る。ただし、既に病理画像データ10を4値化した画像が生成されている場合には、その画像を利用できる。そして検出部2020は、エオシンで染色された画像領域のうち、色相の値が所定の閾値以上の画像領域であって、なおかつ閉領域30内にある画像領域を、閉領域30内における間質領域として得る。   The interstitial region in the closed region 30 is, for example, a region obtained as follows. First, the detection unit 2020 obtains an image region stained with eosin from the pathological image data 10 by binarizing the pathological image data 10 into an image including four values of hematoxylin, eosin, white, and red. . However, when an image obtained by converting the pathological image data 10 into a four-value has already been generated, the image can be used. Then, the detection unit 2020 selects an image area whose hue value is equal to or greater than a predetermined threshold among the image areas stained with eosin, and which is in the closed area 30, as an interstitial area in the closed area 30. Get as.

上記閾値は、予め定められている値であってもよいし、動的に決定される値であってもよい。後者の場合、例えば検出部2020は、次のようにして上記閾値を決定する。まず検出部2020は、細胞核領域の複数の画素(例えば100個の画素)の色の平均色を算出する。上記平均色は、細胞核領域の複数の画素の R 値の平均値、G の値の平均値、及び B の値の平均値で構成される色である。検出部2020は、病理画像データ10の各画素の色と上記平均色とについて、R 値、G 値、及び B 値で構成される3次元座標におけるユークリッド距離を算出する。そして、このユークリッド距離が0以上255以下の範囲となるように正規化する。このように各画素について算出したユークリッド距離を正規化して得られる値で構成される画像データを、距離画像データと呼ぶ。検出部2020は、距離画像データについて、所定値より小さい画素で構成される画像領域 S を特定する。   The threshold value may be a predetermined value or a dynamically determined value. In the latter case, for example, the detection unit 2020 determines the threshold value as follows. First, the detection unit 2020 calculates an average color of a plurality of pixels (for example, 100 pixels) in the cell nucleus region. The average color is a color composed of an average value of R values, an average value of G values, and an average value of B values of a plurality of pixels in the cell nucleus region. The detection unit 2020 calculates the Euclidean distance in the three-dimensional coordinates composed of the R value, the G value, and the B value for the color of each pixel of the pathological image data 10 and the average color. Then, normalization is performed so that the Euclidean distance is in the range of 0 to 255. Image data composed of values obtained by normalizing the Euclidean distance calculated for each pixel in this way is referred to as distance image data. The detection unit 2020 identifies an image region S composed of pixels smaller than a predetermined value for the distance image data.

さらに検出部2020は、病理画像データ10について、エオシンで染色されており、なおかつ色相が閾値 t より大きい画像領域 R を特定する。検出部2020は、閾値 t を小さくしながら画像領域 R の特定を繰り返し、画像領域 R と S が重なるようにする。そして、画像領域 R と S が重なった時の閾値 t 又は重なる直前の閾値 t を、閉領域30内における間質領域を得るための閾値とする。なお、閾値 t の初期値は、例えば色相の最大値とする。   Furthermore, the detection unit 2020 identifies an image region R that is stained with eosin and whose hue is greater than the threshold value t for the pathological image data 10. The detection unit 2020 repeatedly specifies the image region R while reducing the threshold value t so that the image regions R and S overlap each other. Then, the threshold value t when the image regions R and S overlap or the threshold value t just before the overlap are set as threshold values for obtaining the interstitial region in the closed region 30. The initial value of the threshold value t is, for example, the maximum hue value.

ここで、距離画像データから得られた画像領域 S は、おおまかに推定した腺管領域を表す。よって、上述の方法により、色相が高いエオシン領域であって、なおかつおおまかに推定した腺管領域と重ならない領域が、間質領域として得られる。   Here, the image area S obtained from the distance image data represents a roughly estimated gland duct area. Therefore, according to the above-described method, an eosin region having a high hue and a region that does not overlap with the roughly estimated gland duct region can be obtained as the stroma region.

閉領域30内における細胞質領域は、閉領域30内の領域のうち、間質領域を除いた部分である。   The cytoplasm region in the closed region 30 is a portion of the region in the closed region 30 excluding the stroma region.

閉領域30の周辺領域は、例えば閉領域30を囲む所定の幅の領域として定義される。図8は、閉領域30の周辺領域を例示する図である。図8において、周辺領域40は、閉領域30を囲む幅 d の領域である。   The peripheral region of the closed region 30 is defined as a region having a predetermined width surrounding the closed region 30, for example. FIG. 8 is a diagram illustrating a peripheral region of the closed region 30. In FIG. 8, the peripheral region 40 is a region having a width d surrounding the closed region 30.

リンパ球領域を特定する方法は、前述した通りである。また、周辺領域40内の細胞核領域は、周辺領域40からリンパ球領域を除去した領域である。   The method for specifying the lymphocyte region is as described above. The cell nucleus region in the peripheral region 40 is a region obtained by removing the lymphocyte region from the peripheral region 40.

<腺管領域の分類:S206>
検出部2020は、抽出された腺管領域32を、正常な腺管領域と腫瘍の腺管領域とに分類する(S206)。そのために、検出部2020は、1つの腺管領域32の周辺領域40に含まれる各細胞核について、正常な細胞の細胞核であるか腫瘍細胞の細胞核であるかを判別する。そして検出部2020は、或る腺管領域32の周辺領域40に含まれる正常な細胞の細胞核の数と腫瘍細胞の細胞核の数とに基づいて、その腺管領域32が正常な腺管領域と腫瘍の腺管領域のどちらであるかを識別する。
<Classification of gland duct area: S206>
The detection unit 2020 classifies the extracted duct area 32 into a normal duct area and a tumor duct area (S206). Therefore, the detection unit 2020 determines whether each cell nucleus included in the peripheral region 40 of one gland duct region 32 is a normal cell nucleus or a tumor cell nucleus. Based on the number of cell nuclei of normal cells and the number of cell nuclei of tumor cells contained in the peripheral region 40 of a certain duct region 32, the detection unit 2020 determines that the duct region 32 is a normal duct region. Identify which is the tumor ductal area.

正常な細胞の細胞核と腫瘍細胞の細胞核を識別する方法には、様々な方法を利用できる。例えばこの識別には、機械学習を利用できる。この場合、例えば、正常な細胞の細胞核を表す画像データと腫瘍細胞の細胞核を表す画像データそれぞれを教師データとして利用することで、正常な細胞の細胞核と腫瘍細胞の細胞核を識別する識別器を予め構成しておく。そして、検出部2020は、この識別器に対して腺管領域32の周辺領域40を入力することで、周辺領域40に含まれる各細胞核について、正常な細胞の細胞核と腫瘍細胞の細胞核のどちらであるかの識別結果を得る。上記機械学習には、ディープラーニングを利用することが好適である。   Various methods can be used as a method for discriminating the nucleus of normal cells from the nucleus of tumor cells. For example, machine learning can be used for this identification. In this case, for example, by using each of the image data representing the cell nucleus of the normal cell and the image data representing the cell nucleus of the tumor cell as teacher data, a discriminator for discriminating between the cell nucleus of the normal cell and the cell nucleus of the tumor cell in advance is used. Make up. Then, the detection unit 2020 inputs the peripheral region 40 of the gland duct region 32 to the discriminator, so that each cell nucleus included in the peripheral region 40 is either a normal cell nucleus or a tumor cell nucleus. An identification result is obtained. It is preferable to use deep learning for the machine learning.

ここで、上記識別器は、細胞核を正常な細胞の細胞核と腫瘍細胞の細胞核に識別するだけでなく、細胞核を1)リンパ球の細胞核、2)リンパ球以外の正常な細胞の細胞核、3)腫瘍細胞の細胞核のいずれかに識別してもよい。この場合、上記識別器は、前述したリンパ球領域の除去にも利用することができる。   Here, the discriminator not only discriminates cell nuclei into normal cell nuclei and tumor cell nuclei, but also cell nuclei 1) nuclei of lymphocytes, 2) nuclei of normal cells other than lymphocytes, 3) It may be identified as one of tumor cell nuclei. In this case, the discriminator can also be used to remove the lymphocyte region described above.

なお、細胞核を識別する方法は、機械学習を利用する方法に限定されず、既存の種々の方法を利用することもできる。   Note that the method for identifying cell nuclei is not limited to a method using machine learning, and various existing methods can also be used.

前述したように、検出部2020は、腺管領域32の周辺領域40に含まれる正常な細胞の細胞核の数と腫瘍細胞の細胞核の数とに基づいて、その腺管領域32が正常な腺管領域と腫瘍の腺管領域のどちらであるかを識別する。その具体的な方法は様々である。例えば検出部2020は、腺管領域32の周辺領域40に含まれる細胞核の総数に対する、その周辺領域40に含まれる正常な細胞の細胞核の数の比率を算出する。そして、検出部2020は、算出した比率が所定値以上である場合に、その腺管領域32が正常な腺管領域であると判別する。一方、検出部2020は、算出した比率が所定値未満である場合に、その腺管領域32が腫瘍の腺管領域であると判別する。なお、「腺管領域32の周辺領域40に含まれる細胞核の総数」からは、リンパ球の細胞核の数を除いてもよい。   As described above, the detection unit 2020 determines that the gland duct region 32 is a normal gland duct based on the number of cell nuclei of normal cells and the number of cell nuclei of tumor cells included in the peripheral region 40 of the gland duct region 32. Identify whether the region is a tumor ductal region. There are various specific methods. For example, the detection unit 2020 calculates the ratio of the number of cell nuclei of normal cells included in the peripheral region 40 to the total number of cell nuclei included in the peripheral region 40 of the gland duct region 32. And the detection part 2020 discriminate | determines that the gland duct area | region 32 is a normal gland duct area | region, when the calculated ratio is more than predetermined value. On the other hand, when the calculated ratio is less than the predetermined value, the detection unit 2020 determines that the gland duct region 32 is a tumor gland duct region. Note that the number of cell nuclei of lymphocytes may be excluded from the “total number of cell nuclei contained in the peripheral region 40 of the gland duct region 32”.

上記所定値を定める方法は様々である。例えば上記所定値は、医師の経験などに基づいて人手で設定される。その他にも例えば、上記所定値は、機械学習を利用して設定される。後者の場合、例えば腺管領域の画像データに、正常な腺管領域と腫瘍の腺管領域のどちらが含まれるかをラベリングした画像データを教師データとして用い、その画像データに含まれる腺管領域の周辺領域から検出される正常な細胞の細胞核の数と腫瘍細胞の細胞核の数とをカウントすることで、正常な腺管領域と腫瘍の腺管領域とを識別するための上記所定値を決定する。   There are various methods for determining the predetermined value. For example, the predetermined value is manually set based on the experience of a doctor. In addition, for example, the predetermined value is set using machine learning. In the latter case, for example, image data obtained by labeling whether the normal duct area or the tumor duct area is included in the image data of the duct area is used as teacher data, and the duct area included in the image data is The predetermined value for discriminating between the normal gland duct area and the tumor gland duct area is determined by counting the number of normal cell nuclei and the number of tumor cell nuclei detected from the surrounding area. .

<第1層22と第2層24の検出:S208>
検出部2020は、S206による分類の結果に基づき、組織領域20から第1層22と第2層24を検出する(S208)。前述したように、第1層22は、正常腺管の領域で構成される画像領域である。一方、第2層24は、腫瘍腺管の領域で構成される画像領域である。
<Detection of first layer 22 and second layer 24: S208>
The detection unit 2020 detects the first layer 22 and the second layer 24 from the tissue region 20 based on the classification result in S206 (S208). As described above, the first layer 22 is an image region composed of regions of normal gland ducts. On the other hand, the second layer 24 is an image region composed of a tumor gland duct region.

<<第1層22の検出>>
検出部2020は、正常腺管の領域と腫瘍腺管の領域の間の境界線を(以下、第1境界線)を特定する。第1境界線は、例えば以下の方法で特定される。
<< Detection of the first layer 22 >>
The detection unit 2020 identifies a boundary line between the normal gland duct area and the tumor gland duct area (hereinafter referred to as a first boundary line). The first boundary line is specified by the following method, for example.

まず検出部2020は、病理画像データ10を構成する画素のマトリクスの各列について、組織の表面(組織領域20と背景領域との境界線)から最も遠い、腫瘍腺管の腺管領域の画素を検出する。図9は、組織の表面から最も遠い、腫瘍腺管の腺管領域の画素を検出する方法を概念的に例示する図である。図9には、病理画像データ10を構成する画素のマトリクスにおいて、同一列上に、3つの腫瘍腺管の腺管領域と、1つの正常腺管の腺管領域が存在する。そこで、検出部2020は、組織表面から最も遠い腫瘍腺管の腺管領域(上から3つ目の腺管領域)の下端の画素を、「組織の表面から最も遠い、腫瘍腺管の腺管領域の画素」として検出する。   First, the detection unit 2020 determines, for each column of the pixel matrix constituting the pathological image data 10, pixels of the gland duct region of the tumor gland that are farthest from the tissue surface (the boundary line between the tissue region 20 and the background region). To detect. FIG. 9 is a diagram conceptually illustrating a method for detecting a pixel in a ductal region of a tumor duct that is farthest from the surface of a tissue. In FIG. 9, in the matrix of pixels constituting the pathological image data 10, there are three tumor gland duct areas and one normal gland duct area on the same column. Therefore, the detection unit 2020 determines the pixel at the lower end of the gland duct region (third gland duct region from the top) of the tumor gland farthest from the tissue surface as “the gland duct of the tumor gland farthest from the tissue surface”. This is detected as “region pixel”.

検出部2020は、上述の方法で各列から検出した画素を連結して、第1境界線を特定する。例えばこの連結は、線形補完によって行う。   The detection unit 2020 connects the pixels detected from each column by the above-described method, and identifies the first boundary line. For example, this connection is performed by linear interpolation.

ここで、検出部2020は、生成した第1境界線を平滑化する処理を行うことが好適である。例えばこの平滑化は、Lowess フィルタなどの種々の平滑化フィルタを利用して行うことができる。   Here, it is preferable that the detection unit 2020 performs a process of smoothing the generated first boundary line. For example, this smoothing can be performed using various smoothing filters such as a Lowess filter.

検出部2020は、特定した第1境界線と、組織領域20の外枠(組織領域20と背景領域の境界線)で閉じられた画像領域を、腫瘍腺管の腺管領域で構成される第1層22として検出する。図10は、第1層22を例示する図である。   The detection unit 2020 includes an image region closed by the identified first boundary line and the outer frame of the tissue region 20 (boundary line between the tissue region 20 and the background region) as a gland duct region of a tumor gland duct. Detected as one layer 22. FIG. 10 is a diagram illustrating the first layer 22.

<<第2層24の検出>>
検出部2020は、第2層24を検出するために、正常腺管の腺管領域と、組織領域20に含まれる腺管領域以外の画像領域との間の境界線(以下、第2境界線)を生成する。第2境界線は、第1境界線と同様の方法で例えば以下の方法で生成できる。具体的には、検出部2020は、病理画像データ10を構成する画素のマトリクスの各列について、組織の表面から最も遠い、正常腺管の腺管領域の画素を検出する。次に、検出部2020は、各列から検出した画素を連結して、第2境界線を生成する。なお、第1境界線と同様に、第2境界線についても平滑化を行うことが好適である。
<< Detection of Second Layer 24 >>
In order to detect the second layer 24, the detection unit 2020 detects a boundary line between the gland duct region of the normal gland duct and the image region other than the gland duct region included in the tissue region 20 (hereinafter, the second boundary line). ) Is generated. The second boundary line can be generated by the following method, for example, in the same manner as the first boundary line. Specifically, the detection unit 2020 detects a pixel in the gland duct region of the normal gland duct that is farthest from the surface of the tissue for each column of the pixel matrix constituting the pathological image data 10. Next, the detection unit 2020 connects the pixels detected from each column to generate a second boundary line. Note that, similarly to the first boundary line, it is preferable to smooth the second boundary line.

検出部2020は、第1境界線、第2境界線、及び組織領域20の外枠で閉じられた画像領域を、第2層24として検出する。図11は、第2層24を例示する図である。   The detection unit 2020 detects the first boundary line, the second boundary line, and the image region closed by the outer frame of the tissue region 20 as the second layer 24. FIG. 11 is a diagram illustrating the second layer 24.

<指標値の算出:S104>
算出部2040は、検出部2020によって検出された第1層22と第2層24に基づく指標値を算出する。この指標値としては、様々なものを採用できる。例えば算出部2040は、第1層22と第2層24の面積、又は検出した第1層22と第2層24の厚さに基づく指標値を算出する。前者の場合、例えば算出部2040は、腺管領域の層全体(第1層22と第2層24を合わせた領域)の面積に対する第1層22の面積の割合を指標値として算出する。例えば第1層22の面積を S1、第2層24の面積を S2 とおけば、指標値は S1/(S1+S2) となる。その他にも例えば、算出部2040は、第2層24の面積に対する第1層22の面積の比率(S1/S2)を指標値としてもよい。
<Calculation of index value: S104>
The calculation unit 2040 calculates an index value based on the first layer 22 and the second layer 24 detected by the detection unit 2020. Various index values can be used. For example, the calculation unit 2040 calculates an index value based on the areas of the first layer 22 and the second layer 24 or the detected thicknesses of the first layer 22 and the second layer 24. In the former case, for example, the calculation unit 2040 calculates, as an index value, the ratio of the area of the first layer 22 to the area of the entire layer of the gland duct area (the area where the first layer 22 and the second layer 24 are combined). For example, if the area of the first layer 22 is S1, and the area of the second layer 24 is S2, the index value is S1 / (S1 + S2). In addition, for example, the calculation unit 2040 may use the ratio (S1 / S2) of the area of the first layer 22 to the area of the second layer 24 as an index value.

一方、第1層22と第2層24の厚さから指標値を算出する場合、例えば情報処理装置2000は、腺管領域の層全体の厚さに対する第1層22の厚さを指標値として算出する。例えば第1層22の厚さを T1 、腺管領域の層全体の厚さを Ta とおけば、指標値は T1/Ta となる。その他にも例えば、算出部2040は、第2層24の厚さ T2 に対する第1層22の厚さ T1 の比率(T1/T2)を指標値としてもよい。   On the other hand, when calculating the index value from the thicknesses of the first layer 22 and the second layer 24, for example, the information processing apparatus 2000 uses the thickness of the first layer 22 relative to the thickness of the entire layer of the gland duct region as the index value. calculate. For example, if the thickness of the first layer 22 is T1, and the thickness of the entire gland duct region is Ta, the index value is T1 / Ta. In addition, for example, the calculation unit 2040 may use the ratio (T1 / T2) of the thickness T1 of the first layer 22 to the thickness T2 of the second layer 24 as an index value.

ここで、層の厚さを定める方法は様々である。例えば算出部2040は、病理画像データ10を構成する画素のマトリクスにおける各列について第1層22の厚さを算出し、算出された各列における厚さの統計値(平均値、最大値、又は最小値など)を、第1層22の厚さとする。第2層24の厚さや腺管領域の層全体の厚さについても同様である。   Here, there are various methods for determining the thickness of the layer. For example, the calculation unit 2040 calculates the thickness of the first layer 22 for each column in the pixel matrix constituting the pathological image data 10, and calculates a statistical value (average value, maximum value, or thickness) of each calculated column. The minimum value is set as the thickness of the first layer 22. The same applies to the thickness of the second layer 24 and the thickness of the entire layer of the ductal region.

なお、指標値は必ずしも割合や比率で表される必要はない。例えば情報処理装置2000は、第1層22と第1層22の面積や厚さそのものを指標値としてもよい。   The index value does not necessarily have to be expressed as a ratio or a ratio. For example, the information processing apparatus 2000 may use the area and thickness of the first layer 22 and the first layer 22 as an index value.

[実施形態2]
図12は、実施形態2の情報処理装置2000を例示するブロック図である。以下で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様である。
[Embodiment 2]
FIG. 12 is a block diagram illustrating an information processing apparatus 2000 according to the second embodiment. Except for the items described below, the information processing apparatus 2000 according to the second embodiment is the same as the information processing apparatus 2000 according to the first embodiment.

実施形態2の情報処理装置2000は出力制御部2060を有する。算出部2040によって算出された指標値に基づいて、出力装置に所定の出力を行わせる。   The information processing apparatus 2000 according to the second embodiment includes an output control unit 2060. Based on the index value calculated by the calculation unit 2040, the output device is caused to perform a predetermined output.

出力制御部2060は、算出部2040によって算出された指標値を必ず出力してもよいし、算出された指標値が所定の条件を満たす場合にのみその指標値を出力してもよい。例えば所定の条件は、指標値が所定の閾値以上の場合や、指標値が所定の閾値以下である場合などである。   The output control unit 2060 may always output the index value calculated by the calculation unit 2040, or may output the index value only when the calculated index value satisfies a predetermined condition. For example, the predetermined condition is when the index value is equal to or greater than a predetermined threshold, or when the index value is equal to or less than the predetermined threshold.

指標値と閾値との関係は、指標値をどのような値として算出するかによって決まる。例えば指標値として、腺管領域の層全体の面積や厚さに対する、腫瘍腺管の腺管領域の層(第1層22)の面積や厚さを利用する場合、組織領域20に腫瘍腺管が多く含まれるほど指標値が大きくなる傾向にある。そこで、例えば「指標値が所定の閾値以上である」という条件が満たされた場合に、出力制御部2060が指標値を出力するようにする。   The relationship between the index value and the threshold value depends on what value the index value is calculated as. For example, when the area or thickness of the layer (first layer 22) of the gland duct region of the tumor gland duct is used as the index value with respect to the area or thickness of the whole layer of the gland duct region, the tumor gland duct is used as the tissue region 20 The index value tends to increase as the amount of increases. Therefore, for example, when the condition that “the index value is equal to or greater than a predetermined threshold” is satisfied, the output control unit 2060 outputs the index value.

なお、上記所定の閾値は、予め出力制御部2060に設定されていてもよいし、出力制御部2060からアクセス可能な記憶装置に記憶させておいてもよい。   The predetermined threshold value may be set in advance in the output control unit 2060 or may be stored in a storage device accessible from the output control unit 2060.

出力制御部2060が指標値を出力する態様は様々である。例えば出力制御部2060は、ディスプレイ装置の表示画面に指標値を表示させる。この場合、出力制御部2060は、ディスプレイ装置を制御する。その他にも例えば、出力制御部2060は、スピーカから音声で指標値を出力させる。この場合、出力制御部2060はスピーカを制御する。その他にも例えば、出力制御部2060は、記憶装置に指標値を記憶させる。この場合、出力制御部2060は、記憶装置を制御する。   There are various modes in which the output control unit 2060 outputs the index value. For example, the output control unit 2060 displays the index value on the display screen of the display device. In this case, the output control unit 2060 controls the display device. In addition, for example, the output control unit 2060 outputs an index value with sound from a speaker. In this case, the output control unit 2060 controls the speaker. In addition, for example, the output control unit 2060 stores the index value in the storage device. In this case, the output control unit 2060 controls the storage device.

指標値は、いわゆる生データとしてそのまま出力されてもよいし、加工されて出力されてもよい。後者の場合、例えば出力制御部2060は、複数算出された指標値をまとめて表やグラフの形式で出力する。例えば、算出部2040が、同一の患者から得られた複数の病理画像データ10それぞれを用いて、指標値を算出するとする。この場合、出力制御部2060は、複数の病理画像データ10を用いて算出された各指標値で、表やグラフを作成する。その他にも例えば、出力制御部2060は、同一の患者について過去に算出された1つ以上の指標値で、表やグラフを作成する。   The index value may be output as it is as raw data, or may be processed and output. In the latter case, for example, the output control unit 2060 collectively outputs a plurality of calculated index values in the form of a table or a graph. For example, it is assumed that the calculation unit 2040 calculates an index value using each of a plurality of pathological image data 10 obtained from the same patient. In this case, the output control unit 2060 creates a table or a graph with each index value calculated using the plurality of pathological image data 10. In addition, for example, the output control unit 2060 creates a table or a graph with one or more index values calculated in the past for the same patient.

その他にも例えば、出力制御部2060は、指標値が前述した所定の条件を満たした場合に、所定のメッセージ(例えば警告メッセージ)を出力するように構成されていてもよい。   In addition, for example, the output control unit 2060 may be configured to output a predetermined message (for example, a warning message) when the index value satisfies the predetermined condition described above.

<ハードウエア構成>
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。また、本実施形態の情報処理装置2000を実現する計算機1000の入出力インタフェース1100には、出力制御部2060によって制御される種々のハードウエア(ディスプレイ装置やスピーカなど)が接続されていてもよい。
<Hardware configuration>
The hardware configuration of a computer that implements the information processing apparatus 2000 according to the second embodiment is represented by, for example, FIG. However, the storage device 1080 of the computer 1000 that implements the information processing apparatus 2000 of this embodiment further stores a program module that implements the functions of the information processing apparatus 2000 of this embodiment. In addition, various hardware (display device, speaker, etc.) controlled by the output control unit 2060 may be connected to the input / output interface 1100 of the computer 1000 that implements the information processing apparatus 2000 of the present embodiment.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。   As mentioned above, although embodiment of this invention was described with reference to drawings, these are illustrations of this invention, The combination of said each embodiment or various structures other than the above can also be employ | adopted.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出手段と、
前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出手段と、を有する情報処理装置。
2. 前記検出手段は、
前記組織領域から複数の腺管領域を抽出し、前記抽出された複数の腺管領域それぞれが、正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別し、
各正常腺管の領域の位置及び各腫瘍腺管の領域の位置を用いて、前記第1層と前記第2層の境界を算出する、1.に記載の情報処理装置。
3. 前記腺管領域が正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別する処理はディープラーニングを用いて行われる、2.に記載の情報処理装置。
4. 前記組織領域は、ヘマトキシリンを用いた染色が行われた組織の画像領域であり、
前記検出手段は、前記組織領域から、ヘマトキシリンで染色された画像領域によって囲まれた閉領域を抽出し、前記閉領域の特徴に基づいて前記閉領域が前記腺管領域であるか否かを判別することで、前記腺管領域の抽出を行う、2.又は3.に記載の情報処理装置。
5. 前記閉領域の特徴は、前記閉領域におけるリンパ球領域の割合、前記閉領域における白色領域の割合、前記白色領域における灰色領域の割合、前記閉領域における間質領域の割合、前記閉領域における細胞質領域の割合、前記閉領域の周辺におけるリンパ球領域の割合、及び前記閉領域の周辺における細胞核領域の割合のうち、いずれか1つ以上を含む、4.に記載の情報処理装置。
6. 前記検出手段は、前記組織領域からリンパ球領域を除去し、前記リンパ球領域が除去された組織領域から前記閉領域を抽出する、4.又は5.に記載の情報処理装置。
7. 前記リンパ球領域を除去する処理はディープラーニングを用いて行われる、6.に記載の情報処理装置。
8. 前記組織領域は、ヘマトキシリン・エオシン染色が行われた組織の画像領域であり、
前記検出手段は、
ヘマトキシリンで染色された画像領域とエオシンで染色された画像領域との割合に基づいて、前記ヘマトキシリンで染色された画像領域の強調処理を行い、
前記強調処理が行われた後の前記病理画像データから前記閉領域の抽出を行う、4.乃至7.いずれか一つに記載の情報処理装置。
9. 前記算出手段によって算出された指標値が所定の条件を満たす場合に所定の出力を行う出力制御手段を有する、1.乃至8.いずれか一つに記載の情報処理装置。
A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.
1. Detecting means for detecting a first layer composed of normal gland ducts and a second layer composed of tumor gland ducts from a tissue region included in the pathological image data by performing image processing on the pathological image data; ,
An information processing apparatus comprising: calculation means for calculating an index value based on the thickness or area of the first layer and the second layer.
2. The detection means includes
Extracting a plurality of gland duct regions from the tissue region, and determining whether each of the plurality of gland duct regions extracted is a normal gland duct region or a tumor gland duct region;
1. Calculate the boundary between the first layer and the second layer using the position of each normal gland duct area and the position of each tumor gland duct area; The information processing apparatus described in 1.
3. 1. The process of determining whether the gland duct area is a normal gland duct area or a tumor gland duct area is performed using deep learning. The information processing apparatus described in 1.
4). The tissue region is an image region of a tissue stained with hematoxylin,
The detection means extracts a closed region surrounded by an image region stained with hematoxylin from the tissue region, and determines whether the closed region is the gland duct region based on the feature of the closed region To extract the gland duct region. Or 3. The information processing apparatus described in 1.
5. The characteristics of the closed region are the ratio of the lymphocyte region in the closed region, the ratio of the white region in the closed region, the ratio of the gray region in the white region, the ratio of the stroma region in the closed region, the cytoplasm in the closed region 3. including any one or more of a region ratio, a lymphocyte region ratio around the closed region, and a cell nucleus region ratio around the closed region; The information processing apparatus described in 1.
6). 3. The detection means removes a lymphocyte region from the tissue region and extracts the closed region from the tissue region from which the lymphocyte region has been removed. Or 5. The information processing apparatus described in 1.
7). 5. The process of removing the lymphocyte region is performed using deep learning. The information processing apparatus described in 1.
8). The tissue region is an image region of a tissue subjected to hematoxylin and eosin staining,
The detection means includes
Based on the ratio of the image area stained with hematoxylin and the image area stained with eosin, the enhancement of the image area stained with hematoxylin is performed,
3. Extracting the closed region from the pathological image data after the enhancement processing is performed. To 7. The information processing apparatus according to any one of the above.
9. 1. Output control means for performing a predetermined output when the index value calculated by the calculation means satisfies a predetermined condition. To 8. The information processing apparatus according to any one of the above.

10. コンピュータによって実行される制御方法であって、
病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出ステップと、
前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出ステップと、を有する制御方法。
11. 前記検出ステップにおいて、
前記組織領域から複数の腺管領域を抽出し、前記抽出された複数の腺管領域それぞれが、正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別し、
各正常腺管の領域の位置及び各腫瘍腺管の領域の位置を用いて、前記第1層と前記第2層の境界を算出する、10.に記載の制御方法。
12. 前記腺管領域が正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別する処理はディープラーニングを用いて行われる、11.に記載の制御方法。
13. 前記組織領域は、ヘマトキシリンを用いた染色が行われた組織の画像領域であり、
前記検出ステップにおいて、前記組織領域から、ヘマトキシリンで染色された画像領域によって囲まれた閉領域を抽出し、前記閉領域の特徴に基づいて前記閉領域が前記腺管領域であるか否かを判別することで、前記腺管領域の抽出を行う、11.又は12.に記載の制御方法。
14. 前記閉領域の特徴は、前記閉領域におけるリンパ球領域の割合、前記閉領域における白色領域の割合、前記白色領域における灰色領域の割合、前記閉領域における間質領域の割合、前記閉領域における細胞質領域の割合、前記閉領域の周辺におけるリンパ球領域の割合、及び前記閉領域の周辺における細胞核領域の割合のうち、いずれか1つ以上を含む、13.に記載の制御方法。
15. 前記検出ステップにおいて、前記組織領域からリンパ球領域を除去し、前記リンパ球領域が除去された組織領域から前記閉領域を抽出する、13.又は14.に記載の制御方法。
16. 前記リンパ球領域を除去する処理はディープラーニングを用いて行われる、15.に記載の制御方法。
17. 前記組織領域は、ヘマトキシリン・エオシン染色が行われた組織の画像領域であり、
前記検出ステップにおいて、
ヘマトキシリンで染色された画像領域とエオシンで染色された画像領域との割合に基づいて、前記ヘマトキシリンで染色された画像領域の強調処理を行い、
前記強調処理が行われた後の前記病理画像データから前記閉領域の抽出を行う、13.乃至16.いずれか一つに記載の制御方法。
18. 前記算出ステップにおいて算出された指標値が所定の条件を満たす場合に所定の出力を行う出力制御ステップを有する、10.乃至17.いずれか一つに記載の制御方法。
10. A control method executed by a computer,
A detection step of detecting a first layer composed of a normal gland duct and a second layer composed of a tumor gland duct from a tissue region included in the pathological image data by performing image processing on the pathological image data; ,
A control method comprising: calculating an index value based on a thickness or an area of the first layer and the second layer.
11. In the detection step,
Extracting a plurality of gland duct regions from the tissue region, and determining whether each of the plurality of gland duct regions extracted is a normal gland duct region or a tumor gland duct region;
9. Calculate the boundary between the first layer and the second layer by using the position of each normal duct and the position of each tumor duct. The control method described in 1.
12 10. The process of determining whether the gland duct area is a normal gland duct area or a tumor gland duct area is performed using deep learning. The control method described in 1.
13. The tissue region is an image region of a tissue stained with hematoxylin,
In the detection step, a closed region surrounded by an image region stained with hematoxylin is extracted from the tissue region, and whether or not the closed region is the gland duct region is determined based on the feature of the closed region. 10. to extract the gland duct region. Or 12. The control method described in 1.
14 The characteristics of the closed region are the ratio of the lymphocyte region in the closed region, the ratio of the white region in the closed region, the ratio of the gray region in the white region, the ratio of the stroma region in the closed region, the cytoplasm in the closed region 12. One or more of a region ratio, a lymphocyte region ratio around the closed region, and a cell nucleus region ratio around the closed region are included. The control method described in 1.
15. 12. In the detection step, a lymphocyte region is removed from the tissue region, and the closed region is extracted from the tissue region from which the lymphocyte region has been removed; Or 14. The control method described in 1.
16. 15. The process of removing the lymphocyte region is performed using deep learning. The control method described in 1.
17. The tissue region is an image region of a tissue subjected to hematoxylin and eosin staining,
In the detecting step,
Based on the ratio of the image area stained with hematoxylin and the image area stained with eosin, the enhancement of the image area stained with hematoxylin is performed,
12. extracting the closed region from the pathological image data after the enhancement processing; To 16. The control method as described in any one.
18. 10. an output control step of performing a predetermined output when the index value calculated in the calculation step satisfies a predetermined condition; To 17. The control method as described in any one.

19. 10.乃至18.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。 19. 10. To 18. A program for causing a computer to execute each step of the control method according to any one of the above.

10 病理画像データ
20 組織領域
22 第1層
24 第2層
30 閉領域
32 腺管領域
40 周辺領域
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1080 しストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
2000 情報処理装置
2020 検出部
2040 算出部
2060 出力制御部
10 pathological image data 20 tissue region 22 first layer 24 second layer 30 closed region 32 gland duct region 40 peripheral region 1000 computer 1020 bus 1040 processor 1060 memory 1080 storage device 1080 storage device 1100 input / output interface 1120 network interface 2000 information processing Device 2020 Detection unit 2040 Calculation unit 2060 Output control unit

Claims (11)

病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出手段と、
前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出手段と、を有する情報処理装置。
Detecting means for detecting a first layer composed of normal gland ducts and a second layer composed of tumor gland ducts from a tissue region included in the pathological image data by performing image processing on the pathological image data; ,
An information processing apparatus comprising: calculation means for calculating an index value based on the thickness or area of the first layer and the second layer.
前記検出手段は、
前記組織領域から複数の腺管領域を抽出し、前記抽出された複数の腺管領域それぞれが、正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別し、
各正常腺管の領域の位置及び各腫瘍腺管の領域の位置を用いて、前記第1層と前記第2層の境界を算出する、請求項1に記載の情報処理装置。
The detection means includes
Extracting a plurality of gland duct regions from the tissue region, and determining whether each of the plurality of gland duct regions extracted is a normal gland duct region or a tumor gland duct region;
The information processing apparatus according to claim 1, wherein a boundary between the first layer and the second layer is calculated using a position of each normal gland duct region and a position of each tumor gland duct region.
前記腺管領域が正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別する処理はディープラーニングを用いて行われる、請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the process of determining whether the gland duct area is a normal gland duct area or a tumor gland duct area is performed using deep learning. 前記組織領域は、ヘマトキシリンを用いた染色が行われた組織の画像領域であり、
前記検出手段は、前記組織領域から、ヘマトキシリンで染色された画像領域によって囲まれた閉領域を抽出し、前記閉領域の特徴に基づいて前記閉領域が前記腺管領域であるか否かを判別することで、前記腺管領域の抽出を行う、請求項2又は3に記載の情報処理装置。
The tissue region is an image region of a tissue stained with hematoxylin,
The detection means extracts a closed region surrounded by an image region stained with hematoxylin from the tissue region, and determines whether the closed region is the gland duct region based on the feature of the closed region The information processing apparatus according to claim 2, wherein the gland duct region is extracted.
前記閉領域の特徴は、前記閉領域におけるリンパ球領域の割合、前記閉領域における白色領域の割合、前記白色領域における灰色領域の割合、前記閉領域における間質領域の割合、前記閉領域における細胞質領域の割合、前記閉領域の周辺におけるリンパ球領域の割合、及び前記閉領域の周辺における細胞核領域の割合のうち、いずれか1つ以上を含む、請求項4に記載の情報処理装置。   The characteristics of the closed region are the ratio of the lymphocyte region in the closed region, the ratio of the white region in the closed region, the ratio of the gray region in the white region, the ratio of the stroma region in the closed region, the cytoplasm in the closed region The information processing apparatus according to claim 4, comprising any one or more of a region ratio, a lymphocyte region ratio around the closed region, and a cell nucleus region ratio around the closed region. 前記検出手段は、前記組織領域からリンパ球領域を除去し、前記リンパ球領域が除去された組織領域から前記閉領域を抽出する、請求項4又は5に記載の情報処理装置。   The information processing apparatus according to claim 4, wherein the detection unit removes a lymphocyte region from the tissue region and extracts the closed region from the tissue region from which the lymphocyte region has been removed. 前記リンパ球領域を除去する処理はディープラーニングを用いて行われる、請求項6に記載の情報処理装置。   The information processing apparatus according to claim 6, wherein the process of removing the lymphocyte region is performed using deep learning. 前記組織領域は、ヘマトキシリン・エオシン染色が行われた組織の画像領域であり、
前記検出手段は、
ヘマトキシリンで染色された画像領域とエオシンで染色された画像領域との割合に基づいて、前記ヘマトキシリンで染色された画像領域の強調処理を行い、
前記強調処理が行われた後の前記病理画像データから前記閉領域の抽出を行う、請求項4乃至7いずれか一項に記載の情報処理装置。
The tissue region is an image region of a tissue subjected to hematoxylin and eosin staining,
The detection means includes
Based on the ratio of the image area stained with hematoxylin and the image area stained with eosin, the enhancement of the image area stained with hematoxylin is performed,
The information processing apparatus according to claim 4, wherein the closed region is extracted from the pathological image data after the enhancement process is performed.
前記算出手段によって算出された指標値が所定の条件を満たす場合に所定の出力を行う出力制御手段を有する、請求項1乃至8いずれか一項に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising: an output control unit that performs a predetermined output when the index value calculated by the calculation unit satisfies a predetermined condition. コンピュータによって実行される制御方法であって、
病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出ステップと、
前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出ステップと、を有する制御方法。
A control method executed by a computer,
A detection step of detecting a first layer composed of a normal gland duct and a second layer composed of a tumor gland duct from a tissue region included in the pathological image data by performing image processing on the pathological image data; ,
A control method comprising: calculating an index value based on a thickness or an area of the first layer and the second layer.
請求項10に記載の制御方法の各ステップをコンピュータに実行させるプログラム。   The program which makes a computer perform each step of the control method of Claim 10.
JP2017088231A 2017-04-27 2017-04-27 Information processing equipment, control methods, and programs Active JP6819445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017088231A JP6819445B2 (en) 2017-04-27 2017-04-27 Information processing equipment, control methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017088231A JP6819445B2 (en) 2017-04-27 2017-04-27 Information processing equipment, control methods, and programs

Publications (2)

Publication Number Publication Date
JP2018185265A true JP2018185265A (en) 2018-11-22
JP6819445B2 JP6819445B2 (en) 2021-01-27

Family

ID=64357242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017088231A Active JP6819445B2 (en) 2017-04-27 2017-04-27 Information processing equipment, control methods, and programs

Country Status (1)

Country Link
JP (1) JP6819445B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020175238A1 (en) * 2019-02-28 2020-09-03 ソニー株式会社 Information processing device, information processing method, and information processing system
JPWO2022049663A1 (en) * 2020-09-02 2022-03-10
JP2022526650A (en) * 2019-04-12 2022-05-25 インベニオ イメージング、インコーポレイテッド Imaging system for detection of intraoperative contrast media in tissue
CN116523919A (en) * 2023-07-04 2023-08-01 武汉楚精灵医疗科技有限公司 Method and device for determining abnormal degree coefficient of gland duct

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0235358A (en) * 1988-07-25 1990-02-05 Toa Medical Electronics Co Ltd Image processing method for taking out glandular cavity of stomack tissue
JP2001059842A (en) * 1999-08-25 2001-03-06 Nec Corp Pathological diagnostic apparatus
JP2004286666A (en) * 2003-03-24 2004-10-14 Olympus Corp Pathological diagnosis support device and pathological diagnosis support program
JP2005352571A (en) * 2004-06-08 2005-12-22 Olympus Corp Image processing device
JP2009115598A (en) * 2007-11-06 2009-05-28 Nec Corp Module for detecting poorly differentiated cancer and pathological image diagnosis support apparatus, program, and recording medium including the same
JP2009210409A (en) * 2008-03-04 2009-09-17 Kddi Corp Method and device for image area division
WO2010041423A1 (en) * 2008-10-09 2010-04-15 日本電気株式会社 Histopathologic diagnosis support system, histopathologic diagnosis support program, and histopathologic diagnosis support method
JP2010281636A (en) * 2009-06-03 2010-12-16 Nec Corp Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, pathologic tissue image analyzing program
WO2013187148A1 (en) * 2012-06-15 2013-12-19 オリンパス株式会社 Image processing device, microscope system, endoscope system, and image processing method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0235358A (en) * 1988-07-25 1990-02-05 Toa Medical Electronics Co Ltd Image processing method for taking out glandular cavity of stomack tissue
JP2001059842A (en) * 1999-08-25 2001-03-06 Nec Corp Pathological diagnostic apparatus
JP2004286666A (en) * 2003-03-24 2004-10-14 Olympus Corp Pathological diagnosis support device and pathological diagnosis support program
JP2005352571A (en) * 2004-06-08 2005-12-22 Olympus Corp Image processing device
JP2009115598A (en) * 2007-11-06 2009-05-28 Nec Corp Module for detecting poorly differentiated cancer and pathological image diagnosis support apparatus, program, and recording medium including the same
JP2009210409A (en) * 2008-03-04 2009-09-17 Kddi Corp Method and device for image area division
WO2010041423A1 (en) * 2008-10-09 2010-04-15 日本電気株式会社 Histopathologic diagnosis support system, histopathologic diagnosis support program, and histopathologic diagnosis support method
JP2010281636A (en) * 2009-06-03 2010-12-16 Nec Corp Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, pathologic tissue image analyzing program
WO2013187148A1 (en) * 2012-06-15 2013-12-19 オリンパス株式会社 Image processing device, microscope system, endoscope system, and image processing method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020175238A1 (en) * 2019-02-28 2020-09-03 ソニー株式会社 Information processing device, information processing method, and information processing system
US12224063B2 (en) 2019-02-28 2025-02-11 Sony Group Corporation Information processing device, information processing method, and information processing system
JP2022526650A (en) * 2019-04-12 2022-05-25 インベニオ イメージング、インコーポレイテッド Imaging system for detection of intraoperative contrast media in tissue
JP7482894B2 (en) 2019-04-12 2024-05-14 インベニオ イメージング、インコーポレイテッド Imaging system for detection of intraoperative contrast agents in tissue - Patents.com
JP2024097839A (en) * 2019-04-12 2024-07-19 インベニオ イメージング、インコーポレイテッド Imaging system for detection of intraoperative contrast agents in tissue - Patents.com
US12161486B2 (en) 2019-04-12 2024-12-10 Invenio Imaging, Inc. Imaging system for detection of intraoperative contrast agents in tissue
JP7741241B2 (en) 2019-04-12 2025-09-17 インベニオ イメージング、インコーポレイテッド Imaging system for the detection of intraoperative contrast agents in tissue
JPWO2022049663A1 (en) * 2020-09-02 2022-03-10
WO2022049663A1 (en) * 2020-09-02 2022-03-10 オリンパス株式会社 Program, information storage medium, and processing system
CN116523919A (en) * 2023-07-04 2023-08-01 武汉楚精灵医疗科技有限公司 Method and device for determining abnormal degree coefficient of gland duct
CN116523919B (en) * 2023-07-04 2023-09-12 武汉楚精灵医疗科技有限公司 Method and device for determining abnormal degree coefficient of gland duct

Also Published As

Publication number Publication date
JP6819445B2 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
Bui et al. Single image dehazing using color ellipsoid prior
KR102783839B1 (en) Method for detecting skin quality, method for classifying skin quality grades, device for detecting skin quality, electronic device and storage medium
CN109791693B (en) Digital pathology systems and related workflows for providing visual whole-slice image analysis
JP6660313B2 (en) Detection of nuclear edges using image analysis
TWI431549B (en) Image processing apparatus and method and computer program product
CN109978890B (en) Target extraction method and device based on image processing and terminal equipment
CN108629761B (en) Breast cancer image identification method and device and user terminal
JP6547386B2 (en) Image processing apparatus and method
CN107038704B (en) Retina image exudation area segmentation method and device and computing equipment
JP5442542B2 (en) Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program
CN110176010B (en) Image detection method, device, equipment and storage medium
KR20150051711A (en) Apparatus and method for extracting skin area for blocking harmful content image
CN103460254B (en) Method and device for automatically detecting brightness based on image content
WO2015070723A1 (en) Eye image processing method and apparatus
US20230419492A1 (en) Method and apparatus for providing information associated with immune phenotypes for pathology slide image
CN110880177A (en) Image identification method and device
JP6819445B2 (en) Information processing equipment, control methods, and programs
CN107146231B (en) Retinal image bleeding area segmentation method and device and computing equipment
TWI630581B (en) Cytological image processing device and method for quantifying characteristics of cytological image
CN110473176B (en) Image processing method and device, fundus image processing method and electronic equipment
US20110103663A1 (en) Apparatus, method and computer-readable storage mediums for detecting a region of interest in a medical image
CN109214996A (en) A kind of image processing method and device
JP6743066B2 (en) Tissue sample analysis technology
CN107123124A (en) Retina image analysis method and device and computing equipment
US12493959B2 (en) Image analysis method, image analysis device, image analysis system, control program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R150 Certificate of patent or registration of utility model

Ref document number: 6819445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150