JP2005352571A - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP2005352571A JP2005352571A JP2004169963A JP2004169963A JP2005352571A JP 2005352571 A JP2005352571 A JP 2005352571A JP 2004169963 A JP2004169963 A JP 2004169963A JP 2004169963 A JP2004169963 A JP 2004169963A JP 2005352571 A JP2005352571 A JP 2005352571A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- processing apparatus
- coordinate
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009466 transformation Effects 0.000 claims abstract description 16
- 210000004907 gland Anatomy 0.000 claims description 37
- 238000006243 chemical reaction Methods 0.000 claims description 35
- 230000001575 pathological effect Effects 0.000 claims description 18
- 210000002307 prostate Anatomy 0.000 claims description 18
- 210000004204 blood vessel Anatomy 0.000 claims description 9
- 230000000762 glandular Effects 0.000 abstract description 33
- 238000000034 method Methods 0.000 description 20
- 210000001519 tissue Anatomy 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 10
- 210000003855 cell nucleus Anatomy 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 206010060862 Prostate cancer Diseases 0.000 description 6
- 210000004027 cell Anatomy 0.000 description 6
- 239000002245 particle Substances 0.000 description 6
- 238000005286 illumination Methods 0.000 description 5
- WZUVPPKBWHMQCE-UHFFFAOYSA-N Haematoxylin Chemical compound C12=CC(O)=C(O)C=C2CC2(O)C1C1=CC=C(O)C(O)=C1OC2 WZUVPPKBWHMQCE-UHFFFAOYSA-N 0.000 description 4
- 208000000236 Prostatic Neoplasms Diseases 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000000981 epithelium Anatomy 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- YQGOJNYOYNNSMM-UHFFFAOYSA-N eosin Chemical compound [Na+].OC(=O)C1=CC=CC=C1C1=C2C=C(Br)C(=O)C(Br)=C2OC2=C(Br)C(O)=C(Br)C=C21 YQGOJNYOYNNSMM-UHFFFAOYSA-N 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000007490 hematoxylin and eosin (H&E) staining Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010827 pathological analysis Methods 0.000 description 1
- 230000003248 secreting effect Effects 0.000 description 1
- 238000010186 staining Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Investigating Or Analysing Biological Materials (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、試料を撮像して得られた画像を処理する画像処理装置に関し、特に、生体組織標本に含まれる同心状の構造の解析に関する。 The present invention relates to an image processing apparatus that processes an image obtained by imaging a sample, and more particularly to analysis of concentric structures contained in a biological tissue specimen.
これまで、生体標本、特に病理標本を画像処理によって解析しようと、様々な試みが為されてきた。 Until now, various attempts have been made to analyze biological specimens, particularly pathological specimens, by image processing.
病理標本を解析するには、標本を構成する構造物、即ち細胞や細胞核、或いは複数の細胞によって構成される構造を認識する必要がある。これらを正確に認識し、特徴として組み合わせることにより、初めて診断支援に有効な情報を抽出することが可能となる。 In order to analyze a pathological specimen, it is necessary to recognize a structure constituting the specimen, that is, a structure constituted by a cell, a cell nucleus, or a plurality of cells. It is possible to extract information effective for diagnosis support for the first time by accurately recognizing them and combining them as features.
複数の細胞によって構成される構造として、前立腺の腺管が挙げられる。これは、前立腺液を分泌するための器官であって、腔(組織の存在しない空間)を中心に、腔の壁面を構成する細胞がこれを取り囲む構造を有している。正常な腺管、或いは比較的軽度の前立腺癌の腺管は概略円形であるが、癌化した前立腺では腺管が歪んだ形状となる場合が多い。 A structure composed of a plurality of cells includes the gland duct of the prostate. This is an organ for secreting prostate fluid, and has a structure in which cells constituting the wall surface of the cavity surround the cavity (space where no tissue exists). Normal gland ducts or relatively mild prostate cancer gland ducts are generally circular, but cancerous prostates often have distorted glandular duct shapes.
特許文献1では、病理標本、特に前立腺の標本を対象とし、細胞核の形態特徴や腔の形態特徴を組み合わせることにより、診断支援のための分類判定を行う技術を開示している。 Patent Document 1 discloses a technique for performing classification determination for diagnosis support by combining pathological specimens, particularly prostate specimens, and combining morphological characteristics of cell nuclei and morphological characteristics of cavities.
また、特許文献2には、円形の物体を認識するための技術が開示されている。これは、円形物体の中心と同一の中心を有する同心円状の観測領域を設け、この観測領域における1周分の輝度プロファイルを撮像・処理することで円形物体を認識し、他の円形物体と比較する特徴を与えるものである。 Patent Literature 2 discloses a technique for recognizing a circular object. This is a concentric observation area that has the same center as the center of the circular object, and it recognizes the circular object by imaging and processing the luminance profile for one round in this observation area, and compares it with other circular objects. It gives the characteristic to do.
更に、特許文献3にも、円形の物体を認識するための別の技術が開示されている。これは、円形物体の中心と輪郭を特定した後、物体の回転に依存しない特徴量を求めることで、円形物体の向き(回転角)に依存しない認識と比較照合を可能とするものである。
生体標本は、工業製品とは異なり、円形や直線等の単純な図形の組では表現できず、完全に同じ形状が繰り返し出現することも、通常はあり得ない。正常な腺管、或いは比較的軽度の前立腺癌の腺管は概略円形であるとは言え、工業検査で想定するような完全な円形には程遠いものである。特に、癌化した組織は構造的な秩序が失われており、この傾向が顕著である。 Unlike an industrial product, a biological specimen cannot be expressed by a set of simple figures such as a circle or a straight line, and it is usually impossible that the same shape repeatedly appears. Normal gland ducts or relatively mild prostate cancer gland ducts are generally circular, but far from the perfect circle as envisaged in industrial tests. In particular, cancerous tissue loses structural order, and this tendency is remarkable.
上記特許文献1に開示の技術では、組織に含まれる細胞核と腔を別々に解析しているが、前立腺の主要器官である腺管を解析する際には、細胞核や腔等によって構成される構造を認識しなければならない。この先行技術では、腺管は腔の周囲を細胞が取り囲んだ構造で、細胞にはそれぞれ細胞核が含まれる、と言った組織の構造に関する配慮が欠けており、開示された解析手法では精度の良い腺管の認識は期待できない。 In the technique disclosed in Patent Document 1, cell nuclei and cavities contained in tissue are separately analyzed. However, when analyzing a gland duct that is a main organ of the prostate, a structure constituted by cell nuclei, cavities, and the like. Must be recognized. In this prior art, the gland duct is a structure in which cells surround the cavity, and each cell contains a cell nucleus, so there is a lack of consideration regarding the structure of the tissue, and the disclosed analysis method has high accuracy. Recognition of the ducts is not expected.
また、上記特許文献2に開示の技術は、物体が中心を有し、且つ中心に関して概略回転対称であることを前提としている。即ち、車輪のような物体を前提とした技術であって、生体標本の認識に適用できるものではない。 The technique disclosed in Patent Document 2 is based on the premise that the object has a center and is approximately rotationally symmetric with respect to the center. That is, it is a technique based on an object such as a wheel, and is not applicable to recognition of a biological specimen.
そして、上記特許文献3に開示の技術は、物体が鋳造されたように殆ど同じ形状であることを前提としている。即ち、硬貨のような物体を前提とした技術であって、生体標本の認識に適用できるものではない。 The technique disclosed in Patent Document 3 is based on the premise that the object has almost the same shape as if the object was cast. That is, the technique is based on an object such as a coin, and is not applicable to the recognition of a biological specimen.
本発明は、上記の点に鑑みてなされたもので、試料の構造、特に、生体組織標本の同心状の構造を容易に解析することが可能な画像処理装置を提供することを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to provide an image processing apparatus that can easily analyze the structure of a sample, in particular, the concentric structure of a biological tissue specimen.
本発明の画像処理装置の一態様は、
試料画像の注目領域の輪郭を設定する輪郭設定手段と、
上記試料画像のうち、少なくとも上記輪郭設定手段で設定された注目領域を含む一部分を、輪郭に対応した軸と輪郭からの距離に対応した軸とから成る座標系の画像となるように、座標変換する座標変換手段と、
を具備することを特徴とする
One aspect of the image processing apparatus of the present invention is:
Contour setting means for setting the contour of the region of interest of the sample image;
Coordinate transformation is performed so that a part of the sample image including at least the region of interest set by the contour setting unit is an image of a coordinate system including an axis corresponding to the contour and an axis corresponding to the distance from the contour. Coordinate conversion means for
It is characterized by comprising
本発明によれば、試料の構造、特に、生体組織標本の同心状の構造を容易に解析することが可能な画像処理装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus which can analyze easily the structure of a sample, especially the concentric structure of a biological tissue specimen can be provided.
以下、本発明を実施するための最良の形態を図面を参照して説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
本実施形態は、試料の少なくとも一部を構成する概略同心状の構造を認識するため、その構造及びその近傍を含む試料画像を、構造の中央を占める物体の輪郭を横軸、その物体からの距離を縦軸とする平面へ画像変換するものである。 In this embodiment, in order to recognize a substantially concentric structure constituting at least a part of the sample, the sample image including the structure and the vicinity thereof is displayed on the horizontal axis of the outline of the object occupying the center of the structure. The image is converted to a plane with the distance as the vertical axis.
なお、本実施形態において、撮像対象の試料は、図2に示すような、ヘマトキシリンとエオジンで染色された前立腺の病理標本である。同図において、概略同心状の構造は癌化した腺管であり、その中央を占める物体は腺管内部の腔(腺管内腔、或いは単に腺腔)である。なお、ヘマトキシリン・エオジン染色は、病理標本の染色手法の中で最も広汎に使用されており、容易且つ安価に実施可能である。 In this embodiment, the sample to be imaged is a prostate pathological specimen stained with hematoxylin and eosin as shown in FIG. In the figure, the substantially concentric structure is a cancerous gland duct, and the object occupying the center is a cavity inside the gland duct (gland duct lumen or simply glandular cavity). Hematoxylin and eosin staining is the most widely used method for staining pathological specimens and can be easily and inexpensively performed.
本実施形態に係る画像処理装置10は、図1(A)に示すように、照明12、(対物及び結像)光学系14、カメラ16、メモリ18、二値化部20、粒子解析部22、腺腔選択部24、距離変換部26、座標変換部28、頻度分布生成部30、頻度ピーク位置検出部32、及び腺管判定部34から構成されている。
As shown in FIG. 1A, the image processing apparatus 10 according to the present embodiment includes an
即ち、図示しないステージ上に設置された撮像対象Oに、図1(B)に示すように、カメラ16と反対側から照明12を照射する。そして、その透過光を、光学系14によりカメラ16が有する図示しない撮像素子の撮像面上に結像させる。ここで、カメラ16は、対象Oの撮像と解析に好適なものを選択し、本実施形態ではRGBカメラを使用する。このカメラ16で撮像された対象Oの画像、例えば図2に示したような病理標本画像は、メモリ18に格納される。
That is, as shown in FIG. 1B, the
その後、二値化部20にて、上記メモリ18に格納された対象Oの画像を、輝度に応じて二値化し、高輝度領域を抽出する。これにより、図2に示した病理標本画像の場合、図3に示すような二値化画像が得られる。病理標本の透過観察においては、腔のように組織中にあって組織の存在しない領域は直接照明光が観測されるため、組織の存在する領域と比較して顕著に高輝度となる。従って、輝度情報を用いれば、腔と組織とを容易に分離することができる。
Thereafter, the
また、高輝度領域を抽出した後に粒子解析を行い、大きさ、位置、形状に応じて選別を行えば、更に精度良く腔領域を分離可能である。例えば、特定の大きさに満たない高輝度領域はノイズと見なして対象から除外する、画像端に隣接する高輝度領域は腔でない背景と見なして対象から除外する、等である。そこで、粒子解析部22で、上記二値化画像より高輝度領域を抽出して粒子解析を行い、腺腔選択部24で、その抽出され粒子解析された各高輝度の連結領域をそれぞれ腺腔として選択する。
Further, if the particle analysis is performed after extracting the high luminance region and the selection is performed according to the size, position, and shape, the cavity region can be separated with higher accuracy. For example, a high-luminance region that is less than a specific size is regarded as noise and excluded from the target, and a high-luminance region adjacent to the image edge is regarded as a non-cavity background and excluded from the target. Therefore, the
次に、こうして選択された複数の腺腔の近傍の画像を、それぞれ、以下に述べる手順によって座標変換する。 Next, the coordinates of the images in the vicinity of the plurality of glandular cavities thus selected are each subjected to coordinate conversion by the procedure described below.
先ず、図4(A)に示すように、任意の単一の腺管に着目し、距離変換部26にて、その腺腔近傍の各画素について、腺腔からの距離を計算する。但し、ここで言う画素と腺腔の距離とは、上記画素から腺腔を構成する全ての画素までのユークリッド距離のうち、最小のものを指す。このアルゴリズムは、数理形態学(モルフォロジー演算)における距離変換として知られており、“効率の良いモルフォロジー演算が可能なフィルタ形状において”(櫻井他,情報処理学会論文誌,Vol.41,No.12,pp.3344−3351)等で開示されている。
First, as shown in FIG. 4A, paying attention to an arbitrary single gland duct, the
図5(A)は、この距離変換の結果を視覚的に説明するために、腺腔(中央斜線領域)100からの距離が等しい点の集合(以下、等距離線)を敢えて描画したものである。図5(A)では、距離“20”、“40”、“60”、“80”、“100”の等距離線102が提示されており、距離“20”、“40”、“60”、“80”の等距離線102は破線、距離“100”の等距離線102は実線で表現されている。一般に、等距離線は閉曲線を形成し、距離の規準となる物体及び他の等距離線とは交点を持たない。従って、任意の等距離線102は、物体(本実施形態では腺腔100)からの距離を用いて一意に特定できる。
FIG. 5A shows a set of points (hereinafter referred to as equidistant lines) having the same distance from the glandular cavity (central oblique line area) 100 in order to visually explain the result of the distance conversion. is there. In FIG. 5A,
また、図5(B)に示すように、物体B外の任意の点Pが与えられた時、その点を含む等距離線Cが唯一つ存在することも明らかである。更に、その等距離線C上に周回の規準となる開始点Sを設ければ、点Pを含む等距離線Cについて、その開始点Sから等距離線Cに沿って求めたPまでの距離(以下、線距離)、或いは線距離を等距離線Cの周回長で正規化したもの(以下、正規化線距離)により、等距離線C上における点Pの位置を一意に記述できる。なお、正規化線距離の値域は常に(0,1)であり、等距離線Cの周回長に依存しない。よって、腺腔(物体B)外の任意の点Pは、腺腔(物体B)からの距離D、及び距離Dの等距離線Cにおける開始点Sからの正規化線距離Lの組を用いて(L,D)と記述でき、この記述は一意である。即ち、XY座標系で(X,Y)と表現される画像上の点Pは、図5(C)に示すように、上記記述方法に基づく座標系において座標(L,D)と表現でき、両者の対応は一対一である。 Further, as shown in FIG. 5B, when an arbitrary point P outside the object B is given, it is clear that there is only one equidistant line C including the point. Further, if a starting point S that is a reference for circulation is provided on the equidistant line C, the distance from the starting point S to the P obtained along the equidistant line C with respect to the equidistant line C including the point P. The position of the point P on the equidistant line C can be uniquely described by (hereinafter, “line distance”) or by normalizing the line distance by the circumference of the equidistant line C (hereinafter, “normalized line distance”). Note that the range of the normalized line distance is always (0, 1) and does not depend on the circumference of the equidistant line C. Therefore, an arbitrary point P outside the glandular cavity (object B) uses a set of the distance D from the glandular cavity (object B) and the normalized line distance L from the start point S in the equidistant line C of the distance D. (L, D), and this description is unique. That is, the point P on the image expressed as (X, Y) in the XY coordinate system can be expressed as coordinates (L, D) in the coordinate system based on the above description method, as shown in FIG. There is a one-to-one correspondence between the two.
以上の原理に基づいて、座標変換部28は、腺腔近傍の画像をLD座標系に変換する。例えば、図4(A)に示したような腺腔近傍の画像を座標変換すると、図4(B)に示すような座標変換結果画像が得られる。ここで、該座標変換結果画像における横軸は正規化線距離Lを表し、左から右へ値が増加する。縦軸は腺腔からの距離Dを表し、上から下へ値が増加する。図4(B)の座標変換結果画像において、縦座標が等しい画素同士は、互いに腺腔からの距離が等しい。
Based on the above principle, the coordinate
ところで、前立腺における腺管は、図6に示すように、中央に腺腔100、その周囲に上皮104、更にその周囲に細胞核106を配置した同心状の構造となっている。一方、図4(C)に示すように、血管は腔の周囲に上皮が無く、細胞核までの距離が非常に短いか、同心状の構造を呈さないことが知られている。
By the way, as shown in FIG. 6, the gland duct in the prostate has a concentric structure in which the
ここで例えば、前立腺癌の進行度をGleason分類に基づいて判定する処理を考える。Gleason分類は、前立腺癌の進行度を判定する診断規準として、病理診断の分野で広く用いられている手法である。Gleason分類は腺管を認識し、形態解析する作業を基本とするものであるから、腺管を正しく、例えば血管と混同すること無く、認識できなければならない。 Here, for example, a process for determining the degree of progression of prostate cancer based on the Gleason classification is considered. The Gleason classification is a technique widely used in the field of pathological diagnosis as a diagnostic criterion for determining the degree of progression of prostate cancer. Since the Gleason classification is based on the task of recognizing and analyzing the gland duct, it must be able to recognize the gland duct correctly, for example, without being confused with a blood vessel.
そこで、頻度分布生成部30により、上記図4(B)に示した座標変換結果画像から細胞核106を表す濃紫色の画素を抽出し、図7(A)に示すような横軸方向の頻度分布を得る。同様に、血管についても、図4(D)に示すように上記座標変換結果画像を求め、図7(B)に示すような横軸方向の頻度分布を得る。腺管は腺腔からの距離“20”付近に細胞核106を表す画素の大きなピークを持つのに対し、血管ではそのような傾向が見られない。従って、頻度ピーク位置検出部32により頻度とピーク位置を検出し、腺管判定部34で、それらを観察することにより、腺管と血管を区別し、腺管だけを認識することができる。なお、ピーク位置検出の前に、頻度分布を平滑化しておけば、ノイズに対してより頑強な処理となる。
Therefore, the frequency
以上の説明は、単一の腺腔に着目した場合についてであったが、一般に前立腺の標本には複数の腺管が含まれる。この場合、腺腔選択部24にて、着目する腔を順に変えながら、上記座標変換と腺管認識処理とを繰り返すことで、病理標本画像に含まれる全ての腺管を認識可能である。
Although the above description is about the case where attention is paid to a single glandular cavity, generally, a specimen of a prostate includes a plurality of gland ducts. In this case, the glandular
なお、腺腔選択部24においては、着目する腺管を自動的に選択するのではなく、ユーザが手動で選択するようにしても良い。
Note that the gland
また、図4(B)や図4(D)に示した座標変換結果画像は、必要に応じて、図示しない表示装置に表示しても良い。この表示の際には、各座標変換結果画像を単独で表示する方法に加え、複数の座標変換結果画像をアレイ状に表示する方法、原画像と座標変換結果画像とを並置して表示する方法が適用できる。 Further, the coordinate conversion result image shown in FIGS. 4B and 4D may be displayed on a display device (not shown) as necessary. In this display, in addition to a method for displaying each coordinate conversion result image alone, a method for displaying a plurality of coordinate conversion result images in an array, and a method for displaying an original image and a coordinate conversion result image in parallel. Is applicable.
また、座標変換結果画像を図示しない記録装置によって記録媒体に記録する際には、原画像と座標変換結果画像との対応関係も合わせて記録しておく。或いは、座標変換前後の画像を組にして記録しておけば、再利用の際に便利である。 When the coordinate conversion result image is recorded on a recording medium by a recording device (not shown), the correspondence between the original image and the coordinate conversion result image is also recorded. Alternatively, if images before and after coordinate conversion are recorded as a set, it is convenient for reuse.
以上説明したように、本一実施形態によれば、病理標本の画像を撮影し、前立腺の腺腔を認識し、腺腔の周囲の画素を座標変換し、腺管を血管と区別して認識することができる。 As described above, according to the present embodiment, an image of a pathological specimen is taken, the glandular cavity of the prostate is recognized, the pixels around the glandular cavity are coordinate-converted, and the gland duct is recognized separately from the blood vessel. be able to.
本手法を用いれば、認識の対象が単純な幾何図形の組み合わせでない場合でも、上記座標変換によってその近傍の状態を容易に解析することが可能となり、特に物体からの距離の等しい画素が座標変換後に同じ縦座標となることから、投影や頻度分布等の簡単な処理を用いて対象の近傍を解析することが可能となる。これは、対象が不定形状であることが多い生体標本の解析に特に好適である。 If this method is used, even if the object to be recognized is not a simple geometric combination, it is possible to easily analyze the state of the neighborhood by the above coordinate conversion. Since they have the same ordinate, it is possible to analyze the vicinity of the object using simple processing such as projection and frequency distribution. This is particularly suitable for the analysis of a biological specimen whose object is often indefinite shape.
以上、一実施形態に基づいて本発明を説明したが、本発明は上述した一実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。 As mentioned above, although this invention was demonstrated based on one Embodiment, this invention is not limited to one Embodiment mentioned above, Of course, a various deformation | transformation and application are possible within the range of the summary of this invention. It is.
例えば、上記一実施形態では撮像対象Oとして生体標本(病理標本)を用いているが、他の試料についても適用可能である。 For example, in the above-described embodiment, a biological specimen (pathological specimen) is used as the imaging target O, but the present invention can also be applied to other specimens.
(付記)
前記の具体的実施形態から、以下のような構成の発明を抽出することができる。
(Appendix)
The invention having the following configuration can be extracted from the specific embodiment.
(1) 試料画像の注目領域の輪郭を設定する輪郭設定手段と、
上記試料画像のうち、少なくとも上記輪郭設定手段で設定された注目領域を含む一部分を、輪郭に対応した軸と輪郭からの距離に対応した軸とから成る座標系の画像となるように、座標変換する座標変換手段と、
を具備することを特徴とする画像処理装置。
(1) contour setting means for setting the contour of the region of interest of the sample image;
Coordinate transformation is performed so that at least a part of the sample image including the region of interest set by the contour setting unit is an image of a coordinate system including an axis corresponding to the contour and an axis corresponding to the distance from the contour. Coordinate conversion means for
An image processing apparatus comprising:
ここで、上記輪郭設定手段は、図1(A)における照明12、光学系14、カメラ16、メモリ18、二値化部20、粒子解析部22、及び腺腔選択部24が対応し、上記座標変換手段は、図1(A)における、距離変換部26及び座標変換部28が対応する。
Here, the contour setting means corresponds to the
この(1)に記載の画像処理装置によれば、試料の構造を容易に解析することが可能な画像処理装置を提供することができる。 According to the image processing apparatus described in (1), it is possible to provide an image processing apparatus that can easily analyze the structure of the sample.
(2) 上記輪郭に対応した軸の値域が正規化されていることを特徴とする(1)に記載の画像処理装置。 (2) The image processing apparatus according to (1), wherein a range of an axis corresponding to the contour is normalized.
この(2)に記載の画像処理装置によれば、注目領域の輪郭の大きさに依存しない処理が可能となる。 According to the image processing apparatus described in (2), it is possible to perform processing independent of the size of the contour of the attention area.
(3) 試料が生体標本であることを特徴とする(1)又は(2)に記載の画像処理装置。 (3) The image processing apparatus according to (1) or (2), wherein the sample is a biological specimen.
この(3)に記載の画像処理装置によれば、生体標本の構造を解析することが可能となる。 According to the image processing apparatus described in (3), the structure of the biological specimen can be analyzed.
(4) 上記生体標本は、病理標本であることを特徴とする(3)に記載の画像処理装置。 (4) The image processing apparatus according to (3), wherein the biological specimen is a pathological specimen.
この(4)に記載の画像処理装置によれば、病理標本の部位の構造を解析することができる。 According to the image processing apparatus described in (4), it is possible to analyze the structure of the pathological specimen.
(5) 上記病理標本は、前立腺の標本であることを特徴とする(4)に記載の画像処理装置。 (5) The image processing apparatus according to (4), wherein the pathological specimen is a prostate specimen.
この(5)に記載の画像処理装置によれば、前立腺の構造を解析できる。 According to the image processing apparatus described in (5), the structure of the prostate can be analyzed.
(6) 上記注目領域は、上記前立腺の腺管の内腔であることを特徴とする(5)に記載の画像処理装置。 (6) The image processing device according to (5), wherein the region of interest is a lumen of a gland duct of the prostate.
この(6)に記載の画像処理装置によれば、前立腺癌の診断に役立てることができる。 According to the image processing apparatus described in (6), it can be used for diagnosis of prostate cancer.
(7) 上記座標変換手段で座標変換された画像に基づいて、上記試料画像に含まれる複数の領域を分類する分類手段を更に具備することを特徴とする(1)乃至(6)の何れかに記載の画像処理装置。 (7) Any one of (1) to (6), further comprising a classification unit that classifies a plurality of regions included in the sample image based on the image coordinate-transformed by the coordinate transformation unit. An image processing apparatus according to 1.
ここで、上記分類手段は、図1(A)における頻度分布生成部30、頻度ピーク位置検出部32、及び腺管判定部34が対応する。
Here, the classification means corresponds to the frequency
この(7)に記載の画像処理装置によれば、自動的に構造を分類することができる。 According to the image processing apparatus described in (7), the structures can be automatically classified.
(8) 上記分類手段は、前立腺の腺管と血管を分類することを特徴とする(7)に記載の画像処理装置。 (8) The image processing apparatus according to (7), wherein the classification unit classifies the gland ducts and blood vessels of the prostate.
この(8)に記載の画像処理装置によれば、前立腺の腺管を分類できるので、前立腺癌の診断に役立てることができる。 According to the image processing apparatus described in (8), since the prostate gland can be classified, it can be used for diagnosis of prostate cancer.
(9) 上記座標変換手段で座標変換された画像を表示する表示手段を更に具備することを特徴とする(1)乃至(8)に記載の画像処理装置。 (9) The image processing apparatus according to any one of (1) to (8), further comprising display means for displaying an image coordinate-converted by the coordinate conversion means.
ここで、上記表示手段は、図示しない表示装置が対応する。 Here, the display means corresponds to a display device (not shown).
この(9)に記載の画像処理装置によれば、その表示された画像から試料の構造をユーザが容易に把握できるようになる。 According to the image processing apparatus described in (9), the user can easily grasp the structure of the sample from the displayed image.
(10) 上記表示手段は、複数の座標変換された画像を並べて表示することを特徴とする(9)に記載の画像処理装置。 (10) The image processing apparatus according to (9), wherein the display unit displays a plurality of coordinate-transformed images side by side.
この(10)に記載の画像処理装置によれば、複数の座標変換された画像を見比べることができる。 According to the image processing apparatus described in (10), it is possible to compare a plurality of coordinate-converted images.
(11) 上記表示手段は、上記試料画像と座標変換された画像とを並べて表示することを特徴とする(9)に記載の画像処理装置。 (11) The image processing apparatus according to (9), wherein the display unit displays the sample image and the coordinate-converted image side by side.
この(11)に記載の画像処理装置によれば、座標変換前後の画像を見比べることができる。 According to the image processing apparatus described in (11), images before and after coordinate conversion can be compared.
(12) 上記試料画像と上記座標変換手段で座標変換された画像とを組にして記録する記録手段を更に具備することを特徴とする請(1)乃至(11)の何れかに記載の画像処理装置。 (12) The image according to any one of (1) to (11), further comprising recording means for recording the sample image and the image coordinate-transformed by the coordinate transformation means as a set. Processing equipment.
ここで、上記記録手段は、図示しない記録装置が対応する。 Here, the recording means corresponds to a recording device (not shown).
この(12)に記載の画像処理装置によれば、座標変換前後の画像が別々になってしまうことがないので、再利用の際に便利である。 According to the image processing apparatus described in (12), the images before and after the coordinate conversion are not separated, which is convenient for reuse.
10…画像処理装置、 12…照明、 14…光学系、 16…カメラ、 18…メモリ、 20…二値化部、 22…粒子解析部、 24…腺腔選択部、 26…距離変換部、 28…座標変換部、 30…頻度分布生成部、 32…頻度ピーク位置検出部、 34…腺管判定部、 100…腺腔、 102…等距離線、 104…上皮、 106…細胞核、 O…対象。 DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus, 12 ... Illumination, 14 ... Optical system, 16 ... Camera, 18 ... Memory, 20 ... Binarization part, 22 ... Particle analysis part, 24 ... Glandular cavity selection part, 26 ... Distance conversion part, 28 DESCRIPTION OF SYMBOLS ... Coordinate conversion part, 30 ... Frequency distribution generation part, 32 ... Frequency peak position detection part, 34 ... Gland duct determination part, 100 ... Glandular cavity, 102 ... Equidistant line, 104 ... Epithelium, 106 ... Cell nucleus, O ... Object.
Claims (12)
上記試料画像のうち、少なくとも上記輪郭設定手段で設定された注目領域を含む一部分を、輪郭に対応した軸と輪郭からの距離に対応した軸とから成る座標系の画像となるように、座標変換する座標変換手段と、
を具備することを特徴とする画像処理装置。 Contour setting means for setting the contour of the region of interest of the sample image;
Coordinate transformation is performed so that at least a part of the sample image including the region of interest set by the contour setting unit is an image of a coordinate system including an axis corresponding to the contour and an axis corresponding to the distance from the contour. Coordinate conversion means for
An image processing apparatus comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004169963A JP2005352571A (en) | 2004-06-08 | 2004-06-08 | Image processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004169963A JP2005352571A (en) | 2004-06-08 | 2004-06-08 | Image processing device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2005352571A true JP2005352571A (en) | 2005-12-22 |
| JP2005352571A5 JP2005352571A5 (en) | 2007-07-19 |
Family
ID=35587032
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004169963A Pending JP2005352571A (en) | 2004-06-08 | 2004-06-08 | Image processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005352571A (en) |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008139143A (en) * | 2006-12-01 | 2008-06-19 | Sysmex Corp | Method and apparatus for forming specimen image |
| JP2009180539A (en) * | 2008-01-29 | 2009-08-13 | Nec Corp | Pathological diagnosis support apparatus, pathological diagnosis support method, and program |
| JP2009236728A (en) * | 2008-03-27 | 2009-10-15 | Nec Corp | Image analyzer, its method, program, and recording medium |
| WO2010041423A1 (en) * | 2008-10-09 | 2010-04-15 | 日本電気株式会社 | Histopathologic diagnosis support system, histopathologic diagnosis support program, and histopathologic diagnosis support method |
| JP2010185858A (en) * | 2009-02-13 | 2010-08-26 | Olympus Corp | Image processing apparatus and image processing program |
| WO2010140654A1 (en) | 2009-06-03 | 2010-12-09 | 日本電気株式会社 | Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, and pathologic tissue image analyzing program |
| WO2012043498A1 (en) * | 2010-09-30 | 2012-04-05 | 日本電気株式会社 | Information processing device, information processing system, information processing method, program, and recording medium |
| US8390086B2 (en) | 2006-05-22 | 2013-03-05 | Hewlett-Packard Development Company, L.P. | Solar cell employing a nanowire |
| US8847012B2 (en) | 2007-12-05 | 2014-09-30 | Toyota Jidosha Kabushiki Kaisha | Genes that increase plant oil and method for using the same |
| US8847011B2 (en) | 2007-12-05 | 2014-09-30 | Toyota Jidosha Kabushiki Kaisha | Genes that increase plant oil and method for using the same |
| US9045786B2 (en) | 2008-03-04 | 2015-06-02 | Toyota Jidosha Kabushiki Kaisha | Gene that increases production of plant fat-and-oil and method for using the same |
| US9169488B2 (en) | 2009-06-04 | 2015-10-27 | Toyota Jidosha Kabushiki Kaisha | Gene capable of improving material productivity in seed and method for use thereof |
| US9303265B2 (en) | 2009-06-04 | 2016-04-05 | Toyota Jidosha Kabushiki Kaisha | Gene for increasing plant weight and method for using the same |
| US9309531B2 (en) | 2009-06-04 | 2016-04-12 | Toyota Jidosha Kabushiki Kaisha | Plant with reduced protein productivity in seeds, and method for producing same |
| JP2018185265A (en) * | 2017-04-27 | 2018-11-22 | 日本電気株式会社 | Information processing apparatus, control method, and program |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004037399A (en) * | 2002-07-05 | 2004-02-05 | Pentax Corp | Image inspection method and apparatus |
-
2004
- 2004-06-08 JP JP2004169963A patent/JP2005352571A/en active Pending
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004037399A (en) * | 2002-07-05 | 2004-02-05 | Pentax Corp | Image inspection method and apparatus |
Cited By (37)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8390086B2 (en) | 2006-05-22 | 2013-03-05 | Hewlett-Packard Development Company, L.P. | Solar cell employing a nanowire |
| JP2008139143A (en) * | 2006-12-01 | 2008-06-19 | Sysmex Corp | Method and apparatus for forming specimen image |
| US9018446B2 (en) | 2007-12-05 | 2015-04-28 | Toyota Jidosha Kabushiki Kaisha | Genes that increase plant oil and method for using the same |
| US8847012B2 (en) | 2007-12-05 | 2014-09-30 | Toyota Jidosha Kabushiki Kaisha | Genes that increase plant oil and method for using the same |
| US9068193B2 (en) | 2007-12-05 | 2015-06-30 | Toyota Jidosha Kabushiki Kaisha | Genes that increase plant oil and method for using the same |
| US9062318B2 (en) | 2007-12-05 | 2015-06-23 | Toyota Jidosha Kabushiki Kaisha | Genes that increase plant oil and method for using the same |
| US9018450B2 (en) | 2007-12-05 | 2015-04-28 | Toyota Jidosha Kabushiki Kaisha | Genes that increase plant oil and method for using the same |
| US9012727B2 (en) | 2007-12-05 | 2015-04-21 | Toyota Jidosha Kabushiki Kaisha | Genes that increase plant oil and method for using the same |
| US9012726B2 (en) | 2007-12-05 | 2015-04-21 | Toyota Jidosha Kabushiki Kaisha | Genes that increase plant oil and method for using the same |
| US8847011B2 (en) | 2007-12-05 | 2014-09-30 | Toyota Jidosha Kabushiki Kaisha | Genes that increase plant oil and method for using the same |
| JP2009180539A (en) * | 2008-01-29 | 2009-08-13 | Nec Corp | Pathological diagnosis support apparatus, pathological diagnosis support method, and program |
| US8787650B2 (en) | 2008-01-29 | 2014-07-22 | Nec Corporation | Pathological diagnosis support |
| US9045786B2 (en) | 2008-03-04 | 2015-06-02 | Toyota Jidosha Kabushiki Kaisha | Gene that increases production of plant fat-and-oil and method for using the same |
| JP2009236728A (en) * | 2008-03-27 | 2009-10-15 | Nec Corp | Image analyzer, its method, program, and recording medium |
| US8644582B2 (en) | 2008-10-09 | 2014-02-04 | Nec Corporation | Support system for histopathological diagnosis, support program for histopathological diagnosis and support method for histopathological diagnosis |
| WO2010041423A1 (en) * | 2008-10-09 | 2010-04-15 | 日本電気株式会社 | Histopathologic diagnosis support system, histopathologic diagnosis support program, and histopathologic diagnosis support method |
| JP2010185858A (en) * | 2009-02-13 | 2010-08-26 | Olympus Corp | Image processing apparatus and image processing program |
| US8594411B2 (en) | 2009-06-03 | 2013-11-26 | Nec Corporation | Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, and pathologic tissue image analyzing program |
| CN102460156A (en) * | 2009-06-03 | 2012-05-16 | 日本电气株式会社 | Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, and pathologic tissue image analyzing program |
| CN102460156B (en) * | 2009-06-03 | 2014-09-10 | 日本电气株式会社 | Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, and pathologic tissue image analyzing program |
| JP2010281636A (en) * | 2009-06-03 | 2010-12-16 | Nec Corp | Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, pathologic tissue image analyzing program |
| WO2010140654A1 (en) | 2009-06-03 | 2010-12-09 | 日本電気株式会社 | Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, and pathologic tissue image analyzing program |
| US9816099B2 (en) | 2009-06-04 | 2017-11-14 | Toyota Jidosha Kabushiki Kaisha | Gene for increasing plant weight and method for using the same |
| US9309531B2 (en) | 2009-06-04 | 2016-04-12 | Toyota Jidosha Kabushiki Kaisha | Plant with reduced protein productivity in seeds, and method for producing same |
| US9169488B2 (en) | 2009-06-04 | 2015-10-27 | Toyota Jidosha Kabushiki Kaisha | Gene capable of improving material productivity in seed and method for use thereof |
| US10000764B2 (en) | 2009-06-04 | 2018-06-19 | Toyota Jidosha Kabushiki Kaisha | Gene for increasing plant weight and method for using the same |
| US9303265B2 (en) | 2009-06-04 | 2016-04-05 | Toyota Jidosha Kabushiki Kaisha | Gene for increasing plant weight and method for using the same |
| US9309530B2 (en) | 2009-06-04 | 2016-04-12 | Toyota Jidosha Kabushiki Kaisha | Gene capable of improving material productivity in seed and method for use thereof |
| US9309529B2 (en) | 2009-06-04 | 2016-04-12 | Toyota Jidosha Kabushiki Kaisha | Gene capable of improving material productivity in seed and method for use thereof |
| US9970020B2 (en) | 2009-06-04 | 2018-05-15 | Toyota Jidosha Kabushiki Kaisha | Plant with reduced protein productivity in seeds and method for producing same |
| US9856488B2 (en) | 2009-06-04 | 2018-01-02 | Toyota Jidosha Kabushiki Kaisha | Plant with reduced protein productivity in seeds and method for producing same |
| US9840717B2 (en) | 2009-06-04 | 2017-12-12 | Toyota Jidosha Kabushiki Kaisha | Plant with reduced protein productivity in seeds and method for producing same |
| WO2012043498A1 (en) * | 2010-09-30 | 2012-04-05 | 日本電気株式会社 | Information processing device, information processing system, information processing method, program, and recording medium |
| US9076198B2 (en) | 2010-09-30 | 2015-07-07 | Nec Corporation | Information processing apparatus, information processing system, information processing method, program and recording medium |
| JP5871325B2 (en) * | 2010-09-30 | 2016-03-01 | 日本電気株式会社 | Information processing apparatus, information processing system, information processing method, program, and recording medium |
| US10115191B2 (en) | 2010-09-30 | 2018-10-30 | Nec Corporation | Information processing apparatus, information processing system, information processing method, program, and recording medium |
| JP2018185265A (en) * | 2017-04-27 | 2018-11-22 | 日本電気株式会社 | Information processing apparatus, control method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6045417B2 (en) | Image processing apparatus, electronic apparatus, endoscope apparatus, program, and operation method of image processing apparatus | |
| JP5804220B1 (en) | Image processing apparatus and image processing program | |
| JP2005352571A (en) | Image processing device | |
| US9672610B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
| CN104363815B (en) | Image processing apparatus and image processing method | |
| JP6791245B2 (en) | Image processing device, image processing method and image processing program | |
| US8682048B2 (en) | Image processing device, image processing method, computer-readable recording device | |
| US11771324B1 (en) | System and method for residual cancer cell detection | |
| US10921252B2 (en) | Image processing apparatus and method of operating image processing apparatus | |
| JP2013526717A5 (en) | ||
| JPWO2019087790A1 (en) | Examination support equipment, endoscopy equipment, examination support methods, and examination support programs | |
| JPWO2017150194A1 (en) | Image processing apparatus, image processing method, and program | |
| KR20160118037A (en) | Apparatus and method for detecting lesion from medical image automatically | |
| TW201942868A (en) | System and method for identification of symptom image | |
| JP2017070609A (en) | Image processing apparatus and image processing method | |
| US5193127A (en) | Method and device for detecting patterns adapted automatically for the level of noise | |
| CN114945825A (en) | Cancer determination device, cancer determination method, and program | |
| JPWO2016076104A1 (en) | Image processing method, image processing apparatus, and program | |
| JP2005198890A (en) | Abnormal shadow detecting method, abnormal shadow detecting apparatus and program for the same | |
| CN110363056A (en) | Sperm Recognition Method in Kinetic Video Images | |
| Jatti | Segmentation of microscopic bone images | |
| JP2005160916A (en) | Method, apparatus and program for determining calcification shadow | |
| Boschetto et al. | Detection and density estimation of goblet cells in confocal endoscopy for the evaluation of celiac disease | |
| CN112419353A (en) | Method and device for detecting opening and closing tools | |
| WO2016029208A1 (en) | System and method for automated stereology of cancer |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070605 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070605 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100316 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100810 |