[go: up one dir, main page]

JP2005352571A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2005352571A
JP2005352571A JP2004169963A JP2004169963A JP2005352571A JP 2005352571 A JP2005352571 A JP 2005352571A JP 2004169963 A JP2004169963 A JP 2004169963A JP 2004169963 A JP2004169963 A JP 2004169963A JP 2005352571 A JP2005352571 A JP 2005352571A
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
coordinate
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004169963A
Other languages
Japanese (ja)
Other versions
JP2005352571A5 (en
Inventor
Satoshi Arai
敏 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004169963A priority Critical patent/JP2005352571A/en
Publication of JP2005352571A publication Critical patent/JP2005352571A/en
Publication of JP2005352571A5 publication Critical patent/JP2005352571A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Biological Materials (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily analyze a structure, especially a concentric structure, of a living tissue sample. <P>SOLUTION: A glandular cavity selection part 24 selects glandular cavities from a sample image formed by photographing an object O. Paying attention to an arbitrary single glandular cavity among the selected glandular cavities, a distance transformation part 26 calculates a distance from a profile of the glandular cavity as to each of pixels around the glandular cavity. A coordinate transformation part 28 performs coordinate transformation so that the image around the glandular cavity is transformed into an image of the coordinate system consisting of an axis matching the profile of the glandular cavity and an axis corresponding to the distance from the profile. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、試料を撮像して得られた画像を処理する画像処理装置に関し、特に、生体組織標本に含まれる同心状の構造の解析に関する。   The present invention relates to an image processing apparatus that processes an image obtained by imaging a sample, and more particularly to analysis of concentric structures contained in a biological tissue specimen.

これまで、生体標本、特に病理標本を画像処理によって解析しようと、様々な試みが為されてきた。   Until now, various attempts have been made to analyze biological specimens, particularly pathological specimens, by image processing.

病理標本を解析するには、標本を構成する構造物、即ち細胞や細胞核、或いは複数の細胞によって構成される構造を認識する必要がある。これらを正確に認識し、特徴として組み合わせることにより、初めて診断支援に有効な情報を抽出することが可能となる。   In order to analyze a pathological specimen, it is necessary to recognize a structure constituting the specimen, that is, a structure constituted by a cell, a cell nucleus, or a plurality of cells. It is possible to extract information effective for diagnosis support for the first time by accurately recognizing them and combining them as features.

複数の細胞によって構成される構造として、前立腺の腺管が挙げられる。これは、前立腺液を分泌するための器官であって、腔(組織の存在しない空間)を中心に、腔の壁面を構成する細胞がこれを取り囲む構造を有している。正常な腺管、或いは比較的軽度の前立腺癌の腺管は概略円形であるが、癌化した前立腺では腺管が歪んだ形状となる場合が多い。   A structure composed of a plurality of cells includes the gland duct of the prostate. This is an organ for secreting prostate fluid, and has a structure in which cells constituting the wall surface of the cavity surround the cavity (space where no tissue exists). Normal gland ducts or relatively mild prostate cancer gland ducts are generally circular, but cancerous prostates often have distorted glandular duct shapes.

特許文献1では、病理標本、特に前立腺の標本を対象とし、細胞核の形態特徴や腔の形態特徴を組み合わせることにより、診断支援のための分類判定を行う技術を開示している。   Patent Document 1 discloses a technique for performing classification determination for diagnosis support by combining pathological specimens, particularly prostate specimens, and combining morphological characteristics of cell nuclei and morphological characteristics of cavities.

また、特許文献2には、円形の物体を認識するための技術が開示されている。これは、円形物体の中心と同一の中心を有する同心円状の観測領域を設け、この観測領域における1周分の輝度プロファイルを撮像・処理することで円形物体を認識し、他の円形物体と比較する特徴を与えるものである。   Patent Literature 2 discloses a technique for recognizing a circular object. This is a concentric observation area that has the same center as the center of the circular object, and it recognizes the circular object by imaging and processing the luminance profile for one round in this observation area, and compares it with other circular objects. It gives the characteristic to do.

更に、特許文献3にも、円形の物体を認識するための別の技術が開示されている。これは、円形物体の中心と輪郭を特定した後、物体の回転に依存しない特徴量を求めることで、円形物体の向き(回転角)に依存しない認識と比較照合を可能とするものである。
特開2001−59842号公報 特開平7−21381号公報 特開2002−32812号公報
Further, Patent Document 3 discloses another technique for recognizing a circular object. In this method, after identifying the center and contour of a circular object, a feature amount that does not depend on the rotation of the object is obtained, thereby enabling recognition and comparison verification independent of the orientation (rotation angle) of the circular object.
JP 2001-59842 A JP-A-7-21381 JP 2002-32812 A

生体標本は、工業製品とは異なり、円形や直線等の単純な図形の組では表現できず、完全に同じ形状が繰り返し出現することも、通常はあり得ない。正常な腺管、或いは比較的軽度の前立腺癌の腺管は概略円形であるとは言え、工業検査で想定するような完全な円形には程遠いものである。特に、癌化した組織は構造的な秩序が失われており、この傾向が顕著である。   Unlike an industrial product, a biological specimen cannot be expressed by a set of simple figures such as a circle or a straight line, and it is usually impossible that the same shape repeatedly appears. Normal gland ducts or relatively mild prostate cancer gland ducts are generally circular, but far from the perfect circle as envisaged in industrial tests. In particular, cancerous tissue loses structural order, and this tendency is remarkable.

上記特許文献1に開示の技術では、組織に含まれる細胞核と腔を別々に解析しているが、前立腺の主要器官である腺管を解析する際には、細胞核や腔等によって構成される構造を認識しなければならない。この先行技術では、腺管は腔の周囲を細胞が取り囲んだ構造で、細胞にはそれぞれ細胞核が含まれる、と言った組織の構造に関する配慮が欠けており、開示された解析手法では精度の良い腺管の認識は期待できない。   In the technique disclosed in Patent Document 1, cell nuclei and cavities contained in tissue are separately analyzed. However, when analyzing a gland duct that is a main organ of the prostate, a structure constituted by cell nuclei, cavities, and the like. Must be recognized. In this prior art, the gland duct is a structure in which cells surround the cavity, and each cell contains a cell nucleus, so there is a lack of consideration regarding the structure of the tissue, and the disclosed analysis method has high accuracy. Recognition of the ducts is not expected.

また、上記特許文献2に開示の技術は、物体が中心を有し、且つ中心に関して概略回転対称であることを前提としている。即ち、車輪のような物体を前提とした技術であって、生体標本の認識に適用できるものではない。   The technique disclosed in Patent Document 2 is based on the premise that the object has a center and is approximately rotationally symmetric with respect to the center. That is, it is a technique based on an object such as a wheel, and is not applicable to recognition of a biological specimen.

そして、上記特許文献3に開示の技術は、物体が鋳造されたように殆ど同じ形状であることを前提としている。即ち、硬貨のような物体を前提とした技術であって、生体標本の認識に適用できるものではない。   The technique disclosed in Patent Document 3 is based on the premise that the object has almost the same shape as if the object was cast. That is, the technique is based on an object such as a coin, and is not applicable to the recognition of a biological specimen.

本発明は、上記の点に鑑みてなされたもので、試料の構造、特に、生体組織標本の同心状の構造を容易に解析することが可能な画像処理装置を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide an image processing apparatus that can easily analyze the structure of a sample, in particular, the concentric structure of a biological tissue specimen.

本発明の画像処理装置の一態様は、
試料画像の注目領域の輪郭を設定する輪郭設定手段と、
上記試料画像のうち、少なくとも上記輪郭設定手段で設定された注目領域を含む一部分を、輪郭に対応した軸と輪郭からの距離に対応した軸とから成る座標系の画像となるように、座標変換する座標変換手段と、
を具備することを特徴とする
One aspect of the image processing apparatus of the present invention is:
Contour setting means for setting the contour of the region of interest of the sample image;
Coordinate transformation is performed so that a part of the sample image including at least the region of interest set by the contour setting unit is an image of a coordinate system including an axis corresponding to the contour and an axis corresponding to the distance from the contour. Coordinate conversion means for
It is characterized by comprising

本発明によれば、試料の構造、特に、生体組織標本の同心状の構造を容易に解析することが可能な画像処理装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus which can analyze easily the structure of a sample, especially the concentric structure of a biological tissue specimen can be provided.

以下、本発明を実施するための最良の形態を図面を参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

本実施形態は、試料の少なくとも一部を構成する概略同心状の構造を認識するため、その構造及びその近傍を含む試料画像を、構造の中央を占める物体の輪郭を横軸、その物体からの距離を縦軸とする平面へ画像変換するものである。   In this embodiment, in order to recognize a substantially concentric structure constituting at least a part of the sample, the sample image including the structure and the vicinity thereof is displayed on the horizontal axis of the outline of the object occupying the center of the structure. The image is converted to a plane with the distance as the vertical axis.

なお、本実施形態において、撮像対象の試料は、図2に示すような、ヘマトキシリンとエオジンで染色された前立腺の病理標本である。同図において、概略同心状の構造は癌化した腺管であり、その中央を占める物体は腺管内部の腔(腺管内腔、或いは単に腺腔)である。なお、ヘマトキシリン・エオジン染色は、病理標本の染色手法の中で最も広汎に使用されており、容易且つ安価に実施可能である。   In this embodiment, the sample to be imaged is a prostate pathological specimen stained with hematoxylin and eosin as shown in FIG. In the figure, the substantially concentric structure is a cancerous gland duct, and the object occupying the center is a cavity inside the gland duct (gland duct lumen or simply glandular cavity). Hematoxylin and eosin staining is the most widely used method for staining pathological specimens and can be easily and inexpensively performed.

本実施形態に係る画像処理装置10は、図1(A)に示すように、照明12、(対物及び結像)光学系14、カメラ16、メモリ18、二値化部20、粒子解析部22、腺腔選択部24、距離変換部26、座標変換部28、頻度分布生成部30、頻度ピーク位置検出部32、及び腺管判定部34から構成されている。   As shown in FIG. 1A, the image processing apparatus 10 according to the present embodiment includes an illumination 12, an (objective and imaging) optical system 14, a camera 16, a memory 18, a binarization unit 20, and a particle analysis unit 22. , Gland cavity selection unit 24, distance conversion unit 26, coordinate conversion unit 28, frequency distribution generation unit 30, frequency peak position detection unit 32, and gland duct determination unit 34.

即ち、図示しないステージ上に設置された撮像対象Oに、図1(B)に示すように、カメラ16と反対側から照明12を照射する。そして、その透過光を、光学系14によりカメラ16が有する図示しない撮像素子の撮像面上に結像させる。ここで、カメラ16は、対象Oの撮像と解析に好適なものを選択し、本実施形態ではRGBカメラを使用する。このカメラ16で撮像された対象Oの画像、例えば図2に示したような病理標本画像は、メモリ18に格納される。   That is, as shown in FIG. 1B, the illumination 12 is irradiated from the opposite side to the camera 16 to the imaging target O placed on the stage (not shown). Then, the transmitted light is imaged on an imaging surface of an imaging element (not shown) included in the camera 16 by the optical system 14. Here, the camera 16 is selected to be suitable for imaging and analysis of the target O, and an RGB camera is used in this embodiment. An image of the object O captured by the camera 16, for example, a pathological specimen image as shown in FIG. 2 is stored in the memory 18.

その後、二値化部20にて、上記メモリ18に格納された対象Oの画像を、輝度に応じて二値化し、高輝度領域を抽出する。これにより、図2に示した病理標本画像の場合、図3に示すような二値化画像が得られる。病理標本の透過観察においては、腔のように組織中にあって組織の存在しない領域は直接照明光が観測されるため、組織の存在する領域と比較して顕著に高輝度となる。従って、輝度情報を用いれば、腔と組織とを容易に分離することができる。   Thereafter, the binarization unit 20 binarizes the image of the object O stored in the memory 18 according to the luminance, and extracts a high luminance region. Thereby, in the case of the pathological specimen image shown in FIG. 2, a binarized image as shown in FIG. 3 is obtained. In the transmission observation of the pathological specimen, since the illumination light is directly observed in a region such as a cavity where the tissue is not present, the luminance is remarkably higher than that in the region where the tissue is present. Therefore, if the luminance information is used, the cavity and the tissue can be easily separated.

また、高輝度領域を抽出した後に粒子解析を行い、大きさ、位置、形状に応じて選別を行えば、更に精度良く腔領域を分離可能である。例えば、特定の大きさに満たない高輝度領域はノイズと見なして対象から除外する、画像端に隣接する高輝度領域は腔でない背景と見なして対象から除外する、等である。そこで、粒子解析部22で、上記二値化画像より高輝度領域を抽出して粒子解析を行い、腺腔選択部24で、その抽出され粒子解析された各高輝度の連結領域をそれぞれ腺腔として選択する。   Further, if the particle analysis is performed after extracting the high luminance region and the selection is performed according to the size, position, and shape, the cavity region can be separated with higher accuracy. For example, a high-luminance region that is less than a specific size is regarded as noise and excluded from the target, and a high-luminance region adjacent to the image edge is regarded as a non-cavity background and excluded from the target. Therefore, the particle analysis unit 22 extracts a high-luminance region from the binarized image to perform particle analysis, and the glandular cavity selection unit 24 sets each extracted high-brightness connected region as a glandular cavity. Select as.

次に、こうして選択された複数の腺腔の近傍の画像を、それぞれ、以下に述べる手順によって座標変換する。   Next, the coordinates of the images in the vicinity of the plurality of glandular cavities thus selected are each subjected to coordinate conversion by the procedure described below.

先ず、図4(A)に示すように、任意の単一の腺管に着目し、距離変換部26にて、その腺腔近傍の各画素について、腺腔からの距離を計算する。但し、ここで言う画素と腺腔の距離とは、上記画素から腺腔を構成する全ての画素までのユークリッド距離のうち、最小のものを指す。このアルゴリズムは、数理形態学(モルフォロジー演算)における距離変換として知られており、“効率の良いモルフォロジー演算が可能なフィルタ形状において”(櫻井他,情報処理学会論文誌,Vol.41,No.12,pp.3344−3351)等で開示されている。   First, as shown in FIG. 4A, paying attention to an arbitrary single gland duct, the distance conversion unit 26 calculates the distance from the glandular cavity for each pixel near the glandular cavity. However, the distance between the pixel and the glandular cavity here refers to the minimum distance among the Euclidean distances from the pixel to all the pixels constituting the glandular cavity. This algorithm is known as distance transformation in mathematical morphology (morphological operation), and “in a filter shape capable of efficient morphological operation” (Aoi et al., Information Processing Society of Japan, Vol. 41, No. 12). , Pp. 3344-3351).

図5(A)は、この距離変換の結果を視覚的に説明するために、腺腔(中央斜線領域)100からの距離が等しい点の集合(以下、等距離線)を敢えて描画したものである。図5(A)では、距離“20”、“40”、“60”、“80”、“100”の等距離線102が提示されており、距離“20”、“40”、“60”、“80”の等距離線102は破線、距離“100”の等距離線102は実線で表現されている。一般に、等距離線は閉曲線を形成し、距離の規準となる物体及び他の等距離線とは交点を持たない。従って、任意の等距離線102は、物体(本実施形態では腺腔100)からの距離を用いて一意に特定できる。   FIG. 5A shows a set of points (hereinafter referred to as equidistant lines) having the same distance from the glandular cavity (central oblique line area) 100 in order to visually explain the result of the distance conversion. is there. In FIG. 5A, equidistant lines 102 of distances “20”, “40”, “60”, “80”, “100” are presented, and the distances “20”, “40”, “60” are presented. , “80” equidistant line 102 is represented by a broken line, and “100” equidistant line 102 is represented by a solid line. In general, equidistant lines form a closed curve, and do not have intersections with objects and other equidistant lines that are distance criteria. Therefore, the arbitrary equidistant line 102 can be uniquely identified using the distance from the object (in this embodiment, the glandular cavity 100).

また、図5(B)に示すように、物体B外の任意の点Pが与えられた時、その点を含む等距離線Cが唯一つ存在することも明らかである。更に、その等距離線C上に周回の規準となる開始点Sを設ければ、点Pを含む等距離線Cについて、その開始点Sから等距離線Cに沿って求めたPまでの距離(以下、線距離)、或いは線距離を等距離線Cの周回長で正規化したもの(以下、正規化線距離)により、等距離線C上における点Pの位置を一意に記述できる。なお、正規化線距離の値域は常に(0,1)であり、等距離線Cの周回長に依存しない。よって、腺腔(物体B)外の任意の点Pは、腺腔(物体B)からの距離D、及び距離Dの等距離線Cにおける開始点Sからの正規化線距離Lの組を用いて(L,D)と記述でき、この記述は一意である。即ち、XY座標系で(X,Y)と表現される画像上の点Pは、図5(C)に示すように、上記記述方法に基づく座標系において座標(L,D)と表現でき、両者の対応は一対一である。   Further, as shown in FIG. 5B, when an arbitrary point P outside the object B is given, it is clear that there is only one equidistant line C including the point. Further, if a starting point S that is a reference for circulation is provided on the equidistant line C, the distance from the starting point S to the P obtained along the equidistant line C with respect to the equidistant line C including the point P. The position of the point P on the equidistant line C can be uniquely described by (hereinafter, “line distance”) or by normalizing the line distance by the circumference of the equidistant line C (hereinafter, “normalized line distance”). Note that the range of the normalized line distance is always (0, 1) and does not depend on the circumference of the equidistant line C. Therefore, an arbitrary point P outside the glandular cavity (object B) uses a set of the distance D from the glandular cavity (object B) and the normalized line distance L from the start point S in the equidistant line C of the distance D. (L, D), and this description is unique. That is, the point P on the image expressed as (X, Y) in the XY coordinate system can be expressed as coordinates (L, D) in the coordinate system based on the above description method, as shown in FIG. There is a one-to-one correspondence between the two.

以上の原理に基づいて、座標変換部28は、腺腔近傍の画像をLD座標系に変換する。例えば、図4(A)に示したような腺腔近傍の画像を座標変換すると、図4(B)に示すような座標変換結果画像が得られる。ここで、該座標変換結果画像における横軸は正規化線距離Lを表し、左から右へ値が増加する。縦軸は腺腔からの距離Dを表し、上から下へ値が増加する。図4(B)の座標変換結果画像において、縦座標が等しい画素同士は、互いに腺腔からの距離が等しい。   Based on the above principle, the coordinate conversion unit 28 converts the image near the glandular cavity into the LD coordinate system. For example, when coordinate conversion is performed on an image in the vicinity of the glandular cavity as shown in FIG. 4A, a coordinate conversion result image as shown in FIG. 4B is obtained. Here, the horizontal axis in the coordinate conversion result image represents the normalized line distance L, and the value increases from left to right. The vertical axis represents the distance D from the glandular cavity, and the value increases from top to bottom. In the coordinate conversion result image of FIG. 4B, the pixels having the same ordinate have the same distance from the glandular cavity.

ところで、前立腺における腺管は、図6に示すように、中央に腺腔100、その周囲に上皮104、更にその周囲に細胞核106を配置した同心状の構造となっている。一方、図4(C)に示すように、血管は腔の周囲に上皮が無く、細胞核までの距離が非常に短いか、同心状の構造を呈さないことが知られている。   By the way, as shown in FIG. 6, the gland duct in the prostate has a concentric structure in which the gland cavity 100 is located at the center, the epithelium 104 around it, and the cell nucleus 106 around it. On the other hand, as shown in FIG. 4C, it is known that the blood vessel has no epithelium around the cavity, and the distance to the cell nucleus is very short or does not exhibit a concentric structure.

ここで例えば、前立腺癌の進行度をGleason分類に基づいて判定する処理を考える。Gleason分類は、前立腺癌の進行度を判定する診断規準として、病理診断の分野で広く用いられている手法である。Gleason分類は腺管を認識し、形態解析する作業を基本とするものであるから、腺管を正しく、例えば血管と混同すること無く、認識できなければならない。   Here, for example, a process for determining the degree of progression of prostate cancer based on the Gleason classification is considered. The Gleason classification is a technique widely used in the field of pathological diagnosis as a diagnostic criterion for determining the degree of progression of prostate cancer. Since the Gleason classification is based on the task of recognizing and analyzing the gland duct, it must be able to recognize the gland duct correctly, for example, without being confused with a blood vessel.

そこで、頻度分布生成部30により、上記図4(B)に示した座標変換結果画像から細胞核106を表す濃紫色の画素を抽出し、図7(A)に示すような横軸方向の頻度分布を得る。同様に、血管についても、図4(D)に示すように上記座標変換結果画像を求め、図7(B)に示すような横軸方向の頻度分布を得る。腺管は腺腔からの距離“20”付近に細胞核106を表す画素の大きなピークを持つのに対し、血管ではそのような傾向が見られない。従って、頻度ピーク位置検出部32により頻度とピーク位置を検出し、腺管判定部34で、それらを観察することにより、腺管と血管を区別し、腺管だけを認識することができる。なお、ピーク位置検出の前に、頻度分布を平滑化しておけば、ノイズに対してより頑強な処理となる。   Therefore, the frequency distribution generation unit 30 extracts dark purple pixels representing the cell nucleus 106 from the coordinate conversion result image shown in FIG. 4B, and the frequency distribution in the horizontal axis direction as shown in FIG. 7A. Get. Similarly, for blood vessels, the coordinate conversion result image is obtained as shown in FIG. 4D, and a frequency distribution in the horizontal axis direction as shown in FIG. 7B is obtained. The gland duct has a large peak of pixels representing the cell nucleus 106 near the distance “20” from the glandular cavity, whereas such a tendency is not observed in the blood vessel. Therefore, by detecting the frequency and peak position by the frequency peak position detection unit 32 and observing them by the gland duct determination unit 34, it is possible to distinguish between the gland duct and the blood vessel and recognize only the gland duct. If the frequency distribution is smoothed before the peak position is detected, the processing is more robust against noise.

以上の説明は、単一の腺腔に着目した場合についてであったが、一般に前立腺の標本には複数の腺管が含まれる。この場合、腺腔選択部24にて、着目する腔を順に変えながら、上記座標変換と腺管認識処理とを繰り返すことで、病理標本画像に含まれる全ての腺管を認識可能である。   Although the above description is about the case where attention is paid to a single glandular cavity, generally, a specimen of a prostate includes a plurality of gland ducts. In this case, the glandular cavity selection unit 24 can recognize all the gland ducts included in the pathological specimen image by repeating the coordinate conversion and the gland duct recognition process while sequentially changing the target cavity.

なお、腺腔選択部24においては、着目する腺管を自動的に選択するのではなく、ユーザが手動で選択するようにしても良い。   Note that the gland cavity selection unit 24 may manually select the gland duct of interest instead of automatically selecting the gland duct of interest.

また、図4(B)や図4(D)に示した座標変換結果画像は、必要に応じて、図示しない表示装置に表示しても良い。この表示の際には、各座標変換結果画像を単独で表示する方法に加え、複数の座標変換結果画像をアレイ状に表示する方法、原画像と座標変換結果画像とを並置して表示する方法が適用できる。   Further, the coordinate conversion result image shown in FIGS. 4B and 4D may be displayed on a display device (not shown) as necessary. In this display, in addition to a method for displaying each coordinate conversion result image alone, a method for displaying a plurality of coordinate conversion result images in an array, and a method for displaying an original image and a coordinate conversion result image in parallel. Is applicable.

また、座標変換結果画像を図示しない記録装置によって記録媒体に記録する際には、原画像と座標変換結果画像との対応関係も合わせて記録しておく。或いは、座標変換前後の画像を組にして記録しておけば、再利用の際に便利である。   When the coordinate conversion result image is recorded on a recording medium by a recording device (not shown), the correspondence between the original image and the coordinate conversion result image is also recorded. Alternatively, if images before and after coordinate conversion are recorded as a set, it is convenient for reuse.

以上説明したように、本一実施形態によれば、病理標本の画像を撮影し、前立腺の腺腔を認識し、腺腔の周囲の画素を座標変換し、腺管を血管と区別して認識することができる。   As described above, according to the present embodiment, an image of a pathological specimen is taken, the glandular cavity of the prostate is recognized, the pixels around the glandular cavity are coordinate-converted, and the gland duct is recognized separately from the blood vessel. be able to.

本手法を用いれば、認識の対象が単純な幾何図形の組み合わせでない場合でも、上記座標変換によってその近傍の状態を容易に解析することが可能となり、特に物体からの距離の等しい画素が座標変換後に同じ縦座標となることから、投影や頻度分布等の簡単な処理を用いて対象の近傍を解析することが可能となる。これは、対象が不定形状であることが多い生体標本の解析に特に好適である。   If this method is used, even if the object to be recognized is not a simple geometric combination, it is possible to easily analyze the state of the neighborhood by the above coordinate conversion. Since they have the same ordinate, it is possible to analyze the vicinity of the object using simple processing such as projection and frequency distribution. This is particularly suitable for the analysis of a biological specimen whose object is often indefinite shape.

以上、一実施形態に基づいて本発明を説明したが、本発明は上述した一実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   As mentioned above, although this invention was demonstrated based on one Embodiment, this invention is not limited to one Embodiment mentioned above, Of course, a various deformation | transformation and application are possible within the range of the summary of this invention. It is.

例えば、上記一実施形態では撮像対象Oとして生体標本(病理標本)を用いているが、他の試料についても適用可能である。   For example, in the above-described embodiment, a biological specimen (pathological specimen) is used as the imaging target O, but the present invention can also be applied to other specimens.

(付記)
前記の具体的実施形態から、以下のような構成の発明を抽出することができる。
(Appendix)
The invention having the following configuration can be extracted from the specific embodiment.

(1) 試料画像の注目領域の輪郭を設定する輪郭設定手段と、
上記試料画像のうち、少なくとも上記輪郭設定手段で設定された注目領域を含む一部分を、輪郭に対応した軸と輪郭からの距離に対応した軸とから成る座標系の画像となるように、座標変換する座標変換手段と、
を具備することを特徴とする画像処理装置。
(1) contour setting means for setting the contour of the region of interest of the sample image;
Coordinate transformation is performed so that at least a part of the sample image including the region of interest set by the contour setting unit is an image of a coordinate system including an axis corresponding to the contour and an axis corresponding to the distance from the contour. Coordinate conversion means for
An image processing apparatus comprising:

ここで、上記輪郭設定手段は、図1(A)における照明12、光学系14、カメラ16、メモリ18、二値化部20、粒子解析部22、及び腺腔選択部24が対応し、上記座標変換手段は、図1(A)における、距離変換部26及び座標変換部28が対応する。   Here, the contour setting means corresponds to the illumination 12, the optical system 14, the camera 16, the memory 18, the binarization unit 20, the particle analysis unit 22, and the glandular cavity selection unit 24 in FIG. The coordinate conversion means corresponds to the distance conversion unit 26 and the coordinate conversion unit 28 in FIG.

この(1)に記載の画像処理装置によれば、試料の構造を容易に解析することが可能な画像処理装置を提供することができる。   According to the image processing apparatus described in (1), it is possible to provide an image processing apparatus that can easily analyze the structure of the sample.

(2) 上記輪郭に対応した軸の値域が正規化されていることを特徴とする(1)に記載の画像処理装置。   (2) The image processing apparatus according to (1), wherein a range of an axis corresponding to the contour is normalized.

この(2)に記載の画像処理装置によれば、注目領域の輪郭の大きさに依存しない処理が可能となる。   According to the image processing apparatus described in (2), it is possible to perform processing independent of the size of the contour of the attention area.

(3) 試料が生体標本であることを特徴とする(1)又は(2)に記載の画像処理装置。   (3) The image processing apparatus according to (1) or (2), wherein the sample is a biological specimen.

この(3)に記載の画像処理装置によれば、生体標本の構造を解析することが可能となる。   According to the image processing apparatus described in (3), the structure of the biological specimen can be analyzed.

(4) 上記生体標本は、病理標本であることを特徴とする(3)に記載の画像処理装置。   (4) The image processing apparatus according to (3), wherein the biological specimen is a pathological specimen.

この(4)に記載の画像処理装置によれば、病理標本の部位の構造を解析することができる。   According to the image processing apparatus described in (4), it is possible to analyze the structure of the pathological specimen.

(5) 上記病理標本は、前立腺の標本であることを特徴とする(4)に記載の画像処理装置。   (5) The image processing apparatus according to (4), wherein the pathological specimen is a prostate specimen.

この(5)に記載の画像処理装置によれば、前立腺の構造を解析できる。   According to the image processing apparatus described in (5), the structure of the prostate can be analyzed.

(6) 上記注目領域は、上記前立腺の腺管の内腔であることを特徴とする(5)に記載の画像処理装置。   (6) The image processing device according to (5), wherein the region of interest is a lumen of a gland duct of the prostate.

この(6)に記載の画像処理装置によれば、前立腺癌の診断に役立てることができる。   According to the image processing apparatus described in (6), it can be used for diagnosis of prostate cancer.

(7) 上記座標変換手段で座標変換された画像に基づいて、上記試料画像に含まれる複数の領域を分類する分類手段を更に具備することを特徴とする(1)乃至(6)の何れかに記載の画像処理装置。   (7) Any one of (1) to (6), further comprising a classification unit that classifies a plurality of regions included in the sample image based on the image coordinate-transformed by the coordinate transformation unit. An image processing apparatus according to 1.

ここで、上記分類手段は、図1(A)における頻度分布生成部30、頻度ピーク位置検出部32、及び腺管判定部34が対応する。   Here, the classification means corresponds to the frequency distribution generation unit 30, the frequency peak position detection unit 32, and the gland duct determination unit 34 in FIG.

この(7)に記載の画像処理装置によれば、自動的に構造を分類することができる。   According to the image processing apparatus described in (7), the structures can be automatically classified.

(8) 上記分類手段は、前立腺の腺管と血管を分類することを特徴とする(7)に記載の画像処理装置。   (8) The image processing apparatus according to (7), wherein the classification unit classifies the gland ducts and blood vessels of the prostate.

この(8)に記載の画像処理装置によれば、前立腺の腺管を分類できるので、前立腺癌の診断に役立てることができる。   According to the image processing apparatus described in (8), since the prostate gland can be classified, it can be used for diagnosis of prostate cancer.

(9) 上記座標変換手段で座標変換された画像を表示する表示手段を更に具備することを特徴とする(1)乃至(8)に記載の画像処理装置。   (9) The image processing apparatus according to any one of (1) to (8), further comprising display means for displaying an image coordinate-converted by the coordinate conversion means.

ここで、上記表示手段は、図示しない表示装置が対応する。   Here, the display means corresponds to a display device (not shown).

この(9)に記載の画像処理装置によれば、その表示された画像から試料の構造をユーザが容易に把握できるようになる。   According to the image processing apparatus described in (9), the user can easily grasp the structure of the sample from the displayed image.

(10) 上記表示手段は、複数の座標変換された画像を並べて表示することを特徴とする(9)に記載の画像処理装置。   (10) The image processing apparatus according to (9), wherein the display unit displays a plurality of coordinate-transformed images side by side.

この(10)に記載の画像処理装置によれば、複数の座標変換された画像を見比べることができる。   According to the image processing apparatus described in (10), it is possible to compare a plurality of coordinate-converted images.

(11) 上記表示手段は、上記試料画像と座標変換された画像とを並べて表示することを特徴とする(9)に記載の画像処理装置。   (11) The image processing apparatus according to (9), wherein the display unit displays the sample image and the coordinate-converted image side by side.

この(11)に記載の画像処理装置によれば、座標変換前後の画像を見比べることができる。   According to the image processing apparatus described in (11), images before and after coordinate conversion can be compared.

(12) 上記試料画像と上記座標変換手段で座標変換された画像とを組にして記録する記録手段を更に具備することを特徴とする請(1)乃至(11)の何れかに記載の画像処理装置。   (12) The image according to any one of (1) to (11), further comprising recording means for recording the sample image and the image coordinate-transformed by the coordinate transformation means as a set. Processing equipment.

ここで、上記記録手段は、図示しない記録装置が対応する。   Here, the recording means corresponds to a recording device (not shown).

この(12)に記載の画像処理装置によれば、座標変換前後の画像が別々になってしまうことがないので、再利用の際に便利である。   According to the image processing apparatus described in (12), the images before and after the coordinate conversion are not separated, which is convenient for reuse.

(A)は本発明の一実施形態に係る画像処理装置の構成を示す図であり、(B)は染色された組織標本の断面を示す図である。(A) is a figure which shows the structure of the image processing apparatus which concerns on one Embodiment of this invention, (B) is a figure which shows the cross section of the dye | stained tissue sample. ヘマトキシリンとエオジンで染色された前立腺の病理標本の画像を示す図である。It is a figure which shows the image of the pathological specimen of the prostate dye | stained with hematoxylin and eosin. 図2の病理標本画像を二値化した二値化画像を示す図である。It is a figure which shows the binarized image which binarized the pathological sample image of FIG. (A)は腺管とその近傍の画像を示す図、(B)は(A)の画像の座標変換結果画像を示す図、(C)は血管とその近傍の画像を示す図であり、(D)は(C)の画像の座標変換結果画像を示す図である。(A) is a diagram showing an image of a gland duct and its vicinity, (B) is a diagram showing a coordinate conversion result image of the image of (A), (C) is a diagram showing an image of a blood vessel and its vicinity, (D) is a diagram showing a coordinate conversion result image of the image of (C). (A)は距離変換結果を視覚的に説明するための図、(B)は等距離腺に基づく位置の一意な指定を説明するための図であり、(C)は座標変換結果の概念を説明するためのLD座標系を示す図である。(A) is a diagram for visually explaining the distance transformation result, (B) is a diagram for explaining the unique designation of the position based on the equidistant gland, and (C) is a concept of the coordinate transformation result. It is a figure which shows LD coordinate system for demonstrating. 腺管の同心構造を説明するための模式図である。It is a schematic diagram for demonstrating the concentric structure of a gland duct. (A)は図4(B)の座標変換結果画像から求められた画素の頻度分布を示す図であり、(B)は図4(D)の座標変換結果画像から求められた画素の頻度分布を示す図である。(A) is a figure which shows the frequency distribution of the pixel calculated | required from the coordinate transformation result image of FIG.4 (B), (B) is the frequency distribution of the pixel calculated | required from the coordinate transformation result image of FIG.4 (D). FIG.

符号の説明Explanation of symbols

10…画像処理装置、 12…照明、 14…光学系、 16…カメラ、 18…メモリ、 20…二値化部、 22…粒子解析部、 24…腺腔選択部、 26…距離変換部、 28…座標変換部、 30…頻度分布生成部、 32…頻度ピーク位置検出部、 34…腺管判定部、 100…腺腔、 102…等距離線、 104…上皮、 106…細胞核、 O…対象。     DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus, 12 ... Illumination, 14 ... Optical system, 16 ... Camera, 18 ... Memory, 20 ... Binarization part, 22 ... Particle analysis part, 24 ... Glandular cavity selection part, 26 ... Distance conversion part, 28 DESCRIPTION OF SYMBOLS ... Coordinate conversion part, 30 ... Frequency distribution generation part, 32 ... Frequency peak position detection part, 34 ... Gland duct determination part, 100 ... Glandular cavity, 102 ... Equidistant line, 104 ... Epithelium, 106 ... Cell nucleus, O ... Object.

Claims (12)

試料画像の注目領域の輪郭を設定する輪郭設定手段と、
上記試料画像のうち、少なくとも上記輪郭設定手段で設定された注目領域を含む一部分を、輪郭に対応した軸と輪郭からの距離に対応した軸とから成る座標系の画像となるように、座標変換する座標変換手段と、
を具備することを特徴とする画像処理装置。
Contour setting means for setting the contour of the region of interest of the sample image;
Coordinate transformation is performed so that at least a part of the sample image including the region of interest set by the contour setting unit is an image of a coordinate system including an axis corresponding to the contour and an axis corresponding to the distance from the contour. Coordinate conversion means for
An image processing apparatus comprising:
上記輪郭に対応した軸の値域が正規化されていることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein a range of an axis corresponding to the contour is normalized. 試料が生体標本であることを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the sample is a biological specimen. 上記生体標本は、病理標本であることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the biological specimen is a pathological specimen. 上記病理標本は、前立腺の標本であることを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the pathological specimen is a prostate specimen. 上記注目領域は、上記前立腺の腺管の内腔であることを特徴とする請求項5に記載の画像処理装置。   6. The image processing apparatus according to claim 5, wherein the region of interest is a lumen of a gland duct of the prostate. 上記座標変換手段で座標変換された画像に基づいて、上記試料画像に含まれる複数の領域を分類する分類手段を更に具備することを特徴とする請求項1乃至6の何れかに記載の画像処理装置。   7. The image processing according to claim 1, further comprising a classification unit that classifies a plurality of regions included in the sample image based on the image coordinate-transformed by the coordinate transformation unit. apparatus. 上記分類手段は、前立腺の腺管と血管を分類することを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the classification unit classifies the gland ducts and blood vessels of the prostate. 上記座標変換手段で座標変換された画像を表示する表示手段を更に具備することを特徴とする請求項1乃至8に記載の画像処理装置。   9. The image processing apparatus according to claim 1, further comprising display means for displaying an image coordinate-converted by the coordinate conversion means. 上記表示手段は、複数の座標変換された画像を並べて表示することを特徴とする請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the display unit displays a plurality of coordinate-converted images side by side. 上記表示手段は、上記試料画像と座標変換された画像とを並べて表示することを特徴とする請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the display unit displays the sample image and the coordinate-converted image side by side. 上記試料画像と上記座標変換手段で座標変換された画像とを組にして記録する記録手段を更に具備することを特徴とする請求項1乃至11の何れかに記載の画像処理装置。   12. The image processing apparatus according to claim 1, further comprising recording means for recording the sample image and the image coordinate-transformed by the coordinate transformation means as a set.
JP2004169963A 2004-06-08 2004-06-08 Image processing device Pending JP2005352571A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004169963A JP2005352571A (en) 2004-06-08 2004-06-08 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004169963A JP2005352571A (en) 2004-06-08 2004-06-08 Image processing device

Publications (2)

Publication Number Publication Date
JP2005352571A true JP2005352571A (en) 2005-12-22
JP2005352571A5 JP2005352571A5 (en) 2007-07-19

Family

ID=35587032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004169963A Pending JP2005352571A (en) 2004-06-08 2004-06-08 Image processing device

Country Status (1)

Country Link
JP (1) JP2005352571A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139143A (en) * 2006-12-01 2008-06-19 Sysmex Corp Method and apparatus for forming specimen image
JP2009180539A (en) * 2008-01-29 2009-08-13 Nec Corp Pathological diagnosis support apparatus, pathological diagnosis support method, and program
JP2009236728A (en) * 2008-03-27 2009-10-15 Nec Corp Image analyzer, its method, program, and recording medium
WO2010041423A1 (en) * 2008-10-09 2010-04-15 日本電気株式会社 Histopathologic diagnosis support system, histopathologic diagnosis support program, and histopathologic diagnosis support method
JP2010185858A (en) * 2009-02-13 2010-08-26 Olympus Corp Image processing apparatus and image processing program
WO2010140654A1 (en) 2009-06-03 2010-12-09 日本電気株式会社 Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, and pathologic tissue image analyzing program
WO2012043498A1 (en) * 2010-09-30 2012-04-05 日本電気株式会社 Information processing device, information processing system, information processing method, program, and recording medium
US8390086B2 (en) 2006-05-22 2013-03-05 Hewlett-Packard Development Company, L.P. Solar cell employing a nanowire
US8847012B2 (en) 2007-12-05 2014-09-30 Toyota Jidosha Kabushiki Kaisha Genes that increase plant oil and method for using the same
US8847011B2 (en) 2007-12-05 2014-09-30 Toyota Jidosha Kabushiki Kaisha Genes that increase plant oil and method for using the same
US9045786B2 (en) 2008-03-04 2015-06-02 Toyota Jidosha Kabushiki Kaisha Gene that increases production of plant fat-and-oil and method for using the same
US9169488B2 (en) 2009-06-04 2015-10-27 Toyota Jidosha Kabushiki Kaisha Gene capable of improving material productivity in seed and method for use thereof
US9303265B2 (en) 2009-06-04 2016-04-05 Toyota Jidosha Kabushiki Kaisha Gene for increasing plant weight and method for using the same
US9309531B2 (en) 2009-06-04 2016-04-12 Toyota Jidosha Kabushiki Kaisha Plant with reduced protein productivity in seeds, and method for producing same
JP2018185265A (en) * 2017-04-27 2018-11-22 日本電気株式会社 Information processing apparatus, control method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037399A (en) * 2002-07-05 2004-02-05 Pentax Corp Image inspection method and apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037399A (en) * 2002-07-05 2004-02-05 Pentax Corp Image inspection method and apparatus

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8390086B2 (en) 2006-05-22 2013-03-05 Hewlett-Packard Development Company, L.P. Solar cell employing a nanowire
JP2008139143A (en) * 2006-12-01 2008-06-19 Sysmex Corp Method and apparatus for forming specimen image
US9018446B2 (en) 2007-12-05 2015-04-28 Toyota Jidosha Kabushiki Kaisha Genes that increase plant oil and method for using the same
US8847012B2 (en) 2007-12-05 2014-09-30 Toyota Jidosha Kabushiki Kaisha Genes that increase plant oil and method for using the same
US9068193B2 (en) 2007-12-05 2015-06-30 Toyota Jidosha Kabushiki Kaisha Genes that increase plant oil and method for using the same
US9062318B2 (en) 2007-12-05 2015-06-23 Toyota Jidosha Kabushiki Kaisha Genes that increase plant oil and method for using the same
US9018450B2 (en) 2007-12-05 2015-04-28 Toyota Jidosha Kabushiki Kaisha Genes that increase plant oil and method for using the same
US9012727B2 (en) 2007-12-05 2015-04-21 Toyota Jidosha Kabushiki Kaisha Genes that increase plant oil and method for using the same
US9012726B2 (en) 2007-12-05 2015-04-21 Toyota Jidosha Kabushiki Kaisha Genes that increase plant oil and method for using the same
US8847011B2 (en) 2007-12-05 2014-09-30 Toyota Jidosha Kabushiki Kaisha Genes that increase plant oil and method for using the same
JP2009180539A (en) * 2008-01-29 2009-08-13 Nec Corp Pathological diagnosis support apparatus, pathological diagnosis support method, and program
US8787650B2 (en) 2008-01-29 2014-07-22 Nec Corporation Pathological diagnosis support
US9045786B2 (en) 2008-03-04 2015-06-02 Toyota Jidosha Kabushiki Kaisha Gene that increases production of plant fat-and-oil and method for using the same
JP2009236728A (en) * 2008-03-27 2009-10-15 Nec Corp Image analyzer, its method, program, and recording medium
US8644582B2 (en) 2008-10-09 2014-02-04 Nec Corporation Support system for histopathological diagnosis, support program for histopathological diagnosis and support method for histopathological diagnosis
WO2010041423A1 (en) * 2008-10-09 2010-04-15 日本電気株式会社 Histopathologic diagnosis support system, histopathologic diagnosis support program, and histopathologic diagnosis support method
JP2010185858A (en) * 2009-02-13 2010-08-26 Olympus Corp Image processing apparatus and image processing program
US8594411B2 (en) 2009-06-03 2013-11-26 Nec Corporation Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, and pathologic tissue image analyzing program
CN102460156A (en) * 2009-06-03 2012-05-16 日本电气株式会社 Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, and pathologic tissue image analyzing program
CN102460156B (en) * 2009-06-03 2014-09-10 日本电气株式会社 Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, and pathologic tissue image analyzing program
JP2010281636A (en) * 2009-06-03 2010-12-16 Nec Corp Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, pathologic tissue image analyzing program
WO2010140654A1 (en) 2009-06-03 2010-12-09 日本電気株式会社 Pathologic tissue image analyzing apparatus, pathologic tissue image analyzing method, and pathologic tissue image analyzing program
US9816099B2 (en) 2009-06-04 2017-11-14 Toyota Jidosha Kabushiki Kaisha Gene for increasing plant weight and method for using the same
US9309531B2 (en) 2009-06-04 2016-04-12 Toyota Jidosha Kabushiki Kaisha Plant with reduced protein productivity in seeds, and method for producing same
US9169488B2 (en) 2009-06-04 2015-10-27 Toyota Jidosha Kabushiki Kaisha Gene capable of improving material productivity in seed and method for use thereof
US10000764B2 (en) 2009-06-04 2018-06-19 Toyota Jidosha Kabushiki Kaisha Gene for increasing plant weight and method for using the same
US9303265B2 (en) 2009-06-04 2016-04-05 Toyota Jidosha Kabushiki Kaisha Gene for increasing plant weight and method for using the same
US9309530B2 (en) 2009-06-04 2016-04-12 Toyota Jidosha Kabushiki Kaisha Gene capable of improving material productivity in seed and method for use thereof
US9309529B2 (en) 2009-06-04 2016-04-12 Toyota Jidosha Kabushiki Kaisha Gene capable of improving material productivity in seed and method for use thereof
US9970020B2 (en) 2009-06-04 2018-05-15 Toyota Jidosha Kabushiki Kaisha Plant with reduced protein productivity in seeds and method for producing same
US9856488B2 (en) 2009-06-04 2018-01-02 Toyota Jidosha Kabushiki Kaisha Plant with reduced protein productivity in seeds and method for producing same
US9840717B2 (en) 2009-06-04 2017-12-12 Toyota Jidosha Kabushiki Kaisha Plant with reduced protein productivity in seeds and method for producing same
WO2012043498A1 (en) * 2010-09-30 2012-04-05 日本電気株式会社 Information processing device, information processing system, information processing method, program, and recording medium
US9076198B2 (en) 2010-09-30 2015-07-07 Nec Corporation Information processing apparatus, information processing system, information processing method, program and recording medium
JP5871325B2 (en) * 2010-09-30 2016-03-01 日本電気株式会社 Information processing apparatus, information processing system, information processing method, program, and recording medium
US10115191B2 (en) 2010-09-30 2018-10-30 Nec Corporation Information processing apparatus, information processing system, information processing method, program, and recording medium
JP2018185265A (en) * 2017-04-27 2018-11-22 日本電気株式会社 Information processing apparatus, control method, and program

Similar Documents

Publication Publication Date Title
JP6045417B2 (en) Image processing apparatus, electronic apparatus, endoscope apparatus, program, and operation method of image processing apparatus
JP5804220B1 (en) Image processing apparatus and image processing program
JP2005352571A (en) Image processing device
US9672610B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
CN104363815B (en) Image processing apparatus and image processing method
JP6791245B2 (en) Image processing device, image processing method and image processing program
US8682048B2 (en) Image processing device, image processing method, computer-readable recording device
US11771324B1 (en) System and method for residual cancer cell detection
US10921252B2 (en) Image processing apparatus and method of operating image processing apparatus
JP2013526717A5 (en)
JPWO2019087790A1 (en) Examination support equipment, endoscopy equipment, examination support methods, and examination support programs
JPWO2017150194A1 (en) Image processing apparatus, image processing method, and program
KR20160118037A (en) Apparatus and method for detecting lesion from medical image automatically
TW201942868A (en) System and method for identification of symptom image
JP2017070609A (en) Image processing apparatus and image processing method
US5193127A (en) Method and device for detecting patterns adapted automatically for the level of noise
CN114945825A (en) Cancer determination device, cancer determination method, and program
JPWO2016076104A1 (en) Image processing method, image processing apparatus, and program
JP2005198890A (en) Abnormal shadow detecting method, abnormal shadow detecting apparatus and program for the same
CN110363056A (en) Sperm Recognition Method in Kinetic Video Images
Jatti Segmentation of microscopic bone images
JP2005160916A (en) Method, apparatus and program for determining calcification shadow
Boschetto et al. Detection and density estimation of goblet cells in confocal endoscopy for the evaluation of celiac disease
CN112419353A (en) Method and device for detecting opening and closing tools
WO2016029208A1 (en) System and method for automated stereology of cancer

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100810