[go: up one dir, main page]

JP2009014354A - Image processor and image processing program - Google Patents

Image processor and image processing program Download PDF

Info

Publication number
JP2009014354A
JP2009014354A JP2007173245A JP2007173245A JP2009014354A JP 2009014354 A JP2009014354 A JP 2009014354A JP 2007173245 A JP2007173245 A JP 2007173245A JP 2007173245 A JP2007173245 A JP 2007173245A JP 2009014354 A JP2009014354 A JP 2009014354A
Authority
JP
Japan
Prior art keywords
representative
pixel
image
extraction
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007173245A
Other languages
Japanese (ja)
Inventor
Shinsuke Tani
伸介 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2007173245A priority Critical patent/JP2009014354A/en
Publication of JP2009014354A publication Critical patent/JP2009014354A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To precisely estimate a spectral characteristic in a sample point on a sample, without generating an unintended dispersion. <P>SOLUTION: This image processor 1 is provided with a main element classifying part 7b for classifying each pixel of a teacher image, that is an image recorded with a reference sample, correlated with a reference spectral characteristic in the corresponding sample point on the reference sample in every image, based on at least a main feature amount for characterizing a main element, a representative point extracting part 7c for extracting a plurality of representative pixels out of a pixel group classified by the main element classifying part 7b, and a statistical amount calculating part 7d for calculating a statistical amount of the reference spectral characteristic used for estimating the spectral characteristic of the sample, based on the reference spectral characteristic correlated with the plurality of representative pixels extracted by the representative point extracting part 7c. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、1以上の主要要素を含む標本を撮像した観察画像を処理する画像処理装置および画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus and an image processing program for processing an observation image obtained by imaging a specimen including one or more main elements.

生体組織標本、特に病理標本では、臓器摘出によって得たブロック標本や針生検によって得た標本を厚さ数ミクロン程度に薄切した後、様々な所見を得る為に顕微鏡を用いて拡大観察することが広く行われている。中でも光学顕微鏡を用いた透過観察は、機材が比較的安価で取り扱いが容易である上、歴史的に古くから行われてきたこともあって、最も普及している観察方法の一つである。この場合、薄切された生体標本は光を殆ど吸収及び散乱せず無色透明に近い為、観察に先立って色素による染色を施すのが一般的である。   For biological tissue specimens, especially pathological specimens, block specimens obtained by organ excision and specimens obtained by needle biopsy are sliced to a thickness of several microns and then magnified using a microscope to obtain various findings. Is widely practiced. In particular, transmission observation using an optical microscope is one of the most popular observation methods because the equipment is relatively inexpensive and easy to handle, and has been performed for a long time. In this case, since the sliced biological specimen hardly absorbs and scatters light and is almost colorless and transparent, it is common to stain with a dye prior to observation.

染色手法としては種々のものが提案されており、その総数は100種類以上にも達するが、特に病理標本に関しては、青紫色のヘマトキシリンと赤色のエオジンとの2つの色素を用いるヘマトキシリン−エオジン染色(以下、H&E染色と呼ぶ。)が標準的に用いられている。   Various dyeing methods have been proposed, and the total number thereof reaches 100 or more. Particularly, regarding pathological specimens, hematoxylin-eosin staining using two dyes of blue-violet hematoxylin and red eosin ( Hereinafter, it is referred to as H & E staining).

ヘマトキシリンは植物から採取された天然の物質であり、それ自身には染色性は無い。しかし、その酸化物であるヘマチンは好塩基性の色素であり、負に帯電した物質と結合する。細胞核に含まれるデオキシリボ核酸(DNA)は、構成要素として含むリン酸基によって負に帯電している為、ヘマチンと結合して青紫色に染色される。尚、前述の通り、染色性を有するのはヘマトキシリンでは無く、その酸化物であるヘマチンであるが、色素の名称としてはヘマトキシリンを用いるのが一般的である為、以下それに従う。   Hematoxylin is a natural substance collected from plants and itself has no dyeability. However, its oxide, hematin, is a basophilic dye and binds to a negatively charged substance. Since deoxyribonucleic acid (DNA) contained in the cell nucleus is negatively charged by a phosphate group contained as a constituent element, it binds to hematin and is stained blue-violet. As described above, it is not hematoxylin that has a staining property but hematin, which is an oxide thereof. However, since it is common to use hematoxylin as the name of a dye, the following is followed.

エオジンは好酸性の色素であり、正に帯電した物質と結合する。アミノ酸やタンパク質が正負どちらに帯電するかはpH環境に影響を受け、酸性下では正に帯電する傾向が強くなる。その為、エオジン溶液には酢酸を加えて用いることがある。細胞質に含まれるタンパク質は、エオジンと結合して赤から薄赤に染色される。   Eosin is an acidophilic dye that binds to positively charged substances. Whether amino acids or proteins are charged positively or negatively is affected by the pH environment, and the tendency to be positively charged under acidic conditions becomes stronger. For this reason, acetic acid may be added to the eosin solution. Proteins contained in the cytoplasm are stained from red to light red by binding to eosin.

H&E染色後の標本では細胞核、骨組織等が青紫色に、細胞質、結合織、赤血球等が赤色に染色され、容易に視認できるようになる。その結果、観察者は、細胞核等の組織を構成する要素の大きさや位置関係等を把握することができ、標本の状態を形態学的に判断することが可能となる。   In the specimen after H & E staining, cell nuclei, bone tissue and the like are stained blue-purple, and cytoplasm, connective tissue, erythrocytes and the like are stained red so that they can be easily visually recognized. As a result, the observer can grasp the size and positional relationship of elements constituting the tissue such as the cell nucleus, and can determine the state of the specimen morphologically.

生体組織標本の染色は、元々個体差を有する生体組織に対し、化学反応を用いて色素を固定する作業である為、常に均一な結果を得ることが難しい。具体的には、同一濃度の染色液に同一時間標本を反応させた場合でも、固定される色素の量が同程度であるとは限らない。標本によっては比較的多くの色素が固定される場合や、比較的少ない色素しか固定されない場合がある。前者では通常より濃く染色された標本となり、後者は薄く染色された標本となる。このような標本間での染色のばらつきを抑える為、施設によっては専門の技能を有した染色技師を配置している。しかし、染色技師の職人的な調整作業によって同一施設内での染色ばらつきはある程度軽減できるが、異なる施設間での染色ばらつきは依然として生じたままである。   Since the staining of a biological tissue specimen is an operation of fixing a pigment using a chemical reaction to biological tissues originally having individual differences, it is difficult to always obtain a uniform result. Specifically, even when the specimen is reacted for the same time with the staining solution having the same concentration, the amount of the fixed dye is not always the same. Depending on the specimen, a relatively large amount of dye may be fixed, or a relatively small amount of dye may be fixed. The former is a sample that is stained darker than usual, and the latter is a sample that is lightly stained. In order to suppress such variation in staining among specimens, some facilities have a staining engineer with specialized skills. However, the dyeing engineer's craftsman's adjustment work can reduce dyeing variation within the same facility to some extent, but dyeing variation between different facilities still occurs.

染色ばらつきは、2つの点で問題がある。1つは、染色された標本を観察者が目視観察する場合、標本の染色状態が不揃いであることが観察者のストレスに繋がる可能性がある。重度の染色ばらつきが生じている場合、決定的な所見が見落とされる可能性がある。2つ目は、染色された標本をカメラで撮像して画像処理する場合、染色ばらつきが画像処理精度に悪影響を及ぼす可能性がある。例えば、ある病変が特定の色を呈することが判っていたとしても、標本を撮像した観察画像から自動的にその病変に対応する画像領域を抽出することが難しくなる。病変の特性による色変化を染色ばらつきが撹乱してしまうからである。   Dyeing variation is problematic in two respects. One is that when an observer visually observes a stained specimen, an uneven staining state of the specimen may lead to stress on the observer. If severe staining variability occurs, critical findings may be overlooked. Second, when a stained specimen is imaged with a camera and image processing is performed, there is a possibility that variation in staining may adversely affect image processing accuracy. For example, even if it is known that a certain lesion exhibits a specific color, it is difficult to automatically extract an image region corresponding to the lesion from an observation image obtained by imaging a specimen. This is because the staining variation disturbs the color change due to the characteristics of the lesion.

このような染色ばらつきの問題を、マルチバンド画像を用いた画像処理によって解決する手法が非特許文献1に開示されている。非特許文献1に記載された画像処理方法では、観察画像としてマルチバンド画像を取得し、このマルチバンド画像の画像データをもとに、まず標本上の各標本点における分光特性をウィナー(Wiener)推定によって推定する。つぎに、この推定した分光特性を用い、標本上の各標本点に固定された色素量を物理モデルに基づいて推定する。そして、この推定した色素量を適宜増減させて補正するとともに、この補正した色素量をもとに画像データを生成することで、染色状態を補正した観察画像を取得している。これによると、推定した色素量の補正を適切に行うことで、濃く染色された標本あるいは薄く染色された標本の観察画像を、適切に染色された標本と同等の色を呈する観察画像に補正することができる。   Non-Patent Document 1 discloses a method for solving such a problem of staining variation by image processing using a multiband image. In the image processing method described in Non-Patent Document 1, a multiband image is acquired as an observation image. Based on the image data of the multiband image, first, the spectral characteristics at each sample point on the sample are determined as Wiener. Estimate by estimation. Next, using this estimated spectral characteristic, the amount of dye fixed to each sample point on the sample is estimated based on the physical model. Then, the estimated dye amount is corrected by appropriately increasing / decreasing, and image data is generated based on the corrected dye amount, thereby obtaining an observation image in which the staining state is corrected. According to this, by correcting the estimated dye amount appropriately, the observation image of the darkly stained specimen or the lightly stained specimen is corrected to an observation image exhibiting the same color as the appropriately stained specimen. be able to.

特開平7−120324号公報JP-A-7-120324 特許第3510037号公報Japanese Patent No. 3510037 “Color Correction of Pathological Images Based on Dye Amount Quantification”、OPTICAL REVIEW、2005、Vol.12、No.4、p.293-300“Color Correction of Pathological Images Based on Dye Amount Quantification”, OPTICAL REVIEW, 2005, Vol.12, No.4, p.293-300 Arthur Dempster, Nan Laird, and Donald Rubin、“Maximum likelihood from incomplete data via the EM algorithm”、Journal of the Royal Statistical Society、1977、Series B、39(1):1 38Arthur Dempster, Nan Laird, and Donald Rubin, “Maximum likelihood from incomplete data via the EM algorithm”, Journal of the Royal Statistical Society, 1977, Series B, 39 (1): 1 38

ところで、非特許文献1に記載の画像処理方法では、標本上の各標本点における分光特性をウィナー推定するために、その標本に含まれる主要要素を含んだ基準標本の分光特性の統計量が必要となる。ウィナー推定の場合、その統計量は、分光特性としての分光透過率の自己相関行列もしくは共分散行列に相当する。この自己相関行列もしくは共分散行列は、基準標本上の複数の標本点における分光透過率を事前に分光計によって計測した計測結果をもとに算出される。以下、本発明の実施の形態では、上記統計量に自己相関行列を用いる場合を説明し、この自己相関行列の算出に用いる基準標本上の標本点を代表点と呼ぶ。   By the way, in the image processing method described in Non-Patent Document 1, in order to perform Wiener estimation of the spectral characteristics at each sample point on the specimen, a statistical quantity of the spectral characteristics of the reference specimen including the main elements included in the specimen is required. It becomes. In the case of winner estimation, the statistic corresponds to an autocorrelation matrix or a covariance matrix of spectral transmittance as spectral characteristics. This autocorrelation matrix or covariance matrix is calculated based on the measurement result obtained by measuring the spectral transmittance at a plurality of sample points on the reference sample in advance by a spectrometer. Hereinafter, in the embodiment of the present invention, a case where an autocorrelation matrix is used for the above-described statistic will be described, and a sample point on a reference sample used for calculation of the autocorrelation matrix is referred to as a representative point.

基準標本が記録された基準標本画像をもとに基準標本の全域から代表点を均一に抽出した場合、基準標本画像上で基準標本中の主要要素を示す主要領域のうち面積が大きい主要領域に対応する主要要素からより多くの代表点が抽出される。ウィナー推定では、平均二乗誤差を最小化する手法であるため、代表点が多く集まる主要要素に対する推定精度が相対的に高くなる。すなわち、ウィナー推定では、基準標本画像上で面積が大きい主要領域に対応する主要要素に対して推定精度が高く、面積が小さい主要領域に対応する主要要素に対して推定精度が低くなる傾向を示す。   When the representative points are uniformly extracted from the entire area of the reference sample based on the reference sample image in which the reference sample is recorded, the main area indicating the main elements in the reference sample on the reference sample image More representative points are extracted from the corresponding main elements. Since the Wiener estimation is a technique for minimizing the mean square error, the estimation accuracy for the main element in which many representative points gather is relatively high. That is, in the Wiener estimation, the estimation accuracy is high for the main element corresponding to the main area having a large area on the reference sample image, and the estimation accuracy tends to be low for the main element corresponding to the main area having a small area. .

したがって、非特許文献1に記載の画像処理方法では、標本が病理標本である場合、診断で重要とされる細胞核が小さいため、細胞核の分光透過率を精度良く推定することが困難であった。これに対して、特許文献1に開示された技術では、典型的な病理標本を撮像した基準標本画像をもとに、ユーザーが各主要要素からほぼ同数の代表点を抽出するようにしているため、細胞核に対する推定精度を他の主要要素に対する推定精度と同等にすることができる。ここで、病理標本における主要要素には、細胞核のほか、細胞質、赤血球および背景等がある。   Therefore, in the image processing method described in Non-Patent Document 1, when the specimen is a pathological specimen, since the cell nucleus that is important in diagnosis is small, it is difficult to accurately estimate the spectral transmittance of the cell nucleus. On the other hand, in the technique disclosed in Patent Document 1, the user extracts substantially the same number of representative points from each main element based on a reference specimen image obtained by imaging a typical pathological specimen. The estimation accuracy for the cell nucleus can be made equal to the estimation accuracy for the other main elements. Here, in addition to the cell nucleus, the main elements in the pathological specimen include cytoplasm, red blood cells, and background.

しかしながら、ユーザーが代表点の抽出を行うユーザー抽出では、抽出される代表点がユーザーによって異なるため、ウィナー推定による分光透過率の推定結果もユーザーによってばらつくこととなる。つまり、ユーザー抽出を行った場合、抽出される代表点の最適性および再現性が保証されておらず、分光透過率の推定精度にばらつきが生じるという問題があった。また、ユーザー抽出では、ユーザーが代表点を抽出するために試行錯誤せざるを得ず、その作業に多大な労力と時間を要するという問題があった。   However, in the user extraction in which the user extracts representative points, the representative points to be extracted differ from user to user, so that the spectral transmittance estimation result by winner estimation also varies from user to user. That is, when user extraction is performed, the optimality and reproducibility of the extracted representative points are not guaranteed, and there is a problem that the estimation accuracy of the spectral transmittance varies. Further, in user extraction, there is a problem that the user has to perform trial and error in order to extract the representative points, and the work requires a great deal of labor and time.

本発明は、上記に鑑みてなされたものであって、標本上の各標本点における分光特性を、意図しないばらつきを生じさせることなく高精度に推定することができる画像処理装置および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and provides an image processing apparatus and an image processing program capable of estimating spectral characteristics at each sample point on a sample with high accuracy without causing unintended variations. The purpose is to provide.

上記の目的を達成するために、本発明にかかる画像処理装置は、1以上の主要要素を含む標本を撮像した観察画像の画像データをもとに、前記1以上の主要要素を含む基準標本上の複数の標本点における基準分光特性の統計量を用いて前記標本の分光特性を推定する画像処理装置において、前記基準標本が記録された画像であって画素ごとに前記基準標本上の対応する標本点における前記基準分光特性が対応付けられた教師画像の各画素を、少なくとも前記主要要素を特徴付ける主要特徴量に基づいて分類する画素分類手段と、前記画素分類手段が分類した画素群の中から複数の代表画素を抽出する代表抽出手段と、複数の前記代表画素に対応付けられた前記基準分光特性をもとに前記統計量を算出する統計量算出手段と、を備えたことを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention is based on image data of an observation image obtained by imaging a sample including one or more main elements, on a reference sample including the one or more main elements. In the image processing apparatus for estimating the spectral characteristics of the sample using the statistical amount of the reference spectral characteristic at a plurality of sample points, an image in which the reference sample is recorded and a corresponding sample on the reference sample for each pixel A pixel classifying unit that classifies each pixel of the teacher image associated with the reference spectral characteristic at a point based on at least a main feature amount that characterizes the main element; and a plurality of pixels among the pixel groups classified by the pixel classifying unit Representative extraction means for extracting a representative pixel, and statistic calculation means for calculating the statistic based on the reference spectral characteristic associated with a plurality of the representative pixels. To.

また、本発明にかかる画像処理プログラムは、1以上の主要要素を含む標本を撮像した観察画像の画像データをもとに、前記1以上の主要要素を含む基準標本上の複数の標本点における基準分光特性の統計量を用いて前記標本の分光特性を推定する画像処理装置に、前記基準標本が記録された画像であって画素ごとに前記基準標本上の対応する標本点における前記基準分光特性が対応付けられた教師画像の各画素を、少なくとも前記主要要素を特徴付ける主要特徴量に基づいて分類する画素分類手順と、前記画素分類手順によって分類された画素群の中から複数の代表画素を抽出する代表抽出手順と、複数の前記代表画素に対応付けられた前記基準分光特性をもとに前記統計量を算出する統計量算出手順と、を実行させることを特徴とする。   The image processing program according to the present invention is based on image data of an observation image obtained by imaging a specimen including one or more main elements, and a reference at a plurality of sample points on the reference specimen including the one or more main elements. An image processing apparatus that estimates spectral characteristics of the specimen using spectral characteristic statistics is an image in which the reference specimen is recorded, and the reference spectral characteristics at a corresponding specimen point on the reference specimen for each pixel. A pixel classification procedure for classifying each pixel of the associated teacher image based on at least a main feature that characterizes the main element, and a plurality of representative pixels are extracted from the pixel group classified by the pixel classification procedure A representative extraction procedure and a statistic calculation procedure for calculating the statistic based on the reference spectral characteristics associated with a plurality of the representative pixels are executed.

本発明にかかる画像処理装置および画像処理プログラムによれば、標本上の各標本点における分光特性を、意図しないばらつきを生じさせることなく高精度に推定することができる。   According to the image processing device and the image processing program of the present invention, the spectral characteristics at each sample point on the sample can be estimated with high accuracy without causing unintended variations.

以下、添付図面を参照して、本発明にかかる画像処理装置および画像処理プログラムの好適な実施の形態を詳細に説明する。なお、この実施の形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一符号を付して示している。   Exemplary embodiments of an image processing apparatus and an image processing program according to the present invention are explained in detail below with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment. Moreover, in description of drawing, the same code | symbol is attached | subjected and shown to the same part.

(実施の形態)
図1は、本実施の形態にかかる画像処理装置1の要部構成を示すブロック図である。この図に示すように、画像処理装置1は、色素によって染色された標本を撮像した観察画像を取得する観察画像取得部2と、基準標本の分光特性を取得する基準分光特性取得部3と、各種情報の入力、表示および記憶をそれぞれ行う入力部4、表示部5および記憶部6と、観察画像取得部2が取得した観察画像および基準分光特性取得部3が取得した分光特性に対して各種演算処理を行う画像処理部7と、これらの各部に電気的に接続され、その接続された各部の処理および動作を制御する制御部8とを備える。
(Embodiment)
FIG. 1 is a block diagram showing a main configuration of an image processing apparatus 1 according to the present embodiment. As shown in this figure, the image processing apparatus 1 includes an observation image acquisition unit 2 that acquires an observation image obtained by imaging a specimen stained with a dye, a reference spectral characteristic acquisition unit 3 that acquires spectral characteristics of a reference specimen, Various types of input unit 4, display unit 5, and storage unit 6 for inputting, displaying, and storing various information, and the observation image acquired by the observation image acquisition unit 2 and the spectral characteristics acquired by the reference spectral characteristic acquisition unit 3 An image processing unit 7 that performs arithmetic processing and a control unit 8 that is electrically connected to each of these units and controls processing and operations of the connected units are provided.

観察画像取得部2は、例えば図2に示すように、複数の色素によって染色された標本10が載置されたステージ11と、ステージ11を介して標本10を透過照明する光源12と、標本10からの光を集光して標本10の観察像を結像させる結像光学系13と、観察像を結像する光の波長帯域を所定範囲に制限するバンドパスフィルタ14と、観察像を撮像して観察画像を生成するカメラ16とを備える。   For example, as shown in FIG. 2, the observation image acquisition unit 2 includes a stage 11 on which a specimen 10 stained with a plurality of pigments is placed, a light source 12 that transmits and illuminates the specimen 10 through the stage 11, and a specimen 10 An imaging optical system 13 for condensing the light from the sample 10 to form an observation image of the specimen 10, a bandpass filter 14 for limiting the wavelength band of the light for forming the observation image to a predetermined range, and imaging the observation image And a camera 16 for generating an observation image.

カメラ16は、CCD等を用いたモノクロの撮像素子上に、図3に示すようなモザイク状のRGBフィルタを配置して構成されており、R,G,Bの各フィルタ領域において、図4に示すような分光感度特性を有している。カメラ16は、各画素においてR,G,Bいずれかの成分しか撮像することができないが、例えば特許文献2に開示されているように、近傍の画素値を利用して各々不足するR,G,B成分を補間することができる。これによってカメラ16は、各画素においてR,G,B成分をすべて取得している。なお、カメラ16は、RGBフィルタを用いた構成に限らず、例えば3CCDタイプのカメラを用いることができる。その場合、各画素において補間を行うことなくR,G,B成分をすべて取得することができる。   The camera 16 is configured by disposing a mosaic RGB filter as shown in FIG. 3 on a monochrome image pickup device using a CCD or the like. In each of the R, G, and B filter regions, the camera 16 is shown in FIG. It has a spectral sensitivity characteristic as shown. The camera 16 can image only one of R, G, and B components in each pixel. However, as disclosed in, for example, Patent Document 2, each of the R, G that is deficient by using neighboring pixel values. , B components can be interpolated. Thereby, the camera 16 acquires all R, G, and B components in each pixel. The camera 16 is not limited to the configuration using the RGB filter, and for example, a 3CCD type camera can be used. In that case, all the R, G, and B components can be acquired without performing interpolation at each pixel.

バンドパスフィルタ14は、例えば図5−1および図5−2に示すような異なる分光透過率特性を有したバンドパスフィルタ14a,14bを含み、それぞれ回転式のターレット15に保持されている。これによって、バンドパスフィルタ14a,14bは、結像光学系13とカメラ16との間に切換自在に配置可能とされている。観察画像取得部2は、観察像を結像する光の波長帯域をバンドパスフィルタ14a,14bによって順次変化させながら撮像を行うことで、標本10の観察画像として6バンドのマルチバンド画像(6バンド画像)を取得することができる。観察画像取得部2が取得した観察画像は、制御部8に転送され、記憶部6に記憶される。   The bandpass filter 14 includes bandpass filters 14 a and 14 b having different spectral transmittance characteristics as shown in FIGS. 5A and 5B, for example, and is held by a rotary turret 15. As a result, the bandpass filters 14a and 14b can be switched between the imaging optical system 13 and the camera 16. The observation image acquisition unit 2 performs imaging while sequentially changing the wavelength band of the light that forms the observation image by the bandpass filters 14a and 14b, so that a 6-band multiband image (6 bands) is obtained as the observation image of the specimen 10. Image). The observation image acquired by the observation image acquisition unit 2 is transferred to the control unit 8 and stored in the storage unit 6.

なお、ここでは観察画像取得部2は、2枚のバンドパスフィルタ14a,14bを用いて6バンドの観察画像を取得するものとしたが、2枚に限定されず3枚以上用いてもよい。それによって、より多くのバンド数のマルチバンド画像を観察画像として取得することができる。例えば、16枚のバンドパスフィルタをフィルタホイールで回転させて切り換えながら面順次方式でマルチバンド画像を撮像する技術が特許文献1に開示されている。これによると、16バンドの観察画像を得ることができる。   Here, the observation image acquisition unit 2 acquires six bands of observation images using the two band-pass filters 14a and 14b. However, the observation image acquisition unit 2 is not limited to two and may use three or more. Thereby, a multiband image having a larger number of bands can be acquired as an observation image. For example, Patent Document 1 discloses a technique for capturing a multiband image in a frame sequential manner while rotating and switching 16 bandpass filters with a filter wheel. According to this, an observation image of 16 bands can be obtained.

また、バンドパスフィルタ14は、結像光学系13とカメラ16との間に配置されるものとして説明したが、光源12からカメラ16に至る光路中のいずれの位置に配置させてもよい。さらに、観察像を結像する光の波長帯域を制限するものとして、バンドパスフィルタ14の代わりに透過帯域可変型のフィルタを用いてもよく、例えばバンドパスフィルタ14およびターレット15に替えて液晶チューナブルフィルタを用いることができる。   Further, although the band pass filter 14 has been described as being disposed between the imaging optical system 13 and the camera 16, it may be disposed at any position in the optical path from the light source 12 to the camera 16. Further, as a filter for limiting the wavelength band of light for forming an observation image, a transmission band variable filter may be used instead of the bandpass filter 14. For example, a liquid crystal tuner may be used instead of the bandpass filter 14 and the turret 15. Bull filters can be used.

なお、本実施の形態では、複数の色素によって染色された標本10として、ヘマトキシリンとエオジンとの2つの色素によって染色された病理標本を用いるものとし、画像処理装置1は、その病理標本におけるヘマトキシリンの色素量と、エオジンの色素量と、赤血球の色素量との3種類の色素量を推定するものとして説明する。また、以下の説明では、これら3種類の色素をそれぞれ色素H、色素Eおよび色素Rと略称する。ただし、画像処理装置1によって推定可能な色素は、色素H、色素Eおよび色素Rに限定されるものではなく、画像処理装置1によって処理可能な標本は、病理標本に限定されるものではない。なお、色素を施さない状態であっても赤血球はそれ自身特有の色を有しており、H&E染色後は、赤血球自身の色と染色過程において変化したエオジンの色が重畳して観察される。よって、正確には両者を併せたものが色素Rとなる。   In this embodiment, a pathological specimen stained with two pigments of hematoxylin and eosin is used as the specimen 10 stained with a plurality of pigments, and the image processing apparatus 1 uses hematoxylin in the pathological specimen. The description will be made assuming that three types of pigment amounts are estimated: the pigment amount, the eosin pigment amount, and the erythrocyte pigment amount. In the following description, these three types of dyes are abbreviated as dye H, dye E, and dye R, respectively. However, the dyes that can be estimated by the image processing apparatus 1 are not limited to the dye H, the dye E, and the dye R, and the specimen that can be processed by the image processing apparatus 1 is not limited to the pathological specimen. Even in a state where no pigment is applied, erythrocytes have their own unique color, and after H & E staining, the color of erythrocytes and the color of eosin changed in the staining process are observed in a superimposed manner. Therefore, exactly, the combination of both is the dye R.

基準分光特性取得部3は、図2に示した観察画像取得部2の構成をもとに、カメラ16に替えて図示しない分光計を備えるとともに、バンドパスフィルタ14が取り除かれた構成とされる。この基準分光特性取得部3は、観察画像取得部2の一部を兼用し、観察画像取得部2からバンドパスフィルタ14を取り除くとともに、カメラ16を分光計に置き換えることで適宜実現される。その際、ステージ11上には、標本10に替えて図示しない基準標本が載置される。基準標本には、標本10に含まれる主要要素としての細胞核、細胞質、赤血球等を含むとともにH&E染色された典型的な病理標本が用いられる。なお、基準分光特性取得部3は、観察画像取得部2と個別に構成することもできる。   The reference spectral characteristic acquisition unit 3 includes a spectrometer (not shown) instead of the camera 16 based on the configuration of the observation image acquisition unit 2 illustrated in FIG. 2 and the bandpass filter 14 is removed. . The reference spectral characteristic acquisition unit 3 is also realized as appropriate by using part of the observation image acquisition unit 2 and removing the bandpass filter 14 from the observation image acquisition unit 2 and replacing the camera 16 with a spectrometer. At that time, a reference specimen (not shown) is placed on the stage 11 instead of the specimen 10. As the reference specimen, a typical pathological specimen that includes cell nuclei, cytoplasm, erythrocytes and the like as main elements contained in the specimen 10 and is stained with H & E is used. The reference spectral characteristic acquisition unit 3 can be configured separately from the observation image acquisition unit 2.

基準分光特性取得部3は、分光計によって、基準標本上の各標本点における分光特性としての分光透過率(以下、基準分光透過率と呼ぶ。)を取得する。基準分光特性取得部3が取得した標本点ごとの基準分光透過率は、制御部8に転送され、各々対応する標本点位置(標本点座標)と対応付けられて記憶部6に記憶される。   The reference spectral characteristic acquisition unit 3 acquires a spectral transmittance (hereinafter referred to as a reference spectral transmittance) as a spectral characteristic at each sample point on the reference specimen using a spectrometer. The reference spectral transmittance for each sample point acquired by the reference spectral characteristic acquisition unit 3 is transferred to the control unit 8 and stored in the storage unit 6 in association with the corresponding sample point position (sample point coordinates).

入力部4は、キーボード、マウス等の各種入力デバイスを備え、制御部8に対して観察画像の処理に用いる処理パラメータ等、各種情報の入力を行う。特に、入力部4は、後述する代表点の抽出または最適化に用いるパラメータ値の入力を行う。表示部5は、FPD(Flat Panel Display)等の各種表示器を用いて構成され、観察画像、後述する教師画像、分光特性の推定結果および色素量の推定結果等、各種情報の表示をする。   The input unit 4 includes various input devices such as a keyboard and a mouse, and inputs various information such as processing parameters used for observation image processing to the control unit 8. In particular, the input unit 4 inputs parameter values used for representative point extraction or optimization described later. The display unit 5 is configured using various displays such as an FPD (Flat Panel Display), and displays various information such as an observation image, a teacher image described later, a spectral characteristic estimation result, and a pigment amount estimation result.

記憶部6は、ハードディスク、ROMおよびRAM等を用いて構成され、制御部8が実行させる処理プログラム、観察画像取得部2が取得した観察画像、基準分光特性取得部3が取得した基準分光透過率、画像処理部7が用いる処理パラメータ、画像処理部7の処理結果等、各種情報を記憶する。また、記憶部6は、後述の色素量推定に用いる色素H、色素Eおよび色素Rの標準的な分光特性をあらかじめ記憶する。   The storage unit 6 is configured by using a hard disk, a ROM, a RAM, and the like, a processing program executed by the control unit 8, an observation image acquired by the observation image acquisition unit 2, and a reference spectral transmittance acquired by the reference spectral characteristic acquisition unit 3 Various information such as processing parameters used by the image processing unit 7 and processing results of the image processing unit 7 are stored. The storage unit 6 stores in advance standard spectral characteristics of the dye H, the dye E, and the dye R that are used for dye amount estimation described later.

画像処理部7は、例えばCPUによって実現され、制御部8が実行させる所定の画像処理プログラムに基づき、記憶部6に記憶された観察画像および基準分光透過率に対して種々の演算処理を行う。特に、画像処理部7は、基準分光特性取得部3が取得した基準分光透過率をもとに基準標本を記録した基準標本画像を生成する基準標本画像生成部7aと、基準標本画像の各画素を、少なくとも標本10中の主要要素を特徴付ける主要特徴量に基づいて分類することで主要要素を分類する主要要素分類部7bと、主要要素分類部7bが分類した画素群の中から複数の代表画素を抽出することで代表点を抽出する代表点抽出部7cと、を備える。   The image processing unit 7 is realized by, for example, a CPU, and performs various arithmetic processes on the observation image and the reference spectral transmittance stored in the storage unit 6 based on a predetermined image processing program executed by the control unit 8. In particular, the image processing unit 7 includes a reference sample image generation unit 7a that generates a reference sample image in which a reference sample is recorded based on the reference spectral transmittance acquired by the reference spectral characteristic acquisition unit 3, and each pixel of the reference sample image. Are classified based on at least a main feature amount that characterizes the main element in the sample 10, and a main element classifying unit 7b that classifies the main element, and a plurality of representative pixels from the pixel group classified by the main element classifying unit 7b And a representative point extracting unit 7c that extracts representative points by extracting.

また、画像処理部7は、代表点抽出部7cが抽出した複数の代表画素に対応付けられた基準分光透過率をもとにその統計量を算出する統計量算出部7dと、統計量算出部7dが算出した統計量をもとに代表画素の更新要否を判断し、更新が必要であると判定した場合、代表画素を抽出するための抽出条件を更新することで代表点を最適化する代表点最適化部7eと、観察画像取得部2が取得した観察画像の画像データをもとに、統計量算出部7dが算出した統計量を用いて標本10上の各標本点における分光特性を推定する分光特性推定部7fと、分光特性推定部7fが推定した分光特性をもとに各標本点における色素量を推定する色素量推定部7gと、を備える。   The image processing unit 7 includes a statistic calculation unit 7d that calculates the statistic based on the reference spectral transmittance associated with the plurality of representative pixels extracted by the representative point extraction unit 7c, and a statistic calculation unit. Based on the statistics calculated by 7d, it is determined whether or not the representative pixel needs to be updated. If it is determined that the update is necessary, the representative point is optimized by updating the extraction condition for extracting the representative pixel. Based on the image data of the observation image acquired by the representative point optimization unit 7e and the observation image acquisition unit 2, the spectral characteristics at each sample point on the sample 10 are calculated using the statistics calculated by the statistics calculation unit 7d. A spectral characteristic estimation unit 7f for estimation and a pigment amount estimation unit 7g for estimating the pigment amount at each sample point based on the spectral characteristics estimated by the spectral characteristic estimation unit 7f are provided.

制御部8は、CPUによって実現され、記憶部6に記憶された所定の処理プログラムを実行させることで、画像処理装置1が備える各部の処理および動作を制御する。例えば、制御部8は、記憶部6に記憶された所定の画像処理プログラムを実行させることで、記憶部6に記憶された観察画像と基準分光透過率を画像処理部7に処理させるとともに、画像処理部7による処理結果を記憶部6に記憶させ、表示部5に表示させる制御をする。   The control unit 8 is realized by a CPU, and controls processing and operation of each unit included in the image processing apparatus 1 by executing a predetermined processing program stored in the storage unit 6. For example, the control unit 8 causes the image processing unit 7 to process the observation image and the reference spectral transmittance stored in the storage unit 6 by executing a predetermined image processing program stored in the storage unit 6. The processing result by the processing unit 7 is stored in the storage unit 6 and controlled to be displayed on the display unit 5.

つづいて、画像処理装置1が行う画像処理手順として、観察画像をもとに標本10の分光特性を推定するとともに、この推定した分光特性をもとに標本10中の色素H、色素Eおよび色素Rの各色素量を推定する処理手順について説明する。図6は、その処理手順の概要を模式的に示す図である。この図に示すように、画像処理装置1は、まず基準標本をもとに基準分光透過率を取得するとともに、取得した基準分光透過率をもとに基準標本画像を生成する。そして、この基準標本画像をもとに基準標本から複数の代表点を抽出するとともに代表点の最適化を行い、ウィナー推定に用いる統計量としての分光透過率の自己相関行列を最適化する。   Subsequently, as an image processing procedure performed by the image processing apparatus 1, the spectral characteristics of the specimen 10 are estimated based on the observation image, and the dye H, the dye E, and the dye in the specimen 10 are estimated based on the estimated spectral characteristics. A processing procedure for estimating the amount of each pigment of R will be described. FIG. 6 is a diagram schematically showing an outline of the processing procedure. As shown in this figure, the image processing apparatus 1 first acquires a reference spectral transmittance based on a reference sample, and generates a reference sample image based on the acquired reference spectral transmittance. Then, based on this reference sample image, a plurality of representative points are extracted from the reference sample and the representative points are optimized to optimize the autocorrelation matrix of the spectral transmittance as a statistic used for the Wiener estimation.

つぎに、画像処理装置1は、観察画像として取得したマルチバンド画像をもとに、標本10上の各標本点における分光特性をウィナー推定によって推定し、この推定した推定分光特性と、あらかじめ取得した色素H、色素Eおよび色素Rの標準的な分光特性とをもとに、標本10上の各標本点における各色素量(H色素量、E色素量およびR色素量)を推定する。そして、画像処理装置1は、その推定結果として推定色素量と推定分光特性とを表示部5に表示させる。なお、画像処理装置1は、この一連の処理過程の中で、観察画像、基準標本画像、基準分光透過率、推定分光特性および推定色素量等を記憶部6に適宜記憶させる。   Next, the image processing apparatus 1 estimates the spectral characteristics at each sample point on the sample 10 by Wiener estimation based on the multiband image acquired as the observation image, and acquires the estimated spectral characteristics obtained in advance. Based on the standard spectral characteristics of dye H, dye E, and dye R, the amount of each dye (the amount of H dye, the amount of E dye, and the amount of R dye) at each sample point on the sample 10 is estimated. Then, the image processing apparatus 1 displays the estimated pigment amount and the estimated spectral characteristic on the display unit 5 as the estimation result. Note that the image processing apparatus 1 appropriately stores an observation image, a reference specimen image, a reference spectral transmittance, an estimated spectral characteristic, an estimated dye amount, and the like in the storage unit 6 in the series of processing steps.

図7は、図6に対応する処理手順を示すフローチャートである。この処理手順は、制御部8が記憶部6に記憶された所定の画像処理プログラムを実行させることで行われる。図7に示すように、まず観察画像取得部2は、標本10の観察画像としてのマルチバンド画像を取得する観察画像取得処理を行い(ステップS101)、基準分光特性取得部3は、基準標本の基準分光透過率を取得する基準分光特性取得処理を行う(ステップS102)。   FIG. 7 is a flowchart showing a processing procedure corresponding to FIG. This processing procedure is performed by causing the control unit 8 to execute a predetermined image processing program stored in the storage unit 6. As shown in FIG. 7, first, the observation image acquisition unit 2 performs an observation image acquisition process for acquiring a multiband image as an observation image of the specimen 10 (step S101), and the reference spectral characteristic acquisition unit 3 A reference spectral characteristic acquisition process for acquiring the reference spectral transmittance is performed (step S102).

つぎに、基準標本画像生成部7a、主要要素分類部7b、代表点抽出部7c、統計量算出部7dおよび代表点最適化部7eは、基準分光透過率をもとに、ウィナー推定行列に用いる分光透過率の自己相関行列を算出する統計量算出処理を協働して行い(ステップS103)、分光特性推定部7fは、観察画像の画像データをもとに、ステップS103によって算出された自己相関行列を用い、ウィナー推定によって標本10上の各標本点における分光特性を推定する分光特性推定処理を行う(ステップS104)。   Next, the reference sample image generation unit 7a, the main element classification unit 7b, the representative point extraction unit 7c, the statistic calculation unit 7d, and the representative point optimization unit 7e are used for the Wiener estimation matrix based on the reference spectral transmittance. A statistic calculation process for calculating the autocorrelation matrix of the spectral transmittance is performed in cooperation (step S103), and the spectral characteristic estimation unit 7f calculates the autocorrelation calculated in step S103 based on the image data of the observed image. Using the matrix, spectral characteristic estimation processing for estimating spectral characteristics at each sample point on the specimen 10 by Wiener estimation is performed (step S104).

その後、色素量推定部7gは、ステップS104によって推定された分光特性と、記憶部6に記憶された色素H、色素Eおよび色素Rの標準分光特性とをもとに、この色素ごとに標本10上の各標本点における各色素量を推定する色素量推定処理を行い(ステップS105)、制御部8は、ステップS104によって推定された推定分光特性およびステップS105によって推定された推定色素量等を表示部5に表示させる推定結果表示処理を行い(ステップS106)、一連の処理を終了させる。   Thereafter, the dye amount estimation unit 7g determines the specimen 10 for each dye based on the spectral characteristics estimated in step S104 and the standard spectral characteristics of the dyes H, E, and R stored in the storage unit 6. Dye amount estimation processing for estimating each dye amount at each sample point above is performed (step S105), and the control unit 8 displays the estimated spectral characteristics estimated in step S104, the estimated dye amount estimated in step S105, and the like. An estimation result display process to be displayed on the unit 5 is performed (step S106), and the series of processes is terminated.

なお、ステップS106では、制御部8は、推定結果に限らず、観察画像、基準標本画像、基準分光透過率等を表示部5に適宜表示させることができる。また、制御部8は、ステップS101〜S106の各ステップにおいて、ステップごとの処理結果および処理パラメータ等を適宜記憶部6に記憶させる。   In step S106, the control unit 8 can appropriately display the observation image, the reference sample image, the reference spectral transmittance, and the like on the display unit 5 without being limited to the estimation result. Moreover, the control part 8 memorize | stores the process result, process parameter, etc. for every step in the memory | storage part 6 suitably in each step of step S101-S106.

つづいて、図7に示した各ステップについて詳細に説明する。まずステップS101の観察画像取得処理では、観察画像取得部2は、バンドパスフィルタ14a,14bを順次切り換えながら標本10を撮像することで、例えば図8に示すような観察画像としてのマルチバンド画像を取得する。ただし、図8ではモノクロ表示している。また、観察画像取得部2は、観察画像を取得した後、標本10をステージ11上から取り除いた状態で、背景光のマルチバンド画像として光源12が発した照明光のみのマルチバンド画像を、観察画像の場合と同様の撮像手順によって取得する。制御部8は、このステップS101によって取得された観察画像と背景光のマルチバンド画像とを記憶部6に記憶させる。   Next, each step shown in FIG. 7 will be described in detail. First, in the observation image acquisition process in step S101, the observation image acquisition unit 2 captures the sample 10 while sequentially switching the bandpass filters 14a and 14b, thereby, for example, generating a multiband image as an observation image as shown in FIG. get. However, in FIG. 8, monochrome display is performed. In addition, the observation image acquisition unit 2 acquires the observation image, and then observes the multiband image only of the illumination light emitted from the light source 12 as the background light multiband image in a state where the specimen 10 is removed from the stage 11. Acquired by the same imaging procedure as in the case of images. The control unit 8 causes the storage unit 6 to store the observation image acquired in step S101 and the multiband image of the background light.

つぎに、ステップS104の分光特性推定処理について説明する。この分光特性推定処理では、分光特性推定部7fは、標本10上の各標本点の分光特性をウィナー推定によって推定する。ここで、標本10上の標本点とは、観察画像上の各画素もしくは各画素群に対応する標本10上の被観測点である。   Next, the spectral characteristic estimation process in step S104 will be described. In this spectral characteristic estimation process, the spectral characteristic estimation unit 7f estimates the spectral characteristics of each sample point on the specimen 10 by Wiener estimation. Here, the sample point on the sample 10 is an observed point on the sample 10 corresponding to each pixel or each pixel group on the observation image.

通常、色素は標本10内に3次元的に分布しているが、観察画像では標本10を3次元像として捉えることはできず、標本10内をその厚さ方向に透過した照明光をカメラ16の撮像素子上に結像させた2次元像として捉えている。このため、観察画像では、標本10を平面的に捉えたその平面内での各点を標本点として観察している。この場合、各標本点における色素量とは、その標本点において標本10の厚さ方向に分布した色素の全色素量(積分量)に相当する。   Usually, the pigment is three-dimensionally distributed in the specimen 10, but the specimen 10 cannot be captured as a three-dimensional image in the observation image, and the illumination light transmitted through the specimen 10 in the thickness direction is used as the camera 16. As a two-dimensional image formed on the image sensor. Therefore, in the observation image, each point in the plane obtained by capturing the sample 10 in a plane is observed as a sample point. In this case, the pigment amount at each sample point corresponds to the total pigment amount (integrated amount) of the pigment distributed in the thickness direction of the sample 10 at the sample point.

なお、標本10上の標本点と、それに対応する観察画像上の観察点(画素もしくは画素群)との各位置(座標)は、観察画像取得部2における各種の装置パラメータ等に基づく換算式によってあらかじめ対応付けられており、画像処理部7は、その換算式を用いて標本点と観察点との座標を適宜変換することができる。   Each position (coordinate) between the sample point on the sample 10 and the observation point (pixel or pixel group) on the observation image corresponding to the sample point is determined by a conversion formula based on various apparatus parameters in the observation image acquisition unit 2. Corresponding in advance, the image processing unit 7 can appropriately convert the coordinates of the sample point and the observation point using the conversion formula.

一般に、観察画像上の観察点位置uおよびバンドbにおける画素値g(u,b)と、その観察点位置uに対応する標本10上の標本点における分光透過率t(u,λ)との間には、次式(1)によって示される関係が成り立つ。次式(1)は、波長λと、観察画像の撮像に用いたバンドパスフィルタのバンドbに対応する分光透過率f(b,λ)と、観察画像の撮像に用いたカメラの分光感度特性s(λ)と、観察画像の撮像に用いた照明光の分光放射特性e(λ)と、バンドbにおける撮像ノイズn(b)とを用いて表されている。なお、バンドbは、観察画像としてのマルチバンド画像における各バンドを識別する通し番号である。

Figure 2009014354
In general, the pixel value g (u, b) at the observation point position u and the band b on the observation image and the spectral transmittance t (u, λ) at the sample point on the sample 10 corresponding to the observation point position u. The relationship shown by the following formula (1) is established between them. The following equation (1) represents the wavelength λ, the spectral transmittance f (b, λ) corresponding to the band b of the bandpass filter used to capture the observation image, and the spectral sensitivity characteristics of the camera used to capture the observation image. It is expressed using s (λ), the spectral radiation characteristic e (λ) of the illumination light used for capturing the observation image, and the imaging noise n (b) in the band b. The band b is a serial number for identifying each band in the multiband image as the observation image.
Figure 2009014354

式(1)を波長について離散化すると、画素値g(u,b)、分光透過率t(u,λ)、分光透過率f(b,λ)、分光感度特性s(λ)、分光放射特性e(λ)および撮像ノイズn(b)のそれぞれに対応する行列G(u),T(u),F,S,E,Nを用いて次式(2)によって示される。
G(u)=FSET(u)+N ・・・(2)
When the equation (1) is discretized with respect to the wavelength, the pixel value g (u, b), spectral transmittance t (u, λ), spectral transmittance f (b, λ), spectral sensitivity characteristic s (λ), spectral radiation It is represented by the following equation (2) using matrices G (u), T (u), F, S, E, and N corresponding to the characteristic e (λ) and the imaging noise n (b), respectively.
G (u) = FSET (u) + N (2)

ここで、波長のサンプル点数Dとバンド数Bとをもとに、行列G(u)はB行1列、行列T(u)はD行1列、行列FはB行D列、行列SはD行D列、行列EはD行D列、行列NはB行1列とされている。また、行列Sは、分光感度特性s(λ)を対角要素とする対角行列であり、行列Eは、分光放射特性e(λ)を対角要素とする対角行列である。なお、式(2)では、行列を用いて複数のバンドに関する式を集約しているため、変数としてバンドbが陽に記述されていない。また、波長λに関する積分は、行列の積に置き換えられている。   Here, the matrix G (u) is B rows and 1 column, the matrix T (u) is D rows and 1 column, the matrix F is B rows and D columns, and the matrix S, based on the number of sample points D of wavelengths and the number of bands B. Is D rows D columns, matrix E is D rows D columns, and matrix N is B rows 1 columns. The matrix S is a diagonal matrix having the spectral sensitivity characteristic s (λ) as a diagonal element, and the matrix E is a diagonal matrix having the spectral radiation characteristic e (λ) as a diagonal element. In Expression (2), since the expressions related to a plurality of bands are aggregated using a matrix, the band b is not explicitly described as a variable. Also, the integration with respect to the wavelength λ has been replaced with a matrix product.

ウィナー推定によると、観察点位置uに対応する標本10上の標本点における分光透過率の推定値を示す行列T^(u)は、式(2)をもとに、行列RSS,RNNを用いて次式(3)によって算出される。ここで、行列RSSは、D行D列の行列であり、推定対象とする標本の分光透過率の自己相関行列である。また、行列RNNは、B行B列の行列であり、観察画像の撮像に用いたカメラのノイズの自己相関行列である。なお、記号()は転置行列を示し、記号()−1は逆行列を示している。
T^(u)=RSS(FSE)((FSE)RSS(FSE)+RNN−1G(u) ・・・(3)
According to the Wiener estimation, the matrix T ^ (u) indicating the estimated value of the spectral transmittance at the sample point on the sample 10 corresponding to the observation point position u is expressed by the matrix R SS , R NN based on the equation (2). Is calculated by the following equation (3). Here, the matrix R SS is a matrix of D rows and D columns, and is an autocorrelation matrix of the spectral transmittance of the sample to be estimated. The matrix R NN is a matrix of B rows and B columns, and is an autocorrelation matrix of camera noise used for capturing an observation image. Note that the symbol () t represents a transposed matrix, and the symbol () −1 represents an inverse matrix.
T ^ (u) = R SS (FSE) t ((FSE) R SS (FSE) t + R NN) -1 G (u) ··· (3)

ステップS104の分光特性推定処理では、分光特性推定部7fは、式(3)を用いて標本10上の各標本点における推定分光透過率を算出する。算出された各推定分光透過率は、記憶部6に記憶される。なお、行列F,S,Eは、観察画像取得部2におけるバンドパスフィルタ14、カメラ16および光源12が選定された後、分光計等を用いてあらかじめ測定され、記憶部6に記憶される。ここでは、結像光学系13の分光透過率は「1.0」と近似されているが、「1.0」からの乖離が許容できない場合に、この分光透過率もあらかじめ測定し、行列Eに乗じておくとよい。   In the spectral characteristic estimation process in step S104, the spectral characteristic estimation unit 7f calculates an estimated spectral transmittance at each sample point on the sample 10 using Expression (3). Each estimated spectral transmittance calculated is stored in the storage unit 6. The matrices F, S, and E are measured in advance using a spectrometer or the like after the bandpass filter 14, the camera 16, and the light source 12 in the observation image acquisition unit 2 are selected, and stored in the storage unit 6. Here, the spectral transmittance of the imaging optical system 13 is approximated to “1.0”. However, when the deviation from “1.0” cannot be allowed, this spectral transmittance is also measured in advance, and the matrix E It is good to multiply by.

また、行列RSSは、ステップS102によって取得された基準分光透過率をもとに、ステップS103によって後述のようにあらかじめ算出され、記憶部6に記憶される。また、行列RNNは、ステップS101によって撮像された背景光のマルチバンド画像の各バンドについて画素値の自己相関行列を生成することであらかじめ求められ、記憶部6に記憶される。ただし、この場合、バンド間でノイズの相関はないものと仮定される。 Further, the matrix R SS is calculated in advance in step S103 as described later based on the reference spectral transmittance acquired in step S102 and stored in the storage unit 6. The matrix R NN is obtained in advance by generating an autocorrelation matrix of pixel values for each band of the background light multiband image captured in step S 101, and is stored in the storage unit 6. However, in this case, it is assumed that there is no noise correlation between the bands.

つぎに、ステップS105の色素量推定処理について説明する。一般に、光を透過する物質では、波長λごとに入射光の強度I0(λ)と射出光の強度I(λ)との間で、物質に固有の係数k(λ)と物質の厚さdとを用い、次式(4)によって示されるLambert-Beer則が成り立つことが知られている。

Figure 2009014354
Next, the pigment amount estimation processing in step S105 will be described. In general, in a substance that transmits light, a coefficient k (λ) specific to the substance and the thickness of the substance between the intensity I 0 (λ) of the incident light and the intensity I (λ) of the emitted light for each wavelength λ. It is known that the Lambert-Beer law expressed by the following equation (4) is established using d.
Figure 2009014354

H&E染色された標本10では、式(4)をもとに、色素H、色素Eおよび色素Rごとの係数kH(λ),kE(λ),kR(λ)と、観察点位置uに対応する標本点位置Uの厚さdH(U),dE(U),dR(U)とを用いて次式(5)が成り立つ。

Figure 2009014354
In the specimen 10 subjected to H & E staining, the coefficients k H (λ), k E (λ), k R (λ) for each of the dye H, the dye E, and the dye R and the position of the observation point based on the equation (4) Using the thicknesses d H (U), d E (U), and d R (U) of the sample point position U corresponding to u, the following equation (5) is established.
Figure 2009014354

式(5)の左辺は、分光透過率であり、係数kH(λ),kE(λ),kR(λ)は、それぞれ色素H、色素Eおよび色素Rに固有の標準分光特性である。係数kH(λ),kE(λ),kR(λ)は、各々対応する単一の色素で染色した標準的な標本を作成し、その分光透過率を分光計によって測定することであらかじめ求められ、記憶部6に記憶される。 The left side of Equation (5) is the spectral transmittance, and the coefficients k H (λ), k E (λ), and k R (λ) are standard spectral characteristics specific to Dye H, Dye E, and Dye R, respectively. is there. The coefficients k H (λ), k E (λ), and k R (λ) are obtained by preparing a standard specimen stained with a corresponding single dye and measuring its spectral transmittance with a spectrometer. It is obtained in advance and stored in the storage unit 6.

また、厚さdH(U),dE(U),dR(U)は、それぞれ色素H、色素Eおよび色素Rに対応した仮想的な厚さであって、標本10が色素H、色素Eおよび色素Rごとに単一の色素で染色されていると仮定した場合と比較して、相対的にどの程度の量の色素が存在しているか、という相対的な色素量を表す指標となる。すなわち、厚さdH(U),dE(U),dR(U)は、それぞれ標本10上の標本点位置Uにおける色素H、色素Eおよび色素Rの色素量を表していると言える。 The thicknesses d H (U), d E (U), and d R (U) are virtual thicknesses corresponding to the dye H, the dye E, and the dye R, respectively. Compared to the assumption that each dye E and dye R is dyed with a single dye, an index indicating a relative amount of dye, such as a relative amount of the dye, Become. That is, it can be said that the thicknesses d H (U), d E (U), and d R (U) represent the dye amounts of the dye H, the dye E, and the dye R at the sample point position U on the sample 10, respectively. .

式(5)の両辺の対数を取ると、次式(6)となる。

Figure 2009014354
Taking the logarithm of both sides of equation (5), the following equation (6) is obtained.
Figure 2009014354

式(6)の左辺における分光透過率I(λ)/I0(λ)として、式(3)を用いて算出される推定分光特性t^(U,λ)を代入すると、次式(7)を得る。ここで、推定分光特性t^(U,λ)は、式(3)によって算出される行列T^(u)の波長λに対応する要素t^(u,λ)を標本点位置Uについて換算することで求められる。

Figure 2009014354
Substituting the estimated spectral characteristic t ^ (U, λ) calculated using equation (3) as the spectral transmittance I (λ) / I 0 (λ) on the left side of equation (6), the following equation (7 ) Here, the estimated spectral characteristic t ^ (U, λ) is obtained by converting the element t ^ (u, λ) corresponding to the wavelength λ of the matrix T ^ (u) calculated by the equation (3) with respect to the sample point position U. Is required.
Figure 2009014354

式(7)において未知変数は厚さdH(U),dE(U),dR(U)の3つであるから、少なくとも3つの異なる波長λに対して式(7)を連立させることで、これを解くことができる。あるいは、より算出精度を高めるために、4つ以上の異なる波長λに対して式(7)を連立させて重回帰分析を行うこともできる。 Since there are three unknown variables of thicknesses d H (U), d E (U), and d R (U) in equation (7), equation (7) is made simultaneous for at least three different wavelengths λ. This can be solved. Alternatively, in order to further improve the calculation accuracy, the multiple regression analysis can be performed by simultaneous equations (7) for four or more different wavelengths λ.

3つの波長λ1,λ2,λ3について式(7)を連立させた場合、次式(8)を得る。これより、厚さdH(U),dE(U),dR(U)は、次式(9)によって算出される。

Figure 2009014354
Figure 2009014354
When the equation (7) is made simultaneous for the three wavelengths λ 1 , λ 2 , and λ 3 , the following equation (8) is obtained. Accordingly, the thicknesses d H (U), d E (U), and d R (U) are calculated by the following equation (9).
Figure 2009014354
Figure 2009014354

ステップS105の色素量推定処理では、色素量推定部7gは、式(9)を用いて、標本10上の各標本点位置Uにおける推定色素量として厚さdH(U),dE(U),dR(U)を算出する。算出された各推定色素量は、記憶部6に記憶される。なお、以下の説明では、厚さdH(U),dE(U),dR(U)をそれぞれ推定色素量dH(U),dE(U),dR(U)と呼ぶ。 In the pigment amount estimation process in step S105, the pigment amount estimation unit 7g uses the formula (9) to calculate the thicknesses d H (U) and d E (U) as the estimated pigment amounts at each sample point position U on the sample 10. ), D R (U). Each calculated estimated pigment amount is stored in the storage unit 6. In the following description, the thicknesses d H (U), d E (U), and d R (U) are referred to as estimated pigment amounts d H (U), d E (U), and d R (U), respectively. .

つぎに、ステップS102の基準分光特性取得処理について説明する。この基準分光特性取得処理では、基準分光特性取得部3は、基準標本上の標本点ごとに、その標本点位置に対応付けて基準分光透過率を取得する。その際、基準分光特性取得部3は、基準標本上の2つの標本領域から基準分光透過率を取得し、制御部8は、その一方の標本領域に対応する基準分光透過率を、後述のように代表点を抽出するための教師データとする。また、他方の標本領域に対応する基準分光透過率を、後述のように代表点の最適化を行うためのテストデータとして、それぞれ記憶部6に記憶させる。なお、テストデータに対応する標本領域を以下、テスト領域と呼ぶ。   Next, the reference spectral characteristic acquisition process in step S102 will be described. In this reference spectral characteristic acquisition process, the reference spectral characteristic acquisition unit 3 acquires a reference spectral transmittance in association with each sample point position for each sample point on the reference sample. At that time, the reference spectral characteristic acquisition unit 3 acquires the reference spectral transmittance from two sample regions on the reference sample, and the control unit 8 sets the reference spectral transmittance corresponding to one of the sample regions as described later. Are used as teacher data for extracting representative points. Further, the reference spectral transmittance corresponding to the other specimen region is stored in the storage unit 6 as test data for performing representative point optimization as described later. The sample area corresponding to the test data is hereinafter referred to as a test area.

つぎに、ステップS103の統計量算出処理について詳細に説明する。図9は、統計量算出処理の処理手順を示すフローチャートである。この図に示すように、まず基準標本画像生成部7aは、ステップS102によって取得された教師データおよびテストデータをもとに、基準標本画像としての教師画像およびテスト画像を生成する(ステップS111)。つづいて主要要素分類部7bは、少なくとも標本10中の主要要素を特徴付ける主要特徴量に基づいて教師画像の各画素を分類し、これによって各主要要素を分類する主要要素分類処理を行う(ステップS112)。   Next, the statistic calculation process in step S103 will be described in detail. FIG. 9 is a flowchart showing a processing procedure of the statistic calculation processing. As shown in this figure, first, the reference sample image generation unit 7a generates a teacher image and a test image as a reference sample image based on the teacher data and test data acquired in step S102 (step S111). Subsequently, the main element classification unit 7b classifies each pixel of the teacher image based on at least a main feature amount that characterizes the main element in the sample 10, and thereby performs a main element classification process for classifying each main element (step S112). ).

そして、代表点抽出部7cは、ステップS112によって分類された画素群ごとに代表画素を抽出するための抽出条件を、主要要素ごとに代表点を抽出するための抽出条件として設定し(ステップS113)、この設定した抽出条件に基づいて画素群から代表画素を抽出し、これによって代表点を抽出する(ステップS114)。   Then, the representative point extraction unit 7c sets an extraction condition for extracting a representative pixel for each pixel group classified in step S112 as an extraction condition for extracting a representative point for each main element (step S113). Based on the set extraction conditions, representative pixels are extracted from the pixel group, thereby extracting representative points (step S114).

その後、統計量算出部7dは、ステップS113によって抽出された各代表画素に対応付けられた基準分光透過率をもとに、その統計量としての自己相関行列RSS(式(3)参照)を算出し(ステップS115)、代表点最適化部7eは、ステップS115によって算出された自己相関行列RSSを用いてウィナー推定処理行列を算出する(ステップS116)。 Thereafter, the statistic calculation unit 7d uses the autocorrelation matrix R SS (see formula (3)) as the statistic based on the reference spectral transmittance associated with each representative pixel extracted in step S113. Then, the representative point optimization unit 7e calculates a winner estimation processing matrix using the autocorrelation matrix R SS calculated in step S115 (step S116).

つづいて、代表点最適化部7eは、ステップS111によって生成されたテスト画像の画像データをもとに、ステップS116によって算出したウィナー推定処理行列を用い、基準標本のテスト領域における分光特性としての分光透過率を推定し(ステップS117)、この推定した推定分光透過率の基準分光透過率に対する分光透過率誤差を算出する(ステップS118)。   Subsequently, the representative point optimization unit 7e uses the Wiener estimation processing matrix calculated in step S116 based on the image data of the test image generated in step S111, and uses the spectral characteristics as the spectral characteristics in the test region of the reference sample. The transmittance is estimated (step S117), and a spectral transmittance error with respect to the reference spectral transmittance of the estimated spectral transmittance is calculated (step S118).

そして、代表点最適化部7eは、算出した分光透過率誤差が所定の判定条件を満足するか否かを判断し(ステップS119)、判定条件を満足していないと判定した場合(ステップS119:No)、代表画素の抽出条件つまり代表点の抽出条件を更新する(ステップS120)。このステップS120の後、制御部8は、代表点抽出部7c、統計量算出部7dおよび代表点最適化部7eにステップS114からの処理を繰り返させる。一方、分光透過率誤差が所定の判定条件を満足している場合には(ステップS119:Yes)、制御部8は、統計量算出処理を終了し、ステップS103へリターンする。   Then, the representative point optimization unit 7e determines whether or not the calculated spectral transmittance error satisfies a predetermined determination condition (step S119), and determines that the determination condition is not satisfied (step S119: No), the representative pixel extraction condition, that is, the representative point extraction condition is updated (step S120). After step S120, the control unit 8 causes the representative point extraction unit 7c, the statistic calculation unit 7d, and the representative point optimization unit 7e to repeat the processing from step S114. On the other hand, when the spectral transmittance error satisfies a predetermined determination condition (step S119: Yes), the control unit 8 ends the statistic calculation process and returns to step S103.

ステップS111では、基準標本画像生成部7aは、式(1)に基づく次式(10)をもとに、教師データおよびテストデータからそれぞれ教師画像およびテスト画像の画像データを算出する。次式(10)は、基準標本上の各標本点位置Vに対応する教師画像上またはテスト画像上の画素位置vにおける画素値g(v,b)が、教師データまたはテストデータとして取得された基準分光透過率t(v,λ)を用いて算出されることを示している。

Figure 2009014354
In step S111, the reference sample image generation unit 7a calculates teacher image data and test image image data from the teacher data and test data, respectively, based on the following equation (10) based on equation (1). In the following equation (10), the pixel value g (v, b) at the pixel position v on the teacher image or test image corresponding to each sample point position V on the reference sample is acquired as teacher data or test data. It is calculated using the reference spectral transmittance t (v, λ).
Figure 2009014354

ここで、基準標本画像生成部7aは、分光透過率f(b,λ)、分光感度特性s(λ)および分光放射特性e(λ)に、それぞれバンドパスフィルタ14の分光透過率、カメラ16の分光感度特性および光源12の分光放射特性を用いて画素値g(v,b)を算出することで、観察画像と同様の6バンド画像であるテスト画像を生成する。さらに、バンドパスフィルタの分光透過率f(b,λ)を「1」として各画素値g(v,b)を算出することで、RGB画像である教師画像を生成する。生成された教師画像およびテスト画像の画像データは、画素値g(v,b)ごとに、各々対応する基準分光透過率が対応付けられて記憶部6に記憶される。   Here, the reference specimen image generation unit 7a has a spectral transmittance f (b, λ), a spectral sensitivity characteristic s (λ), and a spectral radiation characteristic e (λ). By calculating the pixel value g (v, b) using the spectral sensitivity characteristics of the light source 12 and the spectral radiation characteristics of the light source 12, a test image that is a 6-band image similar to the observation image is generated. Furthermore, by calculating each pixel value g (v, b) with the spectral transmittance f (b, λ) of the bandpass filter as “1”, a teacher image that is an RGB image is generated. The generated image data of the teacher image and the test image is stored in the storage unit 6 in association with the corresponding reference spectral transmittance for each pixel value g (v, b).

つぎに、ステップS112の主要要素分類処理について説明する。図10は、その主要要素分類処理の処理手順を示すフローチャートである。この図に示すように、主要要素分類部7bは、まず教師画像の各画素を色空間としてのa空間へ写像する(ステップS131)。このa空間は、L表色系におけるa値およびb値を各軸にもつ2次元の特徴空間である。主要要素分類部7bは、教師画像上の各画素についてRGB値からa値を算出し、この算出したa値をもとに各画素をa空間へ写像する。これによって、教師画像上の各画素はa空間において、例えば図11に黒点で示すように、各主要要素を特徴付ける主要特徴量として各主要要素を特徴付ける色を示すa値ごとに画素群を形成する。各画素のa値は、教師画像上の画素位置v(xy座標)に対応付けて記憶部6に記憶される。 Next, the main element classification process in step S112 will be described. FIG. 10 is a flowchart showing a processing procedure of the main element classification processing. As shown in this figure, the main element classification unit 7b first maps each pixel of the teacher image to the a * b * space as the color space (step S131). The a * b * space is a two-dimensional feature space having an a * value and a b * value on each axis in the L * a * b * color system. The main element classification unit 7b calculates an a * b * value from the RGB values for each pixel on the teacher image, and maps each pixel to the a * b * space based on the calculated a * b * value. Accordingly, each pixel on the teacher image is a * b * value indicating the color characterizing each main element as the main feature quantity characterizing each main element in the a * b * space, for example, as indicated by a black dot in FIG. A pixel group is formed. The a * b * value of each pixel is stored in the storage unit 6 in association with the pixel position v (xy coordinates) on the teacher image.

つづいて、主要要素分類部7bは、a空間におけるヒストグラムを算出するとともに、このヒストグラムを教師画像の総画素数で除算することで、a空間における確率分布を算出する(ステップS132)。このステップS132では、主要要素分類部7bは、例えば図12に示すようなヒストグラムを得る。図12に示すヒストグラムは、図11に示したXII−XII断面におけるヒストグラムに相当する。ここで算出された確率分布は、記憶部6に記憶される。 (Step Subsequently, the main element classification unit 7b is configured to calculate a histogram in a * b * space, by dividing the histogram by the total number of pixels of the teacher image, to calculate the probability distribution in the a * b * space S132). In step S132, the main element classification unit 7b obtains a histogram as shown in FIG. 12, for example. The histogram shown in FIG. 12 corresponds to the histogram in the XII-XII cross section shown in FIG. The probability distribution calculated here is stored in the storage unit 6.

つづいて、主要要素分類部7bは、教師画像上の画素位置vにおけるa値と、a空間における確率分布とを用いて、a空間における分布関数を画素群ごとに算出する。具体的には、主要要素分類部7bは、EMアルゴリズム(Expectation Maximization Algorithm)を用いて各分布関数を算出する。そのため、主要要素分類部7bは、まず画素群ごとに確率分布に対する分布関数を混合ガウス分布(GMD)によってモデル化する(ステップS133)。 Subsequently, the main elements classification unit 7b includes a a * b * values at the pixel position v on the teacher image, using a probability distribution in the a * b * space, each group of pixels distribution function in a * b * space To calculate. Specifically, the main element classification unit 7b calculates each distribution function using an EM algorithm (Expectation Maximization Algorithm). Therefore, the main element classifying unit 7b first models a distribution function for the probability distribution for each pixel group using a mixed Gaussian distribution (GMD) (step S133).

GMDは、一般的な測定値の分布に対して幅広く近似できる関数として知られている。GMDのパラメータθ(以下、GMDパラメータθと呼ぶ。)は、重み係数α、平均μおよび分散σ2を用いて表される。ステップS133では、主要要素分類部7bは、画素群ごとにGMDパラメータθに適当な初期値を設定する。この初期値は、例えば画像処理装置1の操作者によって入力部4から適宜入力される。 GMD is known as a function that can be widely approximated to a general distribution of measured values. A GMD parameter θ (hereinafter referred to as GMD parameter θ) is expressed using a weighting factor α, an average μ, and a variance σ 2 . In step S133, the main element classification unit 7b sets an appropriate initial value for the GMD parameter θ for each pixel group. This initial value is appropriately input from the input unit 4 by an operator of the image processing apparatus 1, for example.

つづいて、主要要素分類部7bは、画素群ごとにEMアルゴリズムによって、a空間における分布関数を近似するGMDパラメータθを算出する。EMアルゴリズムは、非特許文献2に開示されているように、GMDを用いた繰り返し演算を用いる最尤推定アルゴリズムの一種として広く知られている。主要要素分類部7bは、そのEMアルゴリズムにおけるEステップ(Expectation Step)(ステップS134)、Mステップ(Maximization Step)(ステップS135)および判定処理(ステップS136)の繰り返し計算によって画素群ごとにGMDパラメータθの最尤解を推定し、この最尤解としてのGMDパラメータθを用いて画素群ごとに最適な分布関数を算出する。 Subsequently, the main element classification unit 7b calculates the GMD parameter θ that approximates the distribution function in the a * b * space by the EM algorithm for each pixel group. As disclosed in Non-Patent Document 2, the EM algorithm is widely known as a kind of maximum likelihood estimation algorithm using an iterative operation using GMD. The main element classifying unit 7b performs GMD parameter θ for each pixel group by repeating calculation of E step (Expectation Step) (step S134), M step (Maximization Step) (step S135), and determination processing (step S136) in the EM algorithm. The optimal distribution function is calculated for each pixel group using the GMD parameter θ as the maximum likelihood solution.

具体的には、ステップS135では、主要要素分類部7bは、ステップS131によって算出した各画素のa値をGMDにおける測定値とし、ステップS132によって算出したヒストグラムの総数(総画素数)NをGMDにおける測定値の個数として、GMDパラメータθを構成する重み係数α、平均μおよび分散σ2をそれぞれ次式(11)〜(13)によって順次更新する。ここで、次式(11)〜(13)は、EMアルゴリズムの繰り返し数t、画素群の識別番号jおよび注目画素の識別番号zを用いて表されている。

Figure 2009014354
Specifically, in step S135, the main element classification unit 7b uses the a * b * value of each pixel calculated in step S131 as a measured value in GMD, and the total number of histograms (total number of pixels) N calculated in step S132. Is the number of measured values in the GMD, and the weighting coefficient α, average μ, and variance σ 2 constituting the GMD parameter θ are sequentially updated by the following equations (11) to (13), respectively. Here, the following equations (11) to (13) are expressed using the EM algorithm repetition number t, the pixel group identification number j, and the target pixel identification number z.
Figure 2009014354

さらに、主要要素分類部7bは、正規分布関数pj、条件付き期待値pおよび評価値l(θj)をそれぞれ次式(14)〜(16)によって順次更新する。ここで、次式(14)〜(16)は、自己相関行列Σj、自己相関行列の行列式|Σj|、次元数dを用いて表されている。本実施の形態では、a空間であるため次元数d=2となる。なお、符号Tは、転置行列であることを示している。

Figure 2009014354
Furthermore, the main element classification unit 7b sequentially updates the normal distribution function p j , the conditional expected value p, and the evaluation value l (θ j ) according to the following equations (14) to (16), respectively. Here, the following equations (14) to (16) are expressed using the autocorrelation matrix Σ j , the determinant | Σ j | of the autocorrelation matrix, and the number of dimensions d. In this embodiment, since it is a * b * space, the number of dimensions is d = 2. Note that the symbol T indicates a transposed matrix.
Figure 2009014354

そして、ステップS136の判定処理では、主要要素分類部7bは、評価値l(θj)が所定の収束条件を満足しているか否かを判断し、収束条件が満足されていない場合(ステップS136:No)、ステップS134からの処理を繰り返し、収束条件が満足されている場合には(ステップS136:Yes)、EMアルゴリズムを終了させるとともに主要要素分類処理を終了させ、ステップS112へリターンする。 In the determination process in step S136, the main element classification unit 7b determines whether or not the evaluation value l (θ j ) satisfies a predetermined convergence condition. If the convergence condition is not satisfied (step S136). : No), the process from step S134 is repeated, and when the convergence condition is satisfied (step S136: Yes), the EM algorithm is terminated and the main element classification process is terminated, and the process returns to step S112.

ここで、所定の収束条件とは、例えば評価値l(θj)の収束値が所定の閾値以内であること、もしくは評価値l(θj)が所定の閾値以内であることとされる。また、評価値l(θj)の収束値は、対数尤度として算出される評価値l(θj)について、現評価時点までの一連のEMアルゴリズムの繰り返し演算の中で最も高い評価を得た対数尤度から現評価時点の対数尤度を差し引いた差分として算出される。 Here, the predetermined convergence condition, for example, the convergence value of the evaluation values l (θ j) is within the predetermined threshold, or evaluation values l (θ j) is the be within a predetermined threshold. Further, the convergence value of the evaluation value l (theta j) is obtained for evaluation value l calculated as a log-likelihood (theta j), the highest evaluation among repetitive operations of a series of EM algorithm to the current time of evaluation It is calculated as a difference obtained by subtracting the log likelihood at the current evaluation time from the log likelihood.

以上の主要要素分類処理によって、主要要素分類部7bは、最適なGMDパラメータθと、a空間における確率分布を最も近似する分布関数p(a,b:θ)とを求めることができる。分布関数p(a,b:θ)のうちの画素群ごとの分布関数pj(a,b:θj)は、式(15)における右辺の分子に相当するものであって、次式(17)によって示される。

Figure 2009014354
Through the above main element classification processing, the main element classification unit 7b obtains the optimal GMD parameter θ and the distribution function p (a * , b * : θ) that most closely approximates the probability distribution in the a * b * space. Can do. Distribution function p (a *, b *: θ) distribution function p j for each pixel group of the (a *, b *: θ j) is, which corresponds to a molecule of the right side of equation (15) Is represented by the following equation (17).
Figure 2009014354

画素群ごとの分布関数pj(a,b:θj)は、例えば図12に示すように求められる。図12に示す分布関数pj(a,b:θj)は、図11に示したXII−XII断面における分布関数pj(a,b:θj)に相当する。このようにして求められた画素群ごとの分布関数pj(a,b:θj)によって、教師画像上の各画素が分類されるとともに各主要要素が分類される。ここで算出された分布関数pj(a,b:θj)は、教師画像上の画素位置vにおけるa値と、a空間における確率分布とに対応付けて記憶部6に記憶される。 The distribution function p j (a * , b * : θ j ) for each pixel group is obtained, for example, as shown in FIG. Figure 12 shows the distribution function p j (a *, b * : θ j) is, XII-XII distribution function in the section p j (a *, b * : θ j) of FIG. 11 corresponds to. Each pixel on the teacher image and each main element are classified by the distribution function p j (a * , b * : θ j ) obtained for each pixel group in this way. The distribution function p j (a * , b * : θ j ) calculated here is stored in association with the a * b * value at the pixel position v on the teacher image and the probability distribution in the a * b * space. Stored in the unit 6.

つぎに、ステップS113による代表点の抽出条件の設定処理について説明する。このステップS113では、代表点抽出部7cは、ステップS112によって分類された画素群ごとに代表画素を抽出するための抽出条件として、画素群ごとの代表画素の抽出範囲と、その抽出範囲内の抽出個数とを設定する。具体的には、代表点抽出部7cは、ステップS112によって算出したGMDパラメータと分布関数p(a,b:θ)とを用い、代表点の抽出範囲として分類特徴量範囲C(a,b)を算出する。そして、ステップS112によって分類された画素群ごと、つまり主要要素ごとの分類特徴量範囲Cj(a,b)を、画素群ごとの分布関数pj(a,b:θj)における平均μを中心位置、この中心位置からの広がりを分散σ2とする等高線の内側の範囲とする。これによって、画素群ごとの分類特徴量範囲Cj(a,b)は、例えば図11に示すように求められる。ここで算出された分類特徴量範囲C(a,b)は、分布関数p(a,b:θ)に対応付けて記憶部6に記憶される。 Next, processing for setting representative point extraction conditions in step S113 will be described. In step S113, the representative point extraction unit 7c extracts the representative pixel extraction range for each pixel group and the extraction within the extraction range as the extraction condition for extracting the representative pixel for each pixel group classified in step S112. Set the number. Specifically, the representative point extraction unit 7c uses the GMD parameter calculated in step S112 and the distribution function p (a * , b * : θ), and uses the classification feature amount range C (a * ) as the representative point extraction range . , B * ). Then, the classification feature amount range C j (a * , b * ) for each pixel group classified in step S112, that is, for each main element, is used as the distribution function p j (a * , b * : θ j ) for each pixel group. The average μ at is the center position, and the spread from this center position is the range inside the contour line with the variance σ 2 . Thereby, the classification feature amount range C j (a * , b * ) for each pixel group is obtained as shown in FIG. 11, for example. The classification feature amount range C (a * , b * ) calculated here is stored in the storage unit 6 in association with the distribution function p (a * , b * : θ).

また、代表点抽出部7cは、分類特徴量範囲C(a,b)から代表画素を抽出する抽出方法として、例えばランダム抽出を設定する。ランダム抽出では、分類特徴量範囲C(a,b)におけるa値およびb値の複数の組み合わせがランダムに決定され、決定されたa値およびb値の複数の組み合わせによって示される各画素が代表画素として抽出される。また、a値およびb値の1つの組み合わせに対して複数の画素が対応付けられている場合には、その複数の画素の中からもランダムに抽出が行われる。代表画素の抽出は、各画素群の分類特徴量範囲Cj(a,b)において、その範囲ごとに設定された抽出個数mjまで繰り返し行われる。ただし、一度代表画素として抽出された画素は、それ以降、その一連の抽出処理における選択対象から除外される。 Further, the representative point extraction unit 7c sets, for example, random extraction as an extraction method for extracting representative pixels from the classified feature amount range C (a * , b * ). In random extraction, a plurality of combinations of a * values and b * values in the classification feature amount range C (a * , b * ) are randomly determined, and are indicated by the determined combinations of a * values and b * values. Each pixel is extracted as a representative pixel. Further, when a plurality of pixels are associated with one combination of the a * value and the b * value, extraction is also performed at random from the plurality of pixels. The extraction of the representative pixels is repeatedly performed up to the extraction number m j set for each range in the classification feature amount range C j (a * , b * ) of each pixel group. However, the pixels once extracted as the representative pixels are excluded from the selection targets in the series of extraction processes thereafter.

本実施の形態では、標本が病理標本であることを鑑みて、代表点抽出部7cは、抽出範囲内の抽出個数つまり主要要素ごとの抽出個数mjを、代表画素の総抽出個数Mを主要要素の種類数qで除算した数M/qとする。また、代表点抽出部7cは、複数の主要要素における特定の主要要素の推定精度を向上させる場合、重み係数αを用いて抽出個数の重み付けをすることができる。具体的には、画素群ごとつまり主要要素ごとの重み係数αjと総抽出個数Mとの積αjMによって抽出個数mjを定め、推定精度を向上させたい主要要素の重み係数αjを他の主要要素の重み係数αjに比して大きい値とする。ただし、重み係数αjは、次式(18)を満足する。

Figure 2009014354
In the present embodiment, considering that the specimen is a pathological specimen, the representative point extraction unit 7c mainly uses the number of extractions within the extraction range, that is, the number of extractions m j for each main element, and the total number of representative pixels M as the extraction number. The number M / q is divided by the number of element types q. Also, the representative point extraction unit 7c can weight the number of extractions using the weighting coefficient α when improving the estimation accuracy of a specific main element among a plurality of main elements. Specifically, the extraction number m j is determined by the product α j M of the weight coefficient α j for each pixel group, that is, for each main element and the total extraction number M, and the weight coefficient α j for the main element whose estimation accuracy is to be improved is determined. The value is larger than the weight coefficient α j of other main elements. However, the weight coefficient α j satisfies the following expression (18).
Figure 2009014354

また、代表点抽出部7cは、分類特徴量範囲C(a,b)から代表画素を抽出する抽出方法として、ランダム抽出以外にも確率依存型抽出あるいは測定値依存型抽出を用いることができる。ここで、確率依存型抽出とは、ステップS112によって算出された分布関数p(a,b:θ)をもとに重み付けを行って代表画素を抽出する方法である。つまり、分布関数p(a,b:θ)の確率をもとに、分類特徴量範囲C(a,b)における代表画素のa値およびb値を決定する。確率依存型抽出は、主要要素内の特徴量の分布に依存した代表点の抽出を行いたい場合に用いることができ、例えば、病理標本中の各主要要素に対応する教師画像上の平均的なRGB値を持つ画素を代表画素として優先的に抽出したい場合に用いることができる。 The representative point extraction unit 7c may use probability-dependent extraction or measurement value-dependent extraction in addition to random extraction as an extraction method for extracting representative pixels from the classification feature amount range C (a * , b * ). it can. Here, probability-dependent extraction is a method of extracting representative pixels by weighting based on the distribution function p (a * , b * : θ) calculated in step S112. That is, based on the probability of the distribution function p (a * , b * : θ), the a * value and b * value of the representative pixel in the classification feature amount range C (a * , b * ) are determined. Probability-dependent extraction can be used to extract representative points that depend on the distribution of feature quantities in the main elements. For example, the average of the teacher image corresponding to each main element in the pathological sample can be used. This can be used when it is desired to preferentially extract pixels having RGB values as representative pixels.

一方、測定値依存型抽出は、主要要素内の特徴量に依存した代表点の抽出を行いたい場合に用いることができ、例えば、病理標本中の主要要素に対応する教師画像上の画素のうち、次式(19)によって示されるa空間上の原点からのユークリッド距離Lyが大きい画素を代表画素として優先的に抽出したい場合、もしくはその逆の場合に用いることができる。

Figure 2009014354
On the other hand, the measurement value-dependent extraction can be used when extracting representative points depending on the feature amount in the main element. For example, among the pixels on the teacher image corresponding to the main element in the pathological specimen, This can be used when a pixel having a large Euclidean distance L y from the origin in the a * b * space represented by the following equation (19) is to be extracted preferentially as a representative pixel, or vice versa.
Figure 2009014354

このとき、代表画素の抽出測定強度範囲を限定し、測定値強度範囲を抽出条件に付加する。測定値強度範囲は、分類特徴量範囲Cj(a,b)における最大のユークリッド距離Lyを100%として分類特徴量範囲Cj(a,b)の対強度比率で表せばよい。例えば、主要要素の分類特徴量範囲Cj(a,b)のうち、a空間上の原点からのユークリッド距離Lyが最小の場合は0%となり、測定値強度を0%から30%の範囲で代表画素を抽出したい場合には、測定値強度範囲を0%〜30%の範囲に指定すればよい。ここで、強度とはa空間におけるa値およびb値に相当し、強度範囲とはa値およびb値の範囲に相当する。 At this time, the extraction measurement intensity range of the representative pixel is limited, and the measurement value intensity range is added to the extraction condition. Measurement intensity range is classified feature value range C j (a *, b * ) maximum Euclidean distance L y classified feature amount range as 100% C j (a *, b *) in the Expressed against intensity ratio of Good. For example, the classification feature quantity range C j of the key elements (a *, b *) of, a * b * If the Euclidean distance L y from the origin of the space is the minimum 0%, the measurement intensity 0% If it is desired to extract representative pixels in the range of 30% to 30%, the measured value intensity range may be specified in the range of 0% to 30%. Here, the intensity corresponds to the a * value and b * value in the a * b * space, and the intensity range corresponds to the range of the a * value and the b * value.

なお、代表画素の抽出範囲および抽出個数は、以降の代表点の最適化処理によって最適解が導出されるため、このステップS113によって設定する初期値に制限はない。しかしながら、本実施の形態では、標本が病理標本であることを鑑みて、各主要要素に対する抽出個数mjは、総抽出個数Mを主要要素の種類数q=4で除算した数M/4とすることで最適解の収束性が向上する。同様の目的から分類特徴量範囲Cj(a,b)は、各分布関数pj(a,b:θj)の確率分布に対して相当の割合、例えば90%となる範囲を算出する平均μおよび分散σ2を初期値にするとよい。 It should be noted that the extraction range and the number of extractions of representative pixels are not limited to the initial values set in step S113 because an optimal solution is derived by the subsequent representative point optimization process. However, in the present embodiment, considering that the specimen is a pathological specimen, the number of extracted m j for each main element is a number M / 4 obtained by dividing the total number of extracted M by the number of main element types q = 4. This improves the convergence of the optimal solution. For the same purpose, the classification feature amount range C j (a * , b * ) is a range in which the distribution function p j (a * , b * : θ j ) is a substantial proportion, for example, 90%. It is preferable that the average μ and the variance σ 2 for calculating are set to initial values.

つぎに、ステップS116〜S120による代表点の最適化処理について説明する。まずステップS116では、代表点最適化部7eは、システム行列Hを次式(20)によって算出し、この算出したシステム行列Hをもとにウィナー推定処理行列としての推定オペレータWを次式(21)によって算出する。なお、式(20)および式(21)に用いる行列F,S,E,RSS,RNNは、式(3)に用いた各行列に対応する。
H=(FSE) ・・・(20)
W=RSSH(HRSS+RNN−1 ・・・(21)
Next, representative point optimization processing in steps S116 to S120 will be described. First, in step S116, the representative point optimization unit 7e calculates a system matrix H by the following equation (20), and based on the calculated system matrix H, an estimation operator W as a winner estimation processing matrix is expressed by the following equation (21). ). Note that the matrices F, S, E, R SS , and R NN used in Expression (20) and Expression (21) correspond to the respective matrices used in Expression (3).
H = (FSE) t (20)
W = R SS H (HR SS H t + R NN) -1 ··· (21)

ここで、式(3)は、テスト画像上の画素位置vに対し、式(21)を用いて次式(22)のように書き直すことができる。ステップS117では、代表点最適化部7eは、テスト画像における複数の画素に対してそれぞれ次式(22)を用いて行列T^(v)を算出し、これによって基準標本のテスト領域における分光透過率を推定する。
T^(v)=WG(v) ・・・(22)
Here, the expression (3) can be rewritten as the following expression (22) using the expression (21) with respect to the pixel position v on the test image. In step S117, the representative point optimization unit 7e calculates a matrix T ^ (v) for each of the plurality of pixels in the test image using the following equation (22), and thereby spectral transmission in the test region of the reference sample. Estimate the rate.
T ^ (v) = WG (v) (22)

その後、ステップS118では、代表点最適化部7eは、ステップS117によって算出した行列T^(v)と、ステップS102によってテストデータとして取得した基準分光透過率t^(v)とをもとに、次式(23)によって分光透過率誤差ΔEを算出する。分光透過率誤差ΔEは、式(23)に示すように、個数Nの画素における推定分光透過率と基準分光透過率との差分の平均値として求められる。

Figure 2009014354
Thereafter, in step S118, the representative point optimization unit 7e, based on the matrix T ^ (v) calculated in step S117 and the reference spectral transmittance t ^ (v) acquired as test data in step S102, Spectral transmittance error ΔE is calculated by the following equation (23). The spectral transmittance error ΔE is obtained as an average value of the difference between the estimated spectral transmittance and the reference spectral transmittance in the number N of pixels, as shown in Expression (23).
Figure 2009014354

ステップS119では、代表点最適化部7eは、ステップS118によって算出した分光透過率誤差ΔEを自己相関行列の評価値として用い、分光透過率誤差ΔEが所定の判定条件を満足するか否かによって、ステップS114で抽出された代表画素つまり代表点の更新要否を判定する。   In step S119, the representative point optimization unit 7e uses the spectral transmittance error ΔE calculated in step S118 as an evaluation value of the autocorrelation matrix, and determines whether or not the spectral transmittance error ΔE satisfies a predetermined determination condition. It is determined whether or not it is necessary to update the representative pixel extracted in step S114, that is, the representative point.

ここで、所定の判定条件とは、分光透過率誤差ΔEが所定の閾値内であること、もしくはステップS114〜S120の処理を繰り返すことによって分光透過率誤差ΔEが収束していることとされる。分光透過率誤差ΔEの収束条件としては、例えばステップS114〜S120を複数回繰り返した際の分光透過率誤差ΔEの最大値と最小値との差分が所定の閾値内であることとされる。   Here, the predetermined determination condition is that the spectral transmittance error ΔE is within a predetermined threshold or that the spectral transmittance error ΔE is converged by repeating the processes of steps S114 to S120. As a convergence condition of the spectral transmittance error ΔE, for example, the difference between the maximum value and the minimum value of the spectral transmittance error ΔE when Steps S114 to S120 are repeated a plurality of times is within a predetermined threshold.

ステップS120では、代表点最適化部7eは、例えば代表画素の抽出範囲と、抽出範囲内の抽出個数との少なくとも一方を変更することで抽出条件の更新を行う。抽出範囲の更新では、代表点最適化部7eは、分類特徴量範囲C(a,b)を定める分散σ2を変更することで分類特徴量範囲C(a,b)を更新する。また、代表点最適化部7eは、抽出範囲および抽出個数をそれぞれ変化させた方向を更新方向として記憶部6に随時記憶させ、この記憶させた更新方向を次回の更新に反映させる。例えば、一回目の更新方向に対して分光透過率誤差ΔEの値が減小した場合、つぎの更新時には抽出範囲および抽出個数を同じ更新方向へ変化させる。更新方向は、具体的には、抽出確率幅としての分散σ2の増減方向と、総抽出個数Mもしくは主要要素ごとの抽出個数mjの増減方向とに相当する。 In step S120, the representative point optimization unit 7e updates the extraction condition by changing, for example, at least one of the extraction range of the representative pixels and the number of extractions in the extraction range. In updating the extraction range, the representative point optimization unit 7e updates the classification feature amount range C (a * , b * ) by changing the variance σ 2 that defines the classification feature amount range C (a * , b * ). To do. In addition, the representative point optimization unit 7e stores the direction in which the extraction range and the number of extractions are changed as the update direction in the storage unit 6 as needed, and reflects the stored update direction in the next update. For example, when the value of the spectral transmittance error ΔE decreases with respect to the first update direction, the extraction range and the number of extractions are changed in the same update direction at the next update. Specifically, the update direction corresponds to the increase / decrease direction of the variance σ 2 as the extraction probability width and the increase / decrease direction of the total extraction number M or the extraction number m j for each main element.

なお、制御部8は、ステップS120において代表点最適化部7eに抽出条件を更新させずに、ステップS114からの処理を繰り返させることもできる。この場合、抽出条件をそのままにして抽出範囲内から代表画素をランダムに抽出し直すこととなる。これによって、抽出条件を更新することなく代表画素つまり代表点の組み合わせを変更することができる。また、代表点最適化部7eは、ステップS120によって代表画素の抽出方法をランダム抽出から確率依存型抽出方法もしくは測定値依存型抽出へ変更し、これによって代表点の組み合わせを変更することもできる。   In addition, the control part 8 can also repeat the process from step S114, without making the representative point optimization part 7e update extraction conditions in step S120. In this case, the representative pixels are randomly extracted from the extraction range while leaving the extraction conditions as they are. As a result, the combination of representative pixels, that is, representative points can be changed without updating the extraction conditions. In addition, the representative point optimization unit 7e can change the representative pixel extraction method from random extraction to probability-dependent extraction method or measurement value-dependent extraction in step S120, thereby changing the combination of representative points.

以上説明したように、本実施の形態にかかる画像処理装置1は、1以上の主要要素を含む標本10を撮像した観察画像の画像データをもとに、この1以上の主要要素を含む基準標本上の複数の標本点における基準分光特性の統計量を用いて標本10の分光特性を推定する画像処理装置であり、基準標本が記録された画像であって画素ごとに基準標本上の対応する標本点における基準分光特性が対応付けられた教師画像の各画素を、少なくとも主要要素を特徴付ける主要特徴量に基づいて分類する主要要素分類部7bと、主要要素分類部7bが分類した画素群の中から複数の代表画素を抽出する代表点抽出部7cと、代表点抽出部7cが抽出した複数の代表画素に対応付けられた基準分光特性をもとに、標本10の分光特性の推定に用いる基準分光特性の統計量を算出する統計量算出部7dと、を備えている。   As described above, the image processing apparatus 1 according to the present embodiment is based on the image data of the observation image obtained by imaging the specimen 10 including one or more main elements, and the reference sample including the one or more main elements. An image processing apparatus that estimates the spectral characteristics of the sample 10 using the statistics of the reference spectral characteristics at a plurality of upper sample points, and is an image in which the reference sample is recorded and corresponding samples on the reference sample for each pixel A main element classifying unit 7b that classifies each pixel of the teacher image associated with the reference spectral characteristic at the point based on at least a main feature amount that characterizes the main element, and a pixel group classified by the main element classifying unit 7b A representative point extraction unit 7c that extracts a plurality of representative pixels, and a reference that is used to estimate the spectral characteristics of the sample 10 based on the reference spectral characteristics associated with the plurality of representative pixels extracted by the representative point extraction unit 7c. And it includes a statistic calculation unit 7d for calculating a statistical amount of the optical characteristics, the.

このため、画像処理装置1では、基準標本中の各主要要素から均等もしくは所望の割合で複数の代表点を抽出することができ、この複数の代表点における基準分光特性をもとに、標本10の分光特性の推定に用いる基準分光特性の統計量を算出することができるとともに分光特性の推定に用いる処理行列としてのウィナー推定処理行列を算出することができる。これによって、画像処理装置1では、標本10上の各標本点における分光特性を、意図しないばらつきを生じさせることなく高精度に推定することができる。   Therefore, in the image processing apparatus 1, a plurality of representative points can be extracted from each main element in the reference sample at equal or desired ratios, and the sample 10 is based on the reference spectral characteristics at the plurality of representative points. The statistic of the reference spectral characteristic used for estimating the spectral characteristic of the present invention can be calculated, and the winner estimation processing matrix as the processing matrix used for estimating the spectral characteristic can be calculated. As a result, the image processing apparatus 1 can estimate the spectral characteristics at each sample point on the sample 10 with high accuracy without causing unintended variations.

また、画像処理装置1は、統計量算出部7dが算出した統計量をもとに代表画素の更新要否を判断し、更新が必要であると判定した場合、代表画素を抽出するための抽出条件を更新する代表点最適化部7eを備え、代表点抽出部7cは、代表点最適化部7eが更新した抽出条件に基づいて複数の代表画素を再抽出し、統計量算出部7dは、代表点抽出部7cが再抽出した複数の代表画素に対応付けられた基準分光特性をもとに統計量を算出する。このため、画像処理装置1では、1以上の主要要素を含む標本10の分光特性の推定に対して最適な代表点を基準標本から抽出することができるとともに、この抽出した代表点における基準分光特性をもとに最適な統計量およびウィナー推定処理行列を算出することができる。これによって、画像処理装置1では、従来技術に比して標本10の分光特性の推定精度を向上させることができる。   Further, the image processing apparatus 1 determines whether or not the representative pixel needs to be updated based on the statistic calculated by the statistic calculation unit 7d. If the image processing apparatus 1 determines that the update is necessary, extraction for extracting the representative pixel The representative point optimizing unit 7e for updating the condition is provided, the representative point extracting unit 7c re-extracts a plurality of representative pixels based on the extraction condition updated by the representative point optimizing unit 7e, and the statistic calculating unit 7d The statistic is calculated based on the reference spectral characteristics associated with the plurality of representative pixels re-extracted by the representative point extraction unit 7c. For this reason, the image processing apparatus 1 can extract the optimum representative point from the reference sample for the estimation of the spectral characteristic of the sample 10 including one or more main elements, and the reference spectral characteristic at the extracted representative point. Based on the above, an optimal statistic and a winner estimation processing matrix can be calculated. Thereby, in the image processing apparatus 1, it is possible to improve the estimation accuracy of the spectral characteristics of the specimen 10 as compared with the conventional technique.

なお、画像処理装置1では、以上のようにして推定した標本10の推定分光特性をもとに、標本10に含まれた複数の色素の色素量を推定しているため、高精度に各色素量を推定することもできる。   Since the image processing apparatus 1 estimates the dye amounts of a plurality of dyes included in the sample 10 based on the estimated spectral characteristics of the sample 10 estimated as described above, each dye is accurately detected. The amount can also be estimated.

ここまで、本発明を実施する最良の形態を実施の形態として説明したが、本発明は、上述した実施の形態に限定されず、本発明の趣旨を逸脱しない範囲であれば、種々の変形が可能である。   So far, the best mode for carrying out the present invention has been described as an embodiment. However, the present invention is not limited to the above-described embodiment, and various modifications may be made without departing from the spirit of the present invention. Is possible.

例えば、上述した実施の形態では、主要要素分類部7bは、標本10中の主要要素を特徴付ける主要特徴量として主要要素を特徴付ける色を示すa値をもとに基準標本画像上の各画素を分類するものとしたが、a値に限定されず、RGB値もしくはXYZ値等、他の表色系によって示される値を用いて基準標本画像上の各画素を分類することもできる。ここで、XYZ値は、XYZ表色系における三刺激値を意味する。さらに、主要特徴量として色情報に限定されず、濃淡情報、形状情報、テクスチャ情報等を用いることができる。 For example, in the above-described embodiment, the main element classification unit 7b uses the a * b * value indicating the color that characterizes the main element as the main feature amount that characterizes the main element in the sample 10 to each of the reference sample images. The pixels are classified. However, the pixels are not limited to a * b * values, and each pixel on the reference sample image may be classified using a value indicated by another color system such as an RGB value or an XYZ value. it can. Here, the XYZ value means a tristimulus value in the XYZ color system. Furthermore, the main feature amount is not limited to color information, and shading information, shape information, texture information, and the like can be used.

ただし、形状情報やテクスチャ情報は、単一の画素では特徴量を示すことができないため、基準標本画像の領域分割、例えばブロック分割等の処理が必要となる。また、病理標本を推定対象とする場合、テクスチャを用いた特徴量としてエントロピーを用いてもよい。ここで、主要要素分類処理が各主要要素に対応する画素の分類であることを鑑みると、単一の画素を単位にして分類することにこだわる必要はなく、複数の画素からなる画素群を単位として分類を行っても構わない。   However, since shape information and texture information cannot indicate a feature amount with a single pixel, processing such as region division of the reference sample image, for example, block division, is required. Further, when a pathological specimen is an estimation target, entropy may be used as a feature amount using a texture. Here, considering that the main element classification processing is the classification of pixels corresponding to each main element, it is not necessary to stick to classifying a single pixel as a unit, and a pixel group consisting of a plurality of pixels is a unit. Classification may be performed as follows.

なお、a値以外の特徴量を用いる場合にも、上述のように教師画像上の各画素をa空間に写像して分類を行った場合と同様に、各特徴量を示す特徴空間へ教師画像上の各画素を写像して分類を行うことで、それ以降の処理を、上述した実施の形態と同様の処理によって行うことができる。 Note that when using feature values other than the a * b * values, as described above, each feature value is assigned to each pixel on the teacher image in the a * b * space. By mapping and classifying each pixel on the teacher image to the feature space shown, the subsequent processing can be performed by the same processing as in the above-described embodiment.

また、画像処理装置1では、上述したステップS112の主要要素分類処理におけるEMアルゴリズムの近似精度を向上させるために、さらにつぎのような処理を行うことができる。すなわち、まず基準分光特性取得部3は、ステップS102の基準分光特性取得処理によって、背景領域の分光透過率を背景データとして取得する。そして、基準標本画像生成部7aは、ステップS111によって、背景データに対応する背景画像を、教師画像と同様に生成する。その後、主要要素分類部7bは、ステップS112の主要要素分類処理において、背景画像の各画素をa空間に写像し、この写像した背景画像のa空間上で2次元正規分布の最尤推定法から最も近似する単一正規分布関数のパラメータを算出する。この処理は、上述したEMアルゴリズムを単一正規分布関数として用いることで処理を行うことができる。つぎに、主要要素分類部7bは、算出した単一正規分布関数を用いて背景領域に相当するa値範囲を決定し、教師画像を用いて写像したa空間から背景領域に相当する範囲を除去する。教師データの色空間から事前に背景領域を除去することで、EMアルゴリズムの近似対象を細胞核、細胞質および赤血球の3領域に限定することができる。一般的な病理標本では、細胞質と背景の境界は色空間上で接していることが多く、事前に背景をEMアルゴリズムの処理対象外とすることで、より高精度にその他の領域の分布関数の近似式を得ることができる。 Further, the image processing apparatus 1 can further perform the following processing in order to improve the approximation accuracy of the EM algorithm in the main element classification processing in step S112 described above. That is, first, the reference spectral characteristic acquisition unit 3 acquires the spectral transmittance of the background region as background data by the reference spectral characteristic acquisition process of step S102. Then, in step S111, the reference sample image generation unit 7a generates a background image corresponding to the background data in the same manner as the teacher image. Thereafter, the main element classification unit 7b maps each pixel of the background image to the a * b * space in the main element classification process of step S112, and a two-dimensional normal distribution on the a * b * space of the mapped background image. The parameter of the single normal distribution function that is most approximated from the maximum likelihood estimation method is calculated. This process can be performed by using the EM algorithm described above as a single normal distribution function. Next, the main element classification unit 7b determines the a * b * value range corresponding to the background region using the calculated single normal distribution function, and uses the background image from the a * b * space mapped using the teacher image. The range corresponding to is removed. By removing the background area from the color space of the teacher data in advance, the approximation target of the EM algorithm can be limited to the three areas of cell nucleus, cytoplasm, and red blood cell. In general pathological specimens, the boundary between the cytoplasm and the background often touches in the color space. By excluding the background from the processing target of the EM algorithm in advance, the distribution functions of other regions can be more accurately detected. An approximate expression can be obtained.

また、上述した実施の形態では、画像処理装置1は、推定した分光透過率をもとに色素量を推定するものとして説明したが、色素量の推定に限定されず、推定した分光透過率および/または推定した色素量をもとに、病理診断支援につながる種々の処理を行うようにすることができる。   In the above-described embodiment, the image processing apparatus 1 has been described as estimating the amount of dye based on the estimated spectral transmittance. However, the image processing apparatus 1 is not limited to estimating the amount of dye, and the estimated spectral transmittance and Various processes that lead to pathological diagnosis support can be performed based on the estimated pigment amount.

また、上述した実施の形態では、観察画像取得部2は、観察画像を撮像して取得するものとして説明したが、あらかじめ外部装置によって撮像された観察画像を取得する構成とすることもできる。この場合、観察画像取得部2は、外部装置等から観察画像の画像データを入力可能なデータ通信インターフェースを備えるとよい。   In the above-described embodiment, the observation image acquisition unit 2 has been described as capturing and acquiring an observation image. However, the observation image acquisition unit 2 may acquire an observation image captured in advance by an external device. In this case, the observation image acquisition unit 2 may include a data communication interface that can input image data of the observation image from an external device or the like.

なお、上述した実施の形態では、画像処理装置1は、標本10および基準標本の分光特性として分光透過率を扱うものとして説明したが、分光透過率に限定されず、分光反射率を扱うこともできる。その場合、図2に示した観察画像取得部2および基準分光特性取得部3は、光源12の代わりに、標本10および基準標本に対して落射照明を行う照明機構を備えるとよい。   In the above-described embodiment, the image processing apparatus 1 has been described as handling the spectral transmittance as the spectral characteristics of the specimen 10 and the reference specimen. However, the image processing apparatus 1 is not limited to the spectral transmittance and may handle the spectral reflectance. it can. In this case, the observation image acquisition unit 2 and the reference spectral characteristic acquisition unit 3 illustrated in FIG. 2 may include an illumination mechanism that performs epi-illumination on the sample 10 and the reference sample instead of the light source 12.

本発明の実施の形態にかかる画像処理装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the image processing apparatus concerning embodiment of this invention. 画像処理装置が備える観察画像取得部の要部構成を示す図である。It is a figure which shows the principal part structure of the observation image acquisition part with which an image processing apparatus is provided. 観察画像取得部が備えるカメラのRGBフィルタを示す図である。It is a figure which shows the RGB filter of the camera with which an observation image acquisition part is provided. 観察画像取得部が備えるカメラの分光感度特性を示す図である。It is a figure which shows the spectral sensitivity characteristic of the camera with which an observation image acquisition part is provided. 観察画像取得部が備えるバンドパスフィルタの分光透過率特性を示す図である。It is a figure which shows the spectral transmittance characteristic of the band pass filter with which an observation image acquisition part is provided. 観察画像取得部が備えるバンドパスフィルタの分光透過率特性を示す図である。It is a figure which shows the spectral transmittance characteristic of the band pass filter with which an observation image acquisition part is provided. 画像処理装置が行う画像処理手順の概要を示す図である。It is a figure which shows the outline | summary of the image processing procedure which an image processing apparatus performs. 画像処理装置が行う画像処理手順を示すフローチャートである。It is a flowchart which shows the image processing procedure which an image processing apparatus performs. 観察画像取得部が取得した観察画像を示す図である。It is a figure which shows the observation image which the observation image acquisition part acquired. 統計量算出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a statistic calculation process. 統計量算出処理における主要要素分類処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the main element classification | category process in a statistic calculation process. 主要要素分類処理の処理結果を説明する図である。It is a figure explaining the process result of a main element classification | category process. 主要要素分類処理の処理結果を説明する図である。It is a figure explaining the process result of a main element classification | category process.

符号の説明Explanation of symbols

1 画像処理装置
2 観察画像取得部
3 基準分光特性取得部
4 入力部
5 表示部
6 記憶部
7 画像処理部
7a 基準標本画像生成部
7b 主要要素分類部
7c 代表点抽出部
7d 統計量算出部
7e 代表点最適化部
7f 分光特性推定部
7g 色素量推定部
8 制御部
10 標本
11 ステージ
12 光源
13 結像光学系
14,14a,14b バンドパスフィルタ
15 ターレット
16 カメラ
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Observation image acquisition part 3 Reference | standard spectral characteristic acquisition part 4 Input part 5 Display part 6 Storage part 7 Image processing part 7a Reference | standard sample image generation part 7b Main element classification | category part 7c Representative point extraction part 7d Statistics amount calculation part 7e Representative point optimization unit 7f Spectral characteristic estimation unit 7g Dye amount estimation unit 8 Control unit 10 Sample 11 Stage 12 Light source 13 Imaging optical system 14, 14a, 14b Band pass filter 15 Turret 16 Camera

Claims (13)

1以上の主要要素を含む標本を撮像した観察画像の画像データをもとに、前記1以上の主要要素を含む基準標本上の複数の標本点における基準分光特性の統計量を用いて前記標本の分光特性を推定する画像処理装置において、
前記基準標本が記録された画像であって画素ごとに前記基準標本上の対応する標本点における前記基準分光特性が対応付けられた教師画像の各画素を、少なくとも前記主要要素を特徴付ける主要特徴量に基づいて分類する画素分類手段と、
前記画素分類手段が分類した画素群の中から複数の代表画素を抽出する代表抽出手段と、
複数の前記代表画素に対応付けられた前記基準分光特性をもとに前記統計量を算出する統計量算出手段と、
を備えたことを特徴とする画像処理装置。
Based on image data of an observation image obtained by imaging a sample including one or more main elements, the statistic of the reference spectral characteristic at a plurality of sample points on the reference sample including the one or more main elements is used. In an image processing apparatus that estimates spectral characteristics,
Each pixel of the teacher image that is an image in which the reference sample is recorded and is associated with the reference spectral characteristic at the corresponding sample point on the reference sample for each pixel is used as a main feature amount that characterizes at least the main element. Pixel classification means for classifying based on;
Representative extraction means for extracting a plurality of representative pixels from the pixel group classified by the pixel classification means;
Statistic calculation means for calculating the statistic based on the reference spectral characteristics associated with a plurality of the representative pixels;
An image processing apparatus comprising:
前記統計量算出手段が算出した前記統計量をもとに前記代表画素の更新要否を判断し、更新が必要であると判定した場合、前記代表画素を抽出するための抽出条件を更新する代表最適化手段を備え、
前記代表抽出手段は、前記代表最適化手段が更新した前記抽出条件に基づいて複数の前記代表画素を再抽出し、
前記統計量算出手段は、前記代表抽出手段が再抽出した複数の前記代表画素に対応付けられた前記基準分光特性をもとに前記統計量を算出することを特徴とする請求項1に記載の画像処理装置。
A representative that determines whether or not the representative pixel needs to be updated based on the statistics calculated by the statistic calculator, and updates the extraction condition for extracting the representative pixel when it is determined that the update is necessary. With optimization means,
The representative extraction means re-extracts the representative pixels based on the extraction conditions updated by the representative optimization means,
The said statistic calculation means calculates the said statistic based on the said reference | standard spectral characteristic matched with the said some representative pixel re-extracted by the said representative extraction means. Image processing device.
前記代表最適化手段は、前記基準標本の領域のうち前記教師画像に記録されていないテスト領域が記録された画像であって画素ごとに該テスト領域上の対応する標本点における前記基準分光特性が対応付けられたテスト画像の画像データをもとに、前記統計量算出手段が算出した前記統計量を用いて前記テスト領域の分光特性を推定するとともに、この推定した分光特性と前記テスト領域の前記基準分光特性とを比較し、この比較結果に基づいて前記代表画素の更新要否を判断することを特徴とする請求項2に記載の画像処理装置。   The representative optimization unit is an image in which a test area not recorded in the teacher image is recorded in the reference sample area, and the reference spectral characteristic at a corresponding sample point on the test area for each pixel. Based on the image data of the associated test image, the spectral characteristic of the test area is estimated using the statistical quantity calculated by the statistical quantity calculation means, and the estimated spectral characteristic and the test area of the test area The image processing apparatus according to claim 2, wherein a reference spectral characteristic is compared, and whether or not the representative pixel needs to be updated is determined based on the comparison result. 前記代表抽出手段は、前記画素分類手段の分類結果をもとに前記画素群における前記代表画素の抽出範囲と該抽出範囲内の抽出個数との少なくとも一方を前記代表画素を抽出するための抽出条件として設定することを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。   The representative extraction means is an extraction condition for extracting the representative pixel from at least one of the extraction range of the representative pixel and the number of extractions in the extraction range based on the classification result of the pixel classification means. The image processing apparatus according to claim 1, wherein the image processing apparatus is set as follows. 前記代表抽出手段は、前記分類結果をもとに前記画素群における前記代表画素の抽出範囲と該抽出範囲内の抽出個数との少なくとも一方を前記代表画素を抽出するための抽出条件として設定し、
前記代表最適化手段は、前記代表画素の更新が必要であると判定した場合、前記分類結果をもとに前記抽出範囲と該抽出範囲内の抽出個数との少なくとも一方を更新することを特徴とする請求項2または3に記載の画像処理装置。
The representative extraction means sets at least one of the extraction range of the representative pixel in the pixel group and the number of extractions within the extraction range based on the classification result as an extraction condition for extracting the representative pixel,
The representative optimization means, when it is determined that the representative pixel needs to be updated, updates at least one of the extraction range and the number of extractions in the extraction range based on the classification result, The image processing apparatus according to claim 2 or 3.
前記画素分類手段は、前記主要特徴量をもとに前記教師画像の各画素を特徴空間に写像し、該特徴空間に写像された各画素の分布に基づいて前記教師画像の各画素を分類することを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。   The pixel classification unit maps each pixel of the teacher image to a feature space based on the main feature amount, and classifies each pixel of the teacher image based on a distribution of each pixel mapped to the feature space. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記主要特徴量は、色情報、濃淡情報およびテクスチャ情報の少なくとも1つであることを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the main feature amount is at least one of color information, shading information, and texture information. 前記代表抽出手段は、前記特徴空間に写像された各画素の分布に基づいて、前記画素群における前記代表画素の抽出範囲と該抽出範囲内の抽出個数との少なくとも一方を、前記代表画素を抽出するための抽出条件として設定することを特徴とする請求項6または7に記載の画像処理装置。   The representative extraction means extracts the representative pixel from at least one of the extraction range of the representative pixel in the pixel group and the number of extractions in the extraction range based on the distribution of each pixel mapped to the feature space. The image processing apparatus according to claim 6, wherein the image processing apparatus is set as an extraction condition for performing the operation. 前記代表抽出手段は、前記特徴空間に写像された各画素の分布と前記主要特徴量とに基づいて、前記画素群における前記代表画素の抽出範囲と該抽出範囲内の抽出個数との少なくとも一方を、前記代表画素を抽出するための抽出条件として設定することを特徴とする請求項6または7に記載の画像処理装置。   The representative extraction means calculates at least one of the extraction range of the representative pixel in the pixel group and the number of extractions in the extraction range based on the distribution of each pixel mapped to the feature space and the main feature amount. The image processing device according to claim 6, wherein the image processing device is set as an extraction condition for extracting the representative pixel. 前記代表抽出手段は、前記代表画素を抽出するための抽出条件に基づいて前記画素群の中から複数の前記代表画素をランダムに抽出することを特徴とする請求項1〜9のいずれか一つに記載の画像処理装置。   The representative extraction unit randomly extracts a plurality of the representative pixels from the pixel group based on an extraction condition for extracting the representative pixels. An image processing apparatus according to 1. 前記画素分類手段は、前記特徴空間に写像された各画素の分布確率を算出し、
前記代表抽出手段は、前記代表画素を抽出するための抽出条件と前記分布確率とに基づいて、前記画素群の中から複数の前記代表画素を抽出することを特徴とする請求項6〜9のいずれか一つに記載の画像処理装置。
The pixel classification means calculates a distribution probability of each pixel mapped to the feature space;
10. The representative extraction unit extracts a plurality of the representative pixels from the pixel group based on an extraction condition for extracting the representative pixels and the distribution probability. The image processing apparatus according to any one of the above.
前記分光特性および前記基準分光特性は、分光透過率特性または分光反射率特性であることを特徴とする請求項1〜11のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the spectral characteristic and the reference spectral characteristic are a spectral transmittance characteristic or a spectral reflectance characteristic. 1以上の主要要素を含む標本を撮像した観察画像の画像データをもとに、前記1以上の主要要素を含む基準標本上の複数の標本点における基準分光特性の統計量を用いて前記標本の分光特性を推定する画像処理装置に、
前記基準標本が記録された画像であって画素ごとに前記基準標本上の対応する標本点における前記基準分光特性が対応付けられた教師画像の各画素を、少なくとも前記主要要素を特徴付ける主要特徴量に基づいて分類する画素分類手順と、
前記画素分類手順によって分類された画素群の中から複数の代表画素を抽出する代表抽出手順と、
複数の前記代表画素に対応付けられた前記基準分光特性をもとに前記統計量を算出する統計量算出手順と、
を実行させることを特徴とする画像処理プログラム。
Based on image data of an observation image obtained by imaging a sample including one or more main elements, the statistic of the reference spectral characteristic at a plurality of sample points on the reference sample including the one or more main elements is used. In an image processing device that estimates spectral characteristics,
Each pixel of the teacher image that is an image in which the reference sample is recorded and is associated with the reference spectral characteristic at the corresponding sample point on the reference sample for each pixel is used as a main feature amount that characterizes at least the main element. Pixel classification procedure to classify based on;
A representative extraction procedure for extracting a plurality of representative pixels from the pixel group classified by the pixel classification procedure;
A statistic calculation procedure for calculating the statistic based on the reference spectral characteristics associated with a plurality of the representative pixels;
An image processing program for executing
JP2007173245A 2007-06-29 2007-06-29 Image processor and image processing program Withdrawn JP2009014354A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007173245A JP2009014354A (en) 2007-06-29 2007-06-29 Image processor and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007173245A JP2009014354A (en) 2007-06-29 2007-06-29 Image processor and image processing program

Publications (1)

Publication Number Publication Date
JP2009014354A true JP2009014354A (en) 2009-01-22

Family

ID=40355455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007173245A Withdrawn JP2009014354A (en) 2007-06-29 2007-06-29 Image processor and image processing program

Country Status (1)

Country Link
JP (1) JP2009014354A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011099823A (en) * 2009-11-09 2011-05-19 Olympus Corp Virtual microscope system
JP2012078156A (en) * 2010-09-30 2012-04-19 Olympus Corp Inspection device
JP2014055793A (en) * 2012-09-11 2014-03-27 Tokai Kogaku Kk Class determination method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011099823A (en) * 2009-11-09 2011-05-19 Olympus Corp Virtual microscope system
US8780191B2 (en) 2009-11-09 2014-07-15 Olympus Corporation Virtual microscope system
JP2012078156A (en) * 2010-09-30 2012-04-19 Olympus Corp Inspection device
US8836779B2 (en) 2010-09-30 2014-09-16 Olympus Corporation Inspection device
JP2014055793A (en) * 2012-09-11 2014-03-27 Tokai Kogaku Kk Class determination method

Similar Documents

Publication Publication Date Title
EP1470411B1 (en) Method for quantitative video-microscopy and associated system and computer software program product
AU2014230469B2 (en) Spectral unmixing
EP3053138B1 (en) Systems and methods for adaptive histopathology image unmixing
JP5508792B2 (en) Image processing method, image processing apparatus, and image processing program
US8977017B2 (en) System and method for support of medical diagnosis
JP2010169467A (en) Image processing apparatus, data set forming device, image processing program, and data set forming program
JP5154844B2 (en) Image processing apparatus and image processing program
JP5305618B2 (en) Image processing apparatus and image processing program
JP5117274B2 (en) Image processing apparatus and image processing program
US9406118B2 (en) Stain image color correcting apparatus, method, and system
JP5178226B2 (en) Image processing apparatus and image processing program
JP4740068B2 (en) Image processing apparatus, image processing method, and image processing program
JP5137481B2 (en) Image processing apparatus, image processing program, and image processing method
JP4920507B2 (en) Image processing apparatus and image processing program
CN113570538A (en) Blade RGB image skewed distribution parameter information acquisition and analysis method
CN113610965A (en) Visualization method of three-dimensional spatial distribution of plant chlorophyll content based on point cloud
JP2009014354A (en) Image processor and image processing program
JP5210571B2 (en) Image processing apparatus, image processing program, and image processing method
JP2008304205A (en) Spectral characteristics estimation apparatus and spectral characteristics estimation program
US11037294B2 (en) Image processing device, image processing method, and computer-readable recording medium
JP2018169390A (en) Chromosome abnormality determination device
JP2010169592A (en) Image processing device and program
US9122904B2 (en) Method for optimization of quantitative video-microscopy and associated system
WO2020037255A1 (en) Automatic identification and analysis of a tissue sample
JP2009025147A (en) Device and program for image processing

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100907