JP2007048006A - Image processor and image processing program - Google Patents
Image processor and image processing program Download PDFInfo
- Publication number
- JP2007048006A JP2007048006A JP2005231326A JP2005231326A JP2007048006A JP 2007048006 A JP2007048006 A JP 2007048006A JP 2005231326 A JP2005231326 A JP 2005231326A JP 2005231326 A JP2005231326 A JP 2005231326A JP 2007048006 A JP2007048006 A JP 2007048006A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- image
- area
- edge
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 claims abstract description 188
- 238000000034 method Methods 0.000 claims description 141
- 230000010354 integration Effects 0.000 claims description 34
- 238000000926 separation method Methods 0.000 abstract description 9
- 210000004027 cell Anatomy 0.000 description 377
- 238000002073 fluorescence micrograph Methods 0.000 description 62
- 230000000875 corresponding effect Effects 0.000 description 58
- 238000004364 calculation method Methods 0.000 description 52
- 238000009499 grossing Methods 0.000 description 34
- 230000005859 cell recognition Effects 0.000 description 32
- 238000000605 extraction Methods 0.000 description 26
- 238000002372 labelling Methods 0.000 description 17
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 5
- 238000004321 preservation Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 238000010186 staining Methods 0.000 description 4
- 239000000975 dye Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 2
- 239000007850 fluorescent dye Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 102000007469 Actins Human genes 0.000 description 1
- 108010085238 Actins Proteins 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 210000000170 cell membrane Anatomy 0.000 description 1
- 210000003855 cell nucleus Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 102000034287 fluorescent proteins Human genes 0.000 description 1
- 108091006047 fluorescent proteins Proteins 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、入力された画像の中から観測対象に対応する画像領域を認識する画像処理装置および画像処理プログラムに関するものである。 The present invention relates to an image processing apparatus and an image processing program for recognizing an image region corresponding to an observation target from input images.
従来、顕微鏡等を利用して種々の細胞を標本とする観測が行われている。例えば顕微鏡を用いた生細胞の経時的な観測では、通常、複数の時点で生細胞を撮像して得た各観測画像の中から目視作業と手作業とによって個々の生細胞を抽出し、抽出した各生細胞の特徴量の経時変化を観測時点の異なる観測画像間で比較して観測するとともに、観測画像間で各生細胞を対応付けて追跡することが行われる。 Conventionally, observation using various cells as specimens using a microscope or the like has been performed. For example, when observing live cells over time using a microscope, individual live cells are usually extracted from each observation image obtained by imaging live cells at multiple time points by visual and manual operations. The time-dependent change in the feature amount of each live cell is observed by comparing between observation images at different observation points, and each live cell is correlated and tracked between the observation images.
このような従来の観測手法では、観測細胞数、観測頻度、観測範囲、観測時間等の増大にともなって観測者にかかる負荷が増大するなどの問題があった。これに対して、観測画像の中から個々の細胞に対応する細胞領域を画像処理によって自動的に抽出し、観測者への負荷を軽減する技術が提案されている(たとえば、特許文献1参照)。 Such a conventional observation method has a problem that the load on the observer increases as the number of observation cells, observation frequency, observation range, observation time, etc. increase. In contrast, a technique has been proposed in which cell regions corresponding to individual cells are automatically extracted from the observed image by image processing to reduce the load on the observer (for example, see Patent Document 1). .
特許文献1に開示されている細胞形状抽出方法では、観測画像中の細胞に対してモデルとする細胞形状を当てはめて細胞中心位置を検出し、検出した細胞中心位置の周囲の濃度勾配を求め、濃度勾配方向と各画素から細胞中心位置へ向かう方向との一致度を算出して、細胞領域の輪郭を抽出するようにしている。
In the cell shape extraction method disclosed in
より具体的には、まず、観測画像内の任意画素で濃度勾配方向を算出し、この任意画素から濃度勾配方向に所定半径だけ離れた画素に対して得点を与える演算処理を、観測画像内の全画素について行う。この処理の結果、細胞中心に相当する画素は、各画素からの得点が集中して高得点を得る。次に、細胞輪郭部での濃度勾配方向が細胞中心に向かうことから、細胞中心の周囲画素の濃度勾配ベクトルと、任意画素から細胞中心に向かうベクトルとの内積に基づいて、細胞領域の輪郭を示す輪郭画素の候補となる候補画素を抽出する。その後、この抽出した候補画素をもとに、動的輪郭抽出法を利用して、細胞領域の詳細な輪郭の抽出を行う。動的輪郭抽出法では、細胞中心位置を中心とする指定半径の円形の閉曲線を設定し、設定した閉曲線が候補画素と重なる場合、この候補画素の濃度勾配の大きさを減ずる。そして、閉曲線の濃度勾配の大きさの和を評価値として、閉曲線の形状を局所的に変化させながら評価値を算出し、評価値が最小となる時の閉曲線を最終的な細胞領域の輪郭とする。 More specifically, first, a calculation process that calculates a density gradient direction at an arbitrary pixel in the observation image and gives a score to a pixel separated from the arbitrary pixel in the density gradient direction by a predetermined radius is performed in the observation image. Repeat for all pixels. As a result of this processing, the pixel corresponding to the cell center obtains a high score by concentrating the scores from each pixel. Next, since the concentration gradient direction in the cell contour portion is directed toward the cell center, the contour of the cell region is determined based on the inner product of the concentration gradient vector of the surrounding pixels at the cell center and the vector from the arbitrary pixel toward the cell center. Candidate pixels that are candidates for the contour pixel to be shown are extracted. Thereafter, based on the extracted candidate pixels, a detailed outline of the cell region is extracted using a dynamic outline extraction method. In the active contour extraction method, a circular closed curve having a specified radius centered on the cell center position is set, and when the set closed curve overlaps with a candidate pixel, the density gradient of the candidate pixel is reduced. Then, the evaluation value is calculated while locally changing the shape of the closed curve using the sum of the magnitudes of the concentration gradients of the closed curve as an evaluation value, and the closed curve when the evaluation value is minimized is defined as the final contour of the cell region. To do.
また、他の領域抽出方法として、分水嶺領域分割と呼ばれる画像処理手法を用いる方法がある(たとえば、非特許文献1参照)。この領域抽出方法では、低輝度画素の集中する領域ごとに画像を分割するようにしているが、一般に細胞は高輝度画素の集合として現れるため、高輝度画素の集中する領域ごとに観測画像を分割して、細胞領域を抽出するようにしている。このため、細胞領域を抽出する場合には、手法上、輝度を反転して、高輝度領域を分割するものとして適用する。 As another area extraction method, there is a method using an image processing technique called watershed area division (see, for example, Non-Patent Document 1). In this region extraction method, the image is divided for each area where low-brightness pixels are concentrated, but since cells generally appear as a set of high-brightness pixels, the observation image is divided for each area where high-brightness pixels are concentrated. Thus, the cell region is extracted. For this reason, when extracting a cell area | region, it applies as what inverts brightness | luminance and divides a high-intensity area | region on a technique.
ところで、画像処理による細胞領域の自動抽出では、一般に完全な結果を得ることが難しく、誤った抽出結果を生じる場合が多い。例えば特許文献1に開示されている細胞形状抽出方法では、モデルとする細胞形状をもとに細胞領域の輪郭を抽出するようにしているため、モデルから逸脱した細胞形状を捉えることが困難である。また、例えば蛍光蛋白を作用させた生細胞を撮像して得た蛍光画像を観測して、生細胞に対応する細胞領域の抽出を行う場合には、ノイズや蛍光量の変動等の影響により、細胞領域を安定して検出できない場合がある。細胞領域の抽出において誤差が生じた場合、抽出結果をもとに行われる特徴量の計測や生細胞の追跡などの処理にも誤差が伝播するという問題があった。
By the way, in the automatic extraction of a cell region by image processing, it is generally difficult to obtain a complete result, and an erroneous extraction result often occurs. For example, in the cell shape extraction method disclosed in
本発明は、上記に鑑みてなされたものであって、観測画像の中から観測対象に対応する領域を自動的に認識する認識処理において、認識の成否の程度を評価した評価結果を対応付けて認識結果を生成することができ、この結果、認識結果を認識の成否の程度に応じて容易に識別可能にするとともに、認識結果に基づく処理を認識の成否の程度に応じて処理可能にする画像処理装置および画像処理プログラムを提供することを目的とする。 The present invention has been made in view of the above, and in a recognition process for automatically recognizing a region corresponding to an observation object from an observation image, an evaluation result obtained by evaluating the degree of success or failure of the recognition is correlated. A recognition result can be generated. As a result, the recognition result can be easily identified according to the degree of recognition success, and the processing based on the recognition result can be processed according to the degree of recognition success. It is an object to provide a processing device and an image processing program.
上記の目的を達成するために、請求項1にかかる画像処理装置は、入力された観測画像の中から観測対象に対応する画像領域である対象領域を認識する認識処理を行う画像処理装置において、前記認識処理による認識の成否の程度を前記対象領域ごとに判定する認識信頼度判定手段を備えたことを特徴とする。
In order to achieve the above object, an image processing apparatus according to
また、請求項2にかかる画像処理装置は、上記の発明において、前記認識信頼度判定手段は、前記観測画像に含まれるエッジを検出したエッジ画像の各画素が有するエッジ画素値を用いて前記認識処理による認識の成否の程度を判定することを特徴とする。
In the image processing apparatus according to
また、請求項3にかかる画像処理装置は、上記の発明において、前記認識信頼度判定手段は、前記対象領域の輪郭部に含まれる輪郭画素に対応する前記エッジ画像内の画素が有するエッジ画素値である輪郭エッジ強度と、前記対象領域の輪郭部を除く領域内部に含まれる内部画素に対応する前記エッジ画像内の画素が有するエッジ画素値である領域内エッジ強度と、を用いて前記認識処理による認識の成否の程度を判定することを特徴とする。
In the image processing apparatus according to
また、請求項4にかかる画像処理装置は、上記の発明において、前記観測画像の中から仮対象領域を認識する仮領域認識手段と、前記仮領域認識手段によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手段と、前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手段と、をさらに備えたことを特徴とする。 According to a fourth aspect of the present invention, in the above invention, a temporary area recognition unit for recognizing a temporary target area from the observed image, and a temporary target area recognized by the temporary area recognition unit. From the region integration means for forming the integrated region by integrating the adjacent temporary target regions based on the feature amount indicating the feature between the adjacent temporary target regions, and between the integrated temporary target regions in the integrated region Selective area recognition means for recognizing the temporary target area or the integrated area as the target area according to an edge pixel value of a pixel in the edge image corresponding to the boundary pixel included in the boundary line of It is characterized by having.
また、請求項5にかかる画像処理装置は、上記の発明において、前記観測画像の中から仮対象領域を認識する仮領域認識手段と、前記仮領域認識手段によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手段と、前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手段と、をさらに備え、前記認識信頼度判定手段は、前記境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値を、前記領域内エッジ強度として前記認識処理による認識の成否の程度を判定することを特徴とする。 According to a fifth aspect of the present invention, in the above invention, a temporary area recognition unit that recognizes a temporary target area from the observed image, and a temporary target area recognized by the temporary area recognition unit. From the region integration means for forming the integrated region by integrating the adjacent temporary target regions based on the feature amount indicating the feature between the adjacent temporary target regions, and between the integrated temporary target regions in the integrated region Selective area recognition means for recognizing the temporary target area or the integrated area as the target area according to an edge pixel value of a pixel in the edge image corresponding to the boundary pixel included in the boundary line of The recognition reliability determination means uses the edge pixel value of the pixel in the edge image corresponding to the boundary pixel as the in-region edge strength, and the degree of success or failure of recognition by the recognition process And judging.
また、請求項6にかかる画像処理装置は、上記の発明において、前記認識信頼度判定手段は、前記認識処理によって認識された対象領域と、あらかじめ設定された領域モデルとの適合度を用いて前記認識処理による認識の成否の程度を判定することを特徴とする。
In the image processing apparatus according to
また、請求項7にかかる画像処理装置は、上記の発明において、前記領域モデルは、前記観測対象の形状または輝度分布に基づいて規定されることを特徴とする。 According to a seventh aspect of the present invention, in the above invention, the region model is defined based on the shape or luminance distribution of the observation target.
また、請求項8にかかる画像処理装置は、上記の発明において、前記認識処理によって認識された各対象領域を前記認識信頼度判定手段の判定結果に応じた態様で表示する制御を行う表示制御手段をさらに備えたことを特徴とする。 According to an eighth aspect of the present invention, there is provided the image processing apparatus according to the above invention, wherein the display control means performs control to display each target region recognized by the recognition processing in a mode according to the determination result of the recognition reliability determination means. Is further provided.
また、請求項9にかかる画像処理装置は、上記の発明において、前記観測画像は、異なる観測時点に撮像された複数の画像を含み、前記観測時点の異なる観測画像間の前記観測対象の同一性を判別する対象追跡手段をさらに備え、前記対象追跡手段は、前記認識信頼度判定手段で判定した前記認識処理による認識の成否の程度を、前記観測対象の同一性の判別に反映させることを特徴とする。
In the image processing apparatus according to
また、請求項10にかかる画像処理装置は、上記の発明において、前記認識信頼度判定手段によって認識の成功度が低いと判定された前記対象領域に対応させて、認識の成功度が低い旨の警告情報を報知する制御を行う報知制御手段をさらに備えたことを特徴とする。 According to a tenth aspect of the present invention, there is provided the image processing apparatus according to the above invention, wherein the recognition success level is low in correspondence with the target region that is determined to have a low recognition success level by the recognition reliability determination unit. The information processing device further includes notification control means for performing control for notifying warning information.
また、請求項11にかかる画像処理装置は、上記の発明において、前記観測対象は、細胞であることを特徴とする。
The image processing apparatus according to
また、請求項12にかかる画像処理プログラムは、入力された観測画像の中から観測対象に対応する画像領域である対象領域を認識する認識処理を行う画像処理装置に、前記認識処理を行わせるための画像処理プログラムにおいて、前記画像処理装置に、前記認識処理による認識の成否の程度を前記対象領域ごとに判定する認識信頼度判定手順を実行させることを特徴とする。 According to a twelfth aspect of the present invention, there is provided an image processing program for causing an image processing apparatus that performs recognition processing for recognizing a target region that is an image region corresponding to an observation target from the input observation images to perform the recognition processing. In the image processing program, the image processing apparatus is caused to execute a recognition reliability determination procedure for determining the degree of success or failure of recognition by the recognition processing for each target region.
また、請求項13にかかる画像処理プログラムは、上記の発明において、前記認識信頼度判定手順は、前記観測画像に含まれるエッジを検出したエッジ画像の各画素が有するエッジ画素値を用いて前記認識処理による認識の成否の程度を判定することを特徴とする。
In the image processing program according to
また、請求項14にかかる画像処理プログラムは、上記の発明において、前記認識信頼度判定手順は、前記対象領域の輪郭部に含まれる輪郭画素に対応する前記エッジ画像内の画素が有するエッジ画素値である輪郭エッジ強度と、前記対象領域の輪郭部を除く領域内部に含まれる内部画素に対応する前記エッジ画像内の画素が有するエッジ画素値である領域内エッジ強度と、を用いて前記認識処理による認識の成否の程度を判定することを特徴とする。
In the image processing program according to
また、請求項15にかかる画像処理プログラムは、上記の発明において、前記観測画像の中から仮対象領域を認識する仮領域認識手順と、前記仮領域認識手順によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手順と、前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手順と、をさらに実行させることを特徴とする。 According to a fifteenth aspect of the present invention, there is provided an image processing program according to the above invention, wherein a temporary region recognition procedure for recognizing a temporary target region from the observed image, and a temporary target region recognized by the temporary region recognition procedure. From the region integration procedure for forming the integrated region by integrating the adjacent temporary target regions based on the feature amount indicating the feature between the adjacent temporary target regions, and between the integrated temporary target regions in the integrated region A selective region recognition procedure for recognizing the temporary target region or the integrated region as the target region according to an edge pixel value of a pixel in the edge image corresponding to a boundary pixel included in the boundary line of It is made to perform.
また、請求項16にかかる画像処理プログラムは、上記の発明において、前記観測画像の中から仮対象領域を認識する仮領域認識手順と、前記仮領域認識手順によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手順と、前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手順と、をさらに実行させ、前記認識信頼度判定手順は、前記境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値を、前記領域内エッジ強度として前記認識処理による認識の成否の程度を判定することを特徴とする。 According to a sixteenth aspect of the present invention, there is provided an image processing program according to the above invention, wherein a temporary region recognition procedure for recognizing a temporary target region from the observed image, and a temporary target region recognized by the temporary region recognition procedure. From the region integration procedure for forming the integrated region by integrating the adjacent temporary target regions based on the feature amount indicating the feature between the adjacent temporary target regions, and between the integrated temporary target regions in the integrated region A selective region recognition procedure for recognizing the temporary target region or the integrated region as the target region according to an edge pixel value of a pixel in the edge image corresponding to a boundary pixel included in the boundary line of The recognition reliability determination procedure is executed to recognize an edge pixel value of a pixel in the edge image corresponding to the boundary pixel as the in-region edge strength by the recognition process. And judging a degree of success.
また、請求項17にかかる画像処理プログラムは、上記の発明において、前記認識信頼度判定手順は、前記認識処理によって認識された対象領域と、あらかじめ設定された領域モデルとの適合度を用いて前記認識処理による認識の成否の程度を判定することを特徴とする。
The image processing program according to
また、請求項18にかかる画像処理プログラムは、上記の発明において、前記観測画像は、異なる観測時点に撮像された複数の画像を含み、前記観測時点の異なる観測画像間の前記観測対象の同一性を判別する対象追跡手順をさらに実行させ、前記対象追跡手順は、前記認識信頼度判定手順で判定した前記認識処理による認識の成否の程度を、前記観測対象の同一性の判別に反映させることを特徴とする。
The image processing program according to
本発明にかかる画像処理装置および画像処理プログラムによれば、観測画像の中から観測対象に対応する領域を自動的に認識する認識処理において、認識の成否の程度を評価した評価結果を対応付けて認識結果を生成することができ、この結果、認識結果を認識の成否の程度に応じて容易に識別可能にするとともに、認識結果に基づく処理を認識の成否の程度に応じて処理可能にする。 According to the image processing apparatus and the image processing program according to the present invention, in the recognition processing for automatically recognizing the region corresponding to the observation target from the observation image, the evaluation result that evaluates the degree of success or failure of the recognition is associated A recognition result can be generated. As a result, the recognition result can be easily identified according to the degree of success or failure of the recognition, and processing based on the recognition result can be processed according to the degree of success or failure of the recognition.
以下、添付図面を参照して、本発明にかかる画像処理装置および画像処理プログラムの好適な実施の形態を詳細に説明する。なお、この実施の形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付している。 Exemplary embodiments of an image processing apparatus and an image processing program according to the present invention are explained in detail below with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment. In the description of the drawings, the same parts are denoted by the same reference numerals.
(実施の形態1)
まず、本発明の実施の形態1にかかる画像処理装置および画像処理プログラムについて説明する。図1は、本実施の形態1にかかる画像処理装置1の構成を示すブロック図である。また、図2は、図1に示す画像照合部5の詳細構成を示すブロック図である。
(Embodiment 1)
First, an image processing apparatus and an image processing program according to the first embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating a configuration of the
図1に示すように、画像処理装置1は、観測対象とする細胞を記録した観測画像を取得する画像取得部2と、観測画像の中から細胞に対応する画像領域である細胞領域を認識する細胞認識処理を行う細胞認識部3と、観測画像に含まれるエッジを検出したエッジ画像としての参照エッジ画像を生成する参照エッジ画像生成部4と、参照エッジ画像を用いて、細胞認識処理による認識の成否の程度を細胞領域ごとに判定する画像照合部5と、画像表示等の各種情報の表示を行う表示部6と、画像等の各種情報を記憶する記憶部7と、画像処理装置1の各部の処理および動作を制御する制御部8と、を備える。画像取得部2、細胞認識部3、参照エッジ画像生成部4、画像照合部5、表示部6および記憶部7は、制御部8に電気的に接続されている。
As illustrated in FIG. 1, the
画像取得部2は、USB、IEEE1394等の通信用インターフェース、フラッシュメモリ、CD、DVD、ハードディスク等の携帯型記憶媒体に対応するインターフェースなどの各種インターフェースを備え、インターフェースを介して外部装置から観測画像を取得する。なお、画像取得部2は、撮像レンズ、CCD等の撮像素子およびA/D変換器を用いて実現される撮像装置を備え、この撮像装置が撮像して生成した観測画像を取得するようにしてもよい。この場合、画像取得部2が備える撮像装置には、デジタルカメラ、顕微鏡、視覚センサ等、デジタル画像を生成可能な各種形態の撮像装置が適用できる。画像取得部2は、取得した観測画像を細胞認識部3および参照エッジ画像生成部4に出力する。また、画像取得部2は、観測画像を記憶部7に出力して記憶させることもできる。
The
ここで、画像取得部2が取得する観測画像は、一例として、あらかじめ蛍光色素によって染色された生体組織中の細胞を撮像した細胞蛍光画像である。かかる細胞蛍光画像では、色素の作用した細胞の該当部位が明るく観測される。すなわち、細胞蛍光画像中の細胞領域は、高輝度画素の集中した画像領域として存在する。なお、細胞の染色は、細胞全体を染色するものであってもよく、あるいは細胞核、アクチン、細胞膜等の特定部位のみを染色するものであってもよい。また、染色に用いる色素は、蛍光色素に限定されるものではなく、細胞のコントラストを一層鮮明にするものであって、コントラストの他に細胞の特性を変質させないものであれば任意の色素でよい。すなわち、観測対象である細胞を記録した対象画像としての細胞画像は、細胞蛍光画像に限定されず、各種の細胞染色画像でよい。
Here, as an example, the observation image acquired by the
また、画像取得部2が取得する観測画像は、モノクロ画像、カラー画像、色差画像等、観測対象が識別できる画像であれば任意形態の画像でよい。さらに、観測画像に記録される観測対象は、細胞に限定して解釈する必要はなく、車両等の物体、人物、動物など任意でよい。
The observation image acquired by the
細胞認識部3は、平滑部3a、勾配方向算出部3b、到達極値算出部3c、領域統合部3d、背景除去部3eおよび標識部3fを備え、画像取得部2から取得した細胞蛍光画像の中から細胞領域を抽出して認識し、認識結果を示す認識ラベル画像を生成する。
The
ここで、平滑部3aは、細胞蛍光画像を平滑化して画像中の輝度ムラを低減する。勾配方向算出部3bは、平滑化された細胞蛍光画像内の各画素の輝度(画素値)の勾配方向を算出するとともに、輝度の極大値を示す極値画素を検出する。勾配方向は、処理対象の画素から、この処理対象の画素に隣接する画素のうち最も輝度値の大きな画素に向かう方向として定義される。到達極値算出部3cは、勾配方向と極値画素とをもとに、細胞蛍光画像を仮細胞領域に領域分割した仮ラベル画像を生成する。領域統合部3dは、細胞蛍光画像中の細胞の輪郭形状に整合するように、仮ラベル画像の隣接した仮細胞領域を統合して、対象領域としての細胞領域を成形する。背景除去部3eは、細胞蛍光画像中の輝度値の小さい画素を、背景を示す背景画素として細胞領域から除去する。標識部3fは、細胞領域ごとに固有の領域標識を付与した認識ラベル画像を生成する。
Here, the smoothing
また、細胞認識部3は、生成した認識ラベル画像を画像照合部5に出力する。なお、細胞認識部3は、生成した認識ラベル画像を、制御部8を介して記憶部7に出力して記憶させることもできる。また、細胞認識部3は、記憶部7に記憶された細胞蛍光画像を取得して認識ラベル画像を生成することもできる。
In addition, the
参照エッジ画像生成部4は、平滑部4a、構造保存平滑部4b、エッジ抽出部4c、輪郭強調部4dおよび階調変換部4eを備え、画像取得部2から取得した細胞蛍光画像に含まれるエッジを検出して参照エッジ画像を生成する。
The reference edge
ここで、平滑部4aは、細胞蛍光画像を平滑化して画像中の輝度ムラを低減する。構造保存平滑部4bは、平滑部4aによって平滑化された細胞蛍光画像に対し、細胞領域の輪郭部に対応する輝度値の谷を残しながら、細胞領域内部のノイズである微小な輝度値の谷を減少させる平滑化処理をさらに行う。エッジ抽出部4cは、構造保存平滑部4bによって平滑化された細胞蛍光画像の中から、細胞領域と背景との境界あるいは細胞領域同士の境界等を示す輝度値の変動をエッジとして検出したエッジ画像を生成する。輪郭強調部4dは、エッジ画像内に含まれるエッジのうち、細胞領域内部のエッジ成分を弱め、細胞領域の輪郭部のエッジ成分を強調する。階調変換部4eは、輪郭強調部4dによって処理されたエッジ画像をもとに、弱いエッジをより弱めるように階調変換を行って参照エッジ画像を生成する。
Here, the smoothing
また、参照エッジ画像生成部4は、生成した参照エッジ画像を画像照合部5に出力する。なお、参照エッジ画像生成部4は、生成した参照エッジ画像を、制御部8を介して記憶部7に出力して記憶させることもできる。また、参照エッジ画像生成部4は、記憶部7に記憶された細胞蛍光画像を取得して参照エッジ画像を生成することもできる。
Further, the reference edge
画像照合部5は、図2に示すように、認識ラベル画像分離部5a、輪郭部エッジ成分演算部5b、内部エッジ成分演算部5cおよび認識信頼度判定部5dを備え、参照エッジ画像の各画素が有するエッジ画素値を用いて、細胞認識部3によって認識された細胞領域ごとに認識信頼度を対応付ける。
As shown in FIG. 2, the
ここで、認識ラベル画像分離部5aは、細胞認識部3によって生成された認識ラベル画像から細胞領域の輪郭部と領域内部とを分離し、輪郭部を抽出した輪郭部ラベル画像と、領域内部を抽出した内部ラベル画像とを生成する。輪郭部エッジ成分演算部5bは、輪郭部ラベル画像に示される細胞領域の輪郭部に含まれる輪郭画素に対応する、参照エッジ画像内の画素が有するエッジ画素値の平均値である輪郭部エッジ成分強度平均を算出する。内部エッジ成分演算部5cは、内部ラベル画像に示される細胞領域内部に含まれる内部画素に対応する、参照エッジ画像内の画素が有するエッジ画素値の平均値である内部エッジ成分強度平均を算出する。認識信頼度判定部5dは、輪郭部エッジ成分強度平均と内部エッジ成分強度平均とに基づいて、細胞認識部3で認識した各細胞領域について、その認識の成否の程度を判定する。
Here, the recognition label
また、画像照合部5は、認識ラベル画像と認識の成否の程度を示す認識信頼度とを表示部6に出力する。なお、画像照合部5は、認識信頼度を、制御部8を介して記憶部7に出力して記憶させることもできる。また、画像照合部5は、記憶部7に記憶された認識ラベル画像および参照エッジ画像を取得して認識の成否の程度を判定することもできる。
Further, the
表示部6は、CRT、液晶ディスプレイ等を有する表示装置を備え、画像照合部5から出力される認識ラベル画像と認識信頼度とを取得し、画像情報および数値情報として表示する。この表示では、表示部6は、画像情報および数値情報のいずれか一方のみを表示することができる。また、両方を同時もしくは切り換えて表示することができる。なお、表示部6は、記憶部7に記憶された認識ラベル画像と認識信頼度とを取得して表示するようにしてもよい。
The
記憶部7は、各種処理プログラム等があらかじめ記憶されたROMと、各種処理の処理パラメータ、処理データ等を記憶するRAMとを用いて実現される。記憶部7は、特に、細胞認識部3、参照エッジ画像生成部4および画像照合部5に処理を実行させるためのプログラム、すなわち画像処理装置1に細胞蛍光画像の中から細胞領域を認識する認識処理を行わせるとともに、認識信頼度を対応付ける認識信頼度判定処理を実行させるための画像処理プログラムを記憶する。なお、記憶部7は、フラッシュメモリ、CD、DVD、ハードディスク等の携帯型記憶媒体を着脱可能な記憶部として備えるようにしてもよい。
The
制御部8は、記憶部7に記憶された各種処理プログラムを実行するCPU等を用いて実現される。制御部8は、特に、記憶部7に記憶された画像処理プログラムを実行し、この画像処理プログラムにしたがって細胞認識部3、参照エッジ画像生成部4および画像照合部5の処理および動作を制御する。また、制御部8は、画像照合部5から出力される認識ラベル画像と認識信頼度とを、画像情報および数値情報として表示部6に表示させる制御を行う。このとき、細胞認識部3によって認識された各細胞領域を、認識信頼度に応じた態様で表示するように表示部6を制御する。なお、制御部8は、認識ラベル画像と認識信頼度以外にも、原画像としての細胞蛍光画像、平滑化後の細胞蛍光画像、仮ラベル画像、参照エッジ画像等を表示部6に表示させる制御を行うこともできる。
The
また、制御部8は、認識信頼度判定部5dによって細胞領域の認識の成功度が低いと判定された細胞領域について、認識の成功度が低い旨の警告情報を報知する制御を行う。すなわち、認識信頼度が低い細胞領域について、誤認識を起こしている可能性が高い旨、認識結果に基づいて行われる各種処理において誤った処理が行われる可能性が高い旨等を、観測者に通知するように制御を行う。
In addition, the
ここで、画像処理装置1が行う処理手順について説明する。図3は、制御部8が画像処理プログラムを実行することによって、画像処理装置1が細胞蛍光画像を処理する画像処理手順を示すフローチャートである。図3に示すように、まず、画像取得部2は、外部装置から細胞蛍光画像を取得し(ステップS101)、細胞認識部3は、画像取得部2から取得した細胞蛍光画像の中から細胞領域を認識して認識ラベル画像を生成する細胞認識処理を行う(ステップS103)。
Here, a processing procedure performed by the
つづいて、参照エッジ画像生成部4は、画像取得部2から取得した細胞蛍光画像に含まれるエッジを検出して参照エッジ画像を生成する参照エッジ画像生成処理を行う(ステップS105)。画像照合部5は、参照エッジ画像生成部4から取得した参照エッジ画像を用いて、細胞認識部3から取得した認識ラベル画像内の各細胞領域に認識信頼度を対応付ける認識信頼度判定処理を行う(ステップS107)。表示部6は、画像照合部5から取得した認識ラベル画像と認識信頼度とを認識結果として表示する(ステップS109)。その後、制御部8は、一連の画像処理を終了する。
Subsequently, the reference edge
なお、制御部8は、例えば所定の処理終了の指示情報等を受け付けるまでステップS101〜S109の処理を繰り返し行うことができる。また、ステップS101において画像取得部2から細胞蛍光画像を取得する代わりに、記憶部7に記憶された細胞蛍光画像を取得してステップS103からの処理を実行することもできる。さらに、ステップS101〜S105を処理する代わりに、記憶部7に記憶された認識ラベル画像および参照エッジ画像を取得してステップS107を実行することもできる。また、ステップS109を省略することもできる。なお、制御部8は、ステップS103とステップS105とを処理順序を入れ換えて行ってもよい。
Note that the
つぎに、図3に示したステップS103〜S109について、より具体的に各処理内容を説明する。まず、ステップS103の細胞認識処理について説明する。図4は、細胞認識処理の処理手順を示すフローチャートである。図4に示すように、平滑部3aは、画像取得部2から取得した細胞蛍光画像を平滑化する平滑化処理を行い(ステップS111)、勾配方向算出部3bは、平滑化された細胞蛍光画像の各画素の輝度の勾配方向を算出するとともに極値画素を検出する勾配方向算出処理を行う(ステップS113)。
Next, the details of each process will be described with respect to steps S103 to S109 shown in FIG. First, the cell recognition process in step S103 will be described. FIG. 4 is a flowchart showing the procedure of the cell recognition process. As illustrated in FIG. 4, the smoothing
つづいて、到達極値算出部3cは、勾配方向算出部3bから取得した勾配方向および極値画素をもとに、細胞蛍光画像を仮細胞領域に領域分割して仮ラベル画像を生成する到達極値算出処理を行う(ステップS115)。領域統合部3dは、仮ラベル画像中の隣接した仮細胞領域を統合して細胞領域を成形する領域統合処理を行う(ステップS117)。背景除去部3eは、細胞蛍光画像中の輝度値の小さい画素を背景画素として細胞領域から除去する背景除去処理を行う(ステップS119)。標識部3fは、成形された細胞領域ごとに固有の領域標識を付与して認識ラベル画像を生成するラベリング処理を行う(ステップS121)。そして、制御部8は、標識部3fから画像照合部5に認識ラベル画像を出力させた後、ステップS105の処理に移る。
Subsequently, the ultimate extreme
ステップS111では、平滑部3aは、細胞蛍光画像中のエッジ等、大きな輝度値変化を示す輝度分布の構造を保存しながら細胞蛍光画像を平滑化して輝度ムラを低減する。なお、平滑部3aは、平滑化処理の結果としての平滑化画像を、制御部8を介して記憶部7に出力して記憶させることができる。
In step S111, the smoothing
ステップS113では、勾配方向算出部3bは、まず、処理対象画素と、この処理対象画素を中心とする8近傍の各隣接画素との間で、隣接画素の輝度値から処理対象画素の輝度値を差し引いた輝度値差を算出し、処理対象画素から輝度値差が最大となる隣接画素に向かう方向を勾配方向とする。そして、この勾配方向を処理対象画素に対応付けて記録する。また、勾配方向算出部3bは、8近傍の各隣接画素との間で算出した輝度値差がすべて負の値となる場合に、処理対象画素を8近傍内の極大値を示す極値画素として記録する。かかる処理を、勾配方向算出部3bは、細胞蛍光画像内のすべての画素に対して順次行う。
In step S113, the gradient
ステップS115では、到達極値算出部3cは、処理対象画素から勾配方向を順に極値画素に到達するまでたどり、経路となった各画素を到達した極値画素に対応付ける。この処理を細胞蛍光画像内のすべての画素に対して順次行い、各画素をいずれかの極値画素に対応付ける。そして、到達極値算出部3cは、同一の極値画素に対応付けられた各画素が同一の領域を構成するものとして、この極値画素ごとの各領域を仮細胞領域と認識し、各仮細胞領域に固有の領域標識を付与して仮ラベル画像を生成する。このようにして生成された仮ラベル画像では、細胞蛍光画像における輝度値の微細な変化に対応する極値画素ごとに仮細胞領域が形成されているため、通常、細胞蛍光画像中に本来存在する細胞領域よりも細かな仮細胞領域に分割されている。なお、仮細胞領域に付与される領域標識は、固有のものであれば番号、アルファベット、記号等を用いた任意の表記でよい。
In step S115, the reached extreme
ステップS117では、領域統合部3dは、例えば、隣接した各仮細胞領域の極値画素間で極値間距離が所定の閾値以下の場合に、この隣接した仮細胞領域を統合して細胞領域とする。ここで、極値間距離とは、図5に示すように、細胞蛍光画像の輝度値の分布を示す輝度分布曲線に沿った距離であって、異なる極値画素のそれぞれに対応する輝度分布曲線上の点を結ぶ距離である。図5では、輝度分布曲線上の2点を結ぶ太線で示した部分曲線の長さが極値間距離となる。
In step S117, the
また、領域統合部3dは、例えば、細胞蛍光画像に含まれるエッジを検出したエッジ画像を生成することとして、エッジ画像と仮ラベル画像とを比較することによって、隣接した仮細胞領域を統合することもできる。この場合、領域統合部3dは、図6に示すように、仮ラベル画像中の隣接した仮細胞領域の境界線を示す画素に対応するエッジ画像内の画素が有する強度値が、所定の閾値以下の場合、この境界線を示す画素を除去し、隣接した仮細胞領域を統合する。図6では、仮ラベル画像内に矢印で示す境界線は、エッジ画像内では微弱であってほとんど認識されないため、細胞領域の輪郭とは異なるものとして除去される。
Further, the
領域統合部3dは、かかる領域統合の処理を、仮ラベル画像中に存在するすべての隣接した仮細胞領域に対して行い、統合を行えなくなるまで繰り返す。そして、統合を繰り返した結果として残された仮細胞領域を、最終的な細胞領域として認識する。なお、領域統合部3dによって統合されなかった仮細胞領域は、そのまま細胞領域として認識される。
The
ステップS119では、背景除去部3eは、例えば所定の閾値以下の輝度値を有する画素、あるいは所定の閾値以下の輝度値を有する極値画素に対応する細胞領域に含まれる全画素を、背景画素として除去する。
In step S119, the
ステップS121では、標識部3fは、細胞領域ごとに新たに固有の領域標識を付与するようにしてもよく、仮細胞領域に付与した領域標識を引き継ぐようにしてもよい。領域標識を引き継ぐ場合には、標識部3fは、仮細胞領域の統合が行われた結果としての細胞領域に、統合前の各仮細胞領域のいずれかの領域標識を引き継ぐようにする。なお、細胞領域に付与される領域標識も、固有のものであれば番号、アルファベット、記号等を用いた任意の表記でよい。
In step S121, the
つぎに、ステップS105の参照エッジ画像生成処理について説明する。図7は、参照エッジ画像生成処理の処理手順を示すフローチャートである。図7に示すように、まず、平滑部4aは、画像取得部2から取得した細胞蛍光画像を平滑化する平滑化処理を行う(ステップS131)。そして、構造保存平滑部4bは、この平滑化された細胞蛍光画像に対して、さらに細胞領域内部のノイズを減少させる構造保存平滑化処理を行う(ステップS133)。
Next, the reference edge image generation process in step S105 will be described. FIG. 7 is a flowchart illustrating a processing procedure of reference edge image generation processing. As shown in FIG. 7, first, the smoothing
つづいて、エッジ抽出部4cは、構造保存平滑部4bによって平滑化された細胞蛍光画像の中からエッジを検出してエッジ画像を生成するエッジ抽出処理を行う(ステップS135)。輪郭強調部4dは、このエッジ画像内のエッジのうち、細胞領域の輪郭部を示すエッジ成分を強調する輪郭強調処理を行う(ステップS137)。階調変換部4eは、輪郭強調処理後のエッジ画像をもとに階調変換を行って参照エッジ画像を生成する階調変換処理を行う(ステップS139)。そして、制御部8は、階調変換部4eから画像照合部5に参照エッジ画像を出力させた後、ステップS107の処理に移る。
Subsequently, the
ステップS131では、平滑部4aは、例えば図8に示すガウシアンフィルタを細胞蛍光画像に畳み込むことによって、細胞蛍光画像中の微細な輝度ムラを低減する。また、ステップS133では、構造保存平滑部4bは、例えば、処理対象画素を中心とする5×5画素を参照して処理対象画素の輝度値を変換する処理を、細胞蛍光画像内の各画素を処理対象画素として順次行うことによって、細胞蛍光画像の全体を平滑化する。
In step S131, the smoothing
図9は、かかる平滑化処理において構造保存平滑部4bが参照する5×5画素を示す模式図である。図中、各画素を示す矩形内に、その画素の輝度値を示す変数が記されている。構造保存平滑部4bは、このような5×5画素の中心にある処理対象画素の輝度値v(13)を、次式(1)によって輝度値v’(13)に変換する。この変換処理によって、処理対象画素に対して輝度値が近い近傍画素ほど重みを大きくした輝度値の加重平均が求められる。
なお、ステップS131の平滑化処理およびステップS133の構造保存平滑化処理は、画像取得部2から取得する細胞蛍光画像の種類等に応じて省略することができる。
In addition, the smoothing process of step S131 and the structure preservation | save smoothing process of step S133 can be abbreviate | omitted according to the kind etc. of the cell fluorescence image acquired from the
ステップS135では、エッジ抽出部4cは、構造保存平滑部4bによって平滑化された細胞蛍光画像内の各画素に対し、一次微分値や二次微分値を算出する。エッジ抽出部4cは、一次微分値を用いる場合、例えば一次微分フィルタであるSobelフィルタを用いて算出する。この場合、エッジ抽出部4cは、図10−1に示すx方向Sobelフィルタの畳み込みの出力S1(k)と、図10−2に示すy方向Sobelフィルタの畳み込みの出力S2(k)とを用い、次式(4)によって、画素番号kの一次微分値E1(k)を算出する。ここで、画素番号kは、各画素の画素番号を示している。
また、エッジ抽出部4cは、二次微分値を用いる場合、例えば輝度値変化の凹部を検出する二次微分フィルタを用いて算出する。この場合、エッジ抽出部4cは、図11−1に示すx方向凹部検出フィルタの畳み込みの出力C1(k)と、図11−2に示すy方向凹部検出フィルタの畳み込みの出力C2(k)と、図11−3に示すx+y+方向凹部検出フィルタの畳み込みの出力C3(k)と、図11−4に示すx+y−方向凹部検出フィルタの畳み込みの出力C4(k)とを用い、これらの出力の中から次式(5)に示すように最大値を抽出して、画素番号kの二次微分値E2(k)とする。ここで、画素番号kは、各画素の画素番号を示している。
E2(k)=Max(C1(k),C2(k),C3(k),C4(k)) ・・・(5)
Moreover, when using a secondary differential value, the
E 2 (k) = Max (C1 (k), C2 (k), C3 (k), C4 (k)) (5)
ステップS137では、輪郭強調部4dは、エッジ抽出部4cによって生成されたエッジ画像の各画素の輝度値E(k)と、構造保存平滑部4cによって平滑化された細胞蛍光画像の各画素の輝度値V(k)とを用い、次式(6)によって、細胞領域の輪郭部のエッジ成分を強調した各画素の輝度値Ec(k)を算出する。なお、式(6)で用いる係数mは、m=0.55とすることが好ましい。
Ec(k)=m・E(k)−V(k) ・・・(6)
In step S137, the contour emphasizing unit 4d determines the luminance value E (k) of each pixel of the edge image generated by the
E c (k) = m · E (k) −V (k) (6)
ステップS139では、階調変換部4eは、図12−1に示すように、中心の処理対象画素に対して4種類の方向フィルタFT1〜FT4を適用し、各方向フィルタ内の画素が有する輝度値の中から、輝度最大値Ecmaxと輝度最小値Ecminとを抽出する。そして、抽出した輝度最大値Ecmaxの大きさを1、輝度最小値Ecminの大きさを0とするように諧調変換を行う。このとき、諧調変換部4eは、次式(7)に示す諧調変換関数によって、処理対象画素の輝度値Ecinを輝度値Ecoutに変換する。この諧調変換関数に対する入力としての輝度値Ecinと、出力としての輝度値Ecoutとの関係を図12−2に示す。なお、式(7)で用いる指数γは、γ=4とすることが好ましい。
なお、方向フィルタFT1は、処理対象画素の左右方向を参照する横方向フィルタであり、方向フィルタFT2は、処理対象画素の上下方向を参照する縦方向フィルタである。また、方向フィルタFT3は、右下および左上方向を参照する斜め方向フィルタであり、方向フィルタFT4は、右上および左下方向を参照する斜め方向フィルタである。各方向フィルタFT1〜FT4は、処理対象画素を中心とする各方向の10画素ずつを参照する。ただし、この参照する画素数は、各方向10画素ずつに限定されるものではなく、これより増減させることもできる。また、各方向フィルタFT1〜FT4は、図12−1では、各方向で画素列を1列のみ参照するように示したが、参照する画素列は1列に限定されるものではなく、処理対象画素を含む画素列を中心とする3列、もしくはそれ以上の画素列を参照することもできる。 The direction filter FT1 is a horizontal filter that refers to the horizontal direction of the processing target pixel, and the direction filter FT2 is a vertical filter that refers to the vertical direction of the processing target pixel. The direction filter FT3 is an oblique direction filter that refers to the lower right and upper left directions, and the direction filter FT4 is an oblique direction filter that refers to the upper right and lower left directions. Each direction filter FT1 to FT4 refers to 10 pixels in each direction centered on the processing target pixel. However, the number of pixels to be referred to is not limited to 10 pixels in each direction, and can be increased or decreased. Each direction filter FT1 to FT4 is shown in FIG. 12A so as to refer to only one pixel column in each direction. However, the pixel column to be referred to is not limited to one column, and is subject to processing. It is also possible to refer to three or more pixel columns centering on the pixel column including the pixels.
以上説明したステップS105の参照エッジ画像生成処理によって生成される参照エッジ画像の一例を図13−1に示す。また、図13−1に示す参照エッジ画像に対応する細胞蛍光画像を図13−2に示す。 An example of the reference edge image generated by the reference edge image generation process of step S105 described above is shown in FIG. Further, FIG. 13-2 shows a cell fluorescence image corresponding to the reference edge image shown in FIG.
つぎに、ステップS107の認識信頼度判定処理について説明する。この認識信頼度判定処理では、認識信頼度判定部5dは、認識ラベル画像内の各細胞領域の輪郭部エッジ成分強度平均と内部エッジ成分強度平均とをもとに、細胞領域ごとに認識結果の良好さ、認識を阻害する成分の度合いを判断することで、各細胞領域の認識の成否の程度を判定する。
Next, the recognition reliability determination process in step S107 will be described. In this recognition reliability determination process, the recognition
認識された細胞領域の認識の成否の程度は、輪郭部のエッジ成分が大きいほど、また細胞領域内部のエッジ成分が小さいほど成功度が高いといえる。すなわち、輪郭部のエッジ成分が小さければ、その細胞領域は、より大きな細胞領域の一部を分割して成形された可能性が高いと考えられる。また、細胞領域内部のエッジ成分が大きければ、その細胞領域は、より細かい細胞領域に分割できる可能性が高い、あるいはノイズを多く含んだ細胞領域である可能性が高いと考えられる。そこで、認識信頼度判定部5dでは、認識された細胞領域の妥当性であり、細胞認識処理による認識の成否の程度を示す認識信頼度を、各細胞領域の輪郭部のエッジ成分および細胞領域内部のエッジ成分の大きさにより判断するようにしている。
The degree of success or failure of recognition of the recognized cell region can be said to be higher as the edge component of the contour portion is larger and the edge component inside the cell region is smaller. That is, if the edge component of the contour portion is small, the cell region is considered to have a high possibility of being formed by dividing a part of a larger cell region. In addition, if the edge component inside the cell region is large, the cell region is highly likely to be divided into finer cell regions, or is likely to be a cell region containing a lot of noise. Therefore, the recognition
図14は、認識信頼度判定処理の処理手順を示すフローチャートである。図14に示すように、まず、認識ラベル画像分離部5aは、細胞認識部3から取得した認識ラベル画像内の細胞領域を輪郭部と領域内部とに分離し、輪郭部ラベル画像と内部ラベル画像とを生成する(ステップS141)。そして、輪郭部エッジ成分算出部5bは、輪郭部ラベル画像をもとに輪郭部エッジ成分強度平均Vcon(L)を算出し(ステップS143)、内部エッジ成分算出部5cは、内部ラベル画像をもとに内部エッジ成分強度平均Vin(L)を算出する(ステップS145)。なお、本実施の形態1では、後に詳細に説明する輪郭部エッジ成分強度平均Vcon(L)および内部エッジ成分強度平均Vin(L)によって、各細胞領域の認識の成否の程度を判定する。
FIG. 14 is a flowchart illustrating a processing procedure of recognition reliability determination processing. As shown in FIG. 14, first, the recognition label
つづいて、認識信頼度判定部5dは、輪郭部エッジ成分強度平均Vcon(L)が所定の閾値ContourThより小さく、かつ、内部エッジ成分強度平均Vin(L)が所定の閾値InnerThより大きいか否かを判断して、各細胞領域の認識の成否の程度を一次的に判定する(ステップS147)。この判断条件が満足される場合(ステップS147:Yes)、認識信頼度判定部5dは、領域標識としてのラベル番号が番号Lである細胞領域に「認識信頼度4」を割り当てる(ステップS149)。
Subsequently, the recognition
ステップS147の判断条件が満足されない場合(ステップS147:No)、認識信頼度判定部5dは、内部エッジ成分強度平均Vin(L)が閾値InnerThより大きいか否かを判断して、認識の成否の程度をさらに判定する(ステップS151)。この判断条件が満足される場合(ステップS151:Yes)、ラベル番号Lの細胞領域に「認識信頼度3」を割り当てる(ステップS153)。
When the determination condition of step S147 is not satisfied (step S147: No), the recognition
ステップS151の判断条件が満足されない場合(ステップS151:No)、認識信頼度判定部5dは、輪郭部エッジ成分強度平均Vcon(L)が閾値ContourThより小さいか否かを判断して、認識の成否の程度をさらに判定する(ステップS155)。この判断条件が満足される場合(ステップS155:Yes)、ラベル番号Lの細胞領域に「認識信頼度2」を割り当てる(ステップS157)。ステップS155の判断条件が満足されない場合には(ステップS155:No)、ラベル番号Lの細胞領域に「認識信頼度1」を割り当てる(ステップS159)。
When the determination condition of step S151 is not satisfied (step S151: No), the recognition
そして、制御部8は、認識ラベル画像中のすべての細胞領域を処理したか否か、すなわち、すべての細胞領域に認識信頼度が割り当てられているか否かを判断し(ステップS161)、割り当てられていない場合(ステップS161:No)、割り当てられていない細胞領域に対してステップS141からの処理を繰り返す。一方、すべての細胞領域に認識信頼度が割り当てられている場合には(ステップS161:Yes)、制御部8は、認識信頼度が対応付けられた認識ラベル画像を認識信頼度判定部5dから表示部6に出力させた後、ステップ109の処理に移る。なお、かかる認識信頼度判定処理手順では、制御部8は、ステップS143とステップS145とを、処理順序を入れ換えて実行させることもできる。
Then, the
ステップS141では、認識ラベル画像分離部5aは、図15に示すように、細胞領域を、この細胞領域に属する画素であって背景または他の細胞領域と接する輪郭画素で構成される輪郭部と、細胞領域から輪郭部を除いた内部画素で構成される領域内部とに分離する。ただし、認識ラベル画像分離部5aは、輪郭部を取り除く作業をn回繰り返し、輪郭部と領域内部との間に画素数n分の間隙を設けるようにする。画素数nは、n=3程度とすることが好ましい。この輪郭部と領域内部との間隙は、領域内部から輪郭部に対応する画素を確実に排除するための措置である。
In step S141, as shown in FIG. 15, the recognition label
ステップS143では、輪郭部エッジ成分演算部5bは、ラベル番号Lの細胞領域に対して、まず、輪郭部ラベル画像中の各輪郭画素に対応する参照エッジ画像内の画素が有するエッジ画素値としての輪郭エッジ強度Ecout(p)を用いて、次式(8)によって、エッジ強度の総和を示すエッジ成分総計SVcon(L)を算出する。ここで、変数pは、輪郭画素の画素番号を示している。
ステップS145では、内部エッジ成分演算部5cは、ステップS143と同様に、ラベル番号Lの細胞領域に対して、まず、内部ラベル画像中の各内部画素に対応する参照エッジ画像内の画素が有するエッジ画素値としての領域内エッジ強度Ecin(q)を用いて、次式(11)によって、エッジ強度の総和を示すエッジ成分総計SVin(L)を算出する。ここで、変数qは、内部画素の画素番号を示している。
つぎに、ステップS109の認識結果の表示について説明する。図16は、図13−1および図13−2に示した参照エッジ画像および細胞蛍光画像に基づく認識結果を示す画像であって、ステップS109によって表示部6に表示する画像の一例を示す図である。図16に示すように、制御部8は、認識信頼度判定部5dによって対応付けられた認識信頼度に応じた態様で、認識ラベル画像中の各細胞領域を識別可能に表示する制御を行う。
Next, the display of the recognition result in step S109 will be described. FIG. 16 is an image showing a recognition result based on the reference edge image and the cell fluorescence image shown in FIGS. 13A and 13B, and shows an example of the image displayed on the
具体的には、図16では、認識の成功度が最も高いことを示す「認識信頼度1」が対応付けられた細胞領域は、領域内部が黒色で描画されている(例えば、細胞領域AR1)。また、「認識信頼度2」および「認識信頼度3」が対応付けられた細胞領域は、それぞれ暗い灰色(例えば、細胞領域AR2)および縦縞模様(例えば、細胞領域AR3)で描画されている。そして、認識の成功度が最も低いことを示す「認識信頼度4」が対応付けられた細胞領域は、明るい灰色で描画されている(例えば、細胞領域AR4)。
Specifically, in FIG. 16, the cell region associated with “
なお、認識結果の表示方法は、図16の例に限定して解釈する必要はなく、認識信頼度ごとに細胞領域に異なる番号、記号等を対応付けて付記する、カラー画像化して認識信頼度ごとに異なる色を対応付ける、異なる模様を対応付けるなど、認識信頼度ごとに細胞領域が識別可能であれば、任意の表示方法が適用できる。 Note that the recognition result display method need not be interpreted as limited to the example of FIG. 16, and a different number, symbol, etc. is associated with each cell area for each recognition reliability, and is converted into a color image for recognition reliability. As long as the cell region can be identified for each recognition reliability, such as associating different colors with each other or associating different patterns, any display method can be applied.
このように認識信頼度を対応付けて各細胞領域を表示することによって、観測者は、誤認識を起こしている可能性の高い細胞領域を容易に判別することができるようになる。なお、認識された全領域にわたって認識信頼度が低い細胞領域が多い場合には、細胞認識処理時の処理パラメータの設定に不具合がある、あるいは細胞蛍光画像中に多くのノイズが含まれているなどの問題が発生している可能性が高く、制御部8は、この旨の警告情報を観測者に報知する。さらに、制御部8は、認識信頼度が低い各細胞領域に対応させて警告情報を報知することもできる。
By displaying each cell region in association with the recognition reliability in this way, the observer can easily discriminate a cell region that has a high possibility of causing erroneous recognition. When there are many cell regions with low recognition reliability over the entire recognized region, there is a problem in the setting of processing parameters at the time of cell recognition processing, or there is a lot of noise in the cell fluorescence image, etc. The
以上説明したように、本実施の形態1にかかる画像処理装置1および画像処理プログラムでは、細胞蛍光画像の中から各細胞に対応する細胞領域を自動的に認識し、認識した各細胞領域に認識の成否の程度を判定しているため、細胞認識処理による各細胞領域の認識がどの程度良好に行われているかを素早く判断可能にするとともに、問題箇所のピックアップが容易であり、より信頼性の高い認識結果を得ることができる。また、この結果、認識した細胞領域の特徴量の計測処理、細胞の追跡処理等、認識結果をもとに行われる各種処理において、各細胞領域の認識の成否の程度に応じた処理を可能にする。
As described above, in the
また、一般に、観測者が細胞画像を目視した場合、周囲に対して輝度が変化したと知覚される部分が細胞の輪郭として捉えられているものと考えられており、本実施の形態1にかかる画像処理装置1および画像処理プログラムでは、この知覚される部分をエッジ成分として抽出した参照エッジ画像を用いて認識信頼度を対応付けるようにしているため、観測者の知覚に整合した認識信頼度を対応付けることが可能である。
Further, generally, when an observer visually observes a cell image, it is considered that a portion perceived to have changed in luminance with respect to the surroundings is captured as the outline of the cell, and the first embodiment is applied. In the
(実施の形態2)
つぎに、本発明の実施の形態2について説明する。この実施の形態2では、細胞を認識して認識信頼度を対応付けた後、観測時点の異なる細胞蛍光画像間で細胞の追跡を行うようにしている。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. In the second embodiment, after recognizing the cells and associating the recognition reliability, the cells are traced between the cell fluorescence images at different observation points.
図17は、本発明の実施の形態2にかかる画像処理装置11の構成を示すブロック図である。図17に示すように、画像処理装置11は、画像処理装置1の構成をもとに、制御部8に替えて制御部18を備えるとともに、新たに細胞追跡部19を備える。細胞追跡部19を含む各構成部は、制御部18に電気的に接続されている。なお、実施の形態1と同一の構成部分には、同一符号を付している。
FIG. 17 is a block diagram showing a configuration of the
画像処理装置11では、画像取得部2は、観測時点の異なる一連の細胞蛍光画像を外部装置から取得し、細胞認識部3、参照エッジ画像生成部4および画像照合部5の各々は、この一連の細胞蛍光画像のそれぞれに対して、認識ラベル画像の生成、参照エッジ画像の生成および認識信頼度の対応付けを行う。このように処理される一連の細胞蛍光画像、参照エッジ画像、および認識信頼度に応じて描画された認識ラベル画像の一例を、図18に示す。
In the
細胞追跡部19は、画像照合部5から一連の細胞蛍光画像に対応する認識ラベル画像、認識信頼度および認識信頼度の判定に用いたパラメータを取得し、各細胞領域の認識の成否の程度を反映させて、観測時点の異なる細胞画像間の細胞の同一性を判別し、同一と判別した細胞を含む細胞領域同士を対応付ける細胞追跡処理を行う。また、細胞追跡部19は、細胞追跡処理の処理結果としての追跡結果を表示部6に出力する。なお、細胞追跡部19は、追跡結果を、制御部18を介して記憶部7に記憶させることもできる。
The
制御部18は、制御部8と同様に各部の処理および動作を制御するのに加えて、細胞追跡部19の制御も行う。制御部18は、特に、記憶部7に記憶された画像処理プログラムを実行し、図3に示した画像処理手順をもとに、さらにステップS107とステップS109との間で細胞追跡処理を行うようにした一連の画像処理の制御を行う。また、制御部18は、細胞追跡部19から出力される追跡結果を、画像情報もしくは数値情報として、各観測時点の認識ラベル画像、認識信頼度等に対応付けて表示部6に表示させる制御を行う。
The
ここで、細胞追跡部19が行う処理について詳細に説明する。細胞追跡部19は、細胞追跡処理において、観測時点の異なる2つの認識ラベル画像間の細胞領域同士の対応度を、各細胞領域の認識の成否の程度を反映させて算出し、算出した対応度に基づいて各細胞領域内の細胞の同一性を判別する。このとき、細胞追跡部19は、例えば細胞領域同士の重なった部分の重なり面積を用いて対応度を算出する。
Here, the process performed by the
より具体的には、細胞追跡部19は、観測時点t1の認識ラベル画像内でラベル番号Rit1である細胞領域と、観測時点t1と時系列に連続した観測時点t2の認識ラベル画像内でラベル番号Rit2である細胞領域と、の対応度M(Rit1,Rit2)を、この細胞領域同士の重なり面積OL_Area(Rit1,Rit2)と、各細胞領域の面積Area(Rit1),Area(Rit2)とを用いて、次式(14)によって算出する。なお、式(14)における係数wは、所定の重み付け係数である。
また、細胞追跡部19は、一連の細胞蛍光画像を撮像する際に一般に生じる蛍光量の時間変化の影響を低減するため、時系列で連続する認識ラベル画像間ばかりでなく、所定フレーム数離れた認識ラベル画像間でも対応度を算出する。この場合、細胞追跡部19は、観測時点taに対応する認識ラベル画像内でラベル番号Ritaである細胞領域と、この認識ラベル画像より所定数bだけ前のフレームの認識ラベル画像内でラベル番号Rit(a-b)である細胞領域と、の対応度M(Rit(a-b),Rita)を、この細胞領域同士の重なり面積OL_Area(Rit(a-b),Rita)と、各細胞領域の面積Area(Rit(a-b)),Area(Rita)とを用いて、次式(15)によって算出する。なお、式(15)における係数wfは、所定の重み付け係数である。
さらに、細胞追跡部19は、式(15)で算出した対応度をもとに、各細胞領域の認識の成否の程度を反映させた対応度を算出する。このために、本実施の形態2では、各細胞領域の認識の成否の程度を判断する基準となる内部エッジ成分強度平均Vin(L)および輪郭部エッジ成分強度平均Vcon(L)を反映させた対応度を算出する。すなわち、細胞追跡部19は、ラベル番号Ritaである細胞領域とラベル番号Rit(a-b)である細胞領域との認識の成否の程度を考慮した対応度M’(Rit(a-b),Rita)を、もとの対応度M(Rit(a-b),Rita)と、ラベル番号Rit(a-b)である細胞領域の内部エッジ成分強度平均Vin(Rit(a-b))および輪郭部エッジ成分強度平均Vcon(Rit(a-b))とを用いて、次式(16)によって算出する。
細胞追跡部19は、かかる対応度M’(Rit(a-b),Rita)を、観測時点taの認識ラベル画像に存在する細胞領域と、観測時点t(a-c)(ただし、c=1〜b)の各観測時点の認識ラベル画像に存在する細胞領域と、の可能なすべての組み合わせについて算出する。そして、最も高い対応度を示す細胞領域の組み合わせにおける各細胞を同一の細胞であると判別し、この組み合わせの細胞領域同士を対応付ける。ただし、観測時点taと観測時点t(a-c)との間で算出されるすべての対応度が0または所定の閾値以下である場合には、細胞追跡部19は、これらの観測時点間で対応付けられる細胞は存在せず、観測時点taで細胞が新たに発生したものと判別する。
なお、ここでは細胞追跡部19は、細胞領域同士の重なり面積を用いて対応度を算出するものとしたが、重なり面積に限らず、例えば各細胞領域の円形度の一致度等、細胞領域間の他の特徴量を用いて算出することもできる。
Here, the
以上説明したように、本実施の形態2にかかる画像処理装置11および画像処理プログラムでは、各細胞領域の認識の成否の程度を反映させて、観測時点の異なる細胞蛍光画像間の細胞の同一性を判別するようにしているため、細胞認識処理で発生した誤差の伝播を防止して一層信頼性の高い細胞追跡処理を実現することができる。
As described above, in the
(実施の形態3)
つぎに、本発明の実施の形態3について説明する。上述した実施の形態1では、仮細胞領域を統合した結果の細胞領域にのみ認識の成否の程度を判定していたが、この実施の形態3では、所定の条件に応じて、細胞領域として仮細胞領域を選択して認識の成否の程度を判定するようにしている。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. In the first embodiment described above, the degree of success or failure of the recognition is determined only in the cell region as a result of the integration of the temporary cell region. However, in this third embodiment, the temporary cell region is temporarily determined according to a predetermined condition. A cell region is selected to determine the degree of success or failure of recognition.
図19は、本発明の実施の形態3にかかる画像処理装置21の構成を示すブロック図である。図19に示すように、画像処理装置21は、画像処理装置1の構成をもとに、細胞認識部3、画像照合部5および制御部8に替えて、細胞認識部23、画像照合部25および制御部28を備えるとともに、被統合輪郭抽出部29および選択的統合ラベル画像生成部30を新たに備える。被統合輪郭抽出部29および選択的統合ラベル画像生成部30を含めた各構成部は、制御部28に電気的に接続されている。なお、実施の形態1と同一の構成部には、同一符号を付している。
FIG. 19 is a block diagram showing a configuration of the
細胞認識部23は、画像処理装置1が備えた細胞認識部3の構成をもとに、背景除去部3eおよび標識部3fをそれぞれ2つの構成部に分割した背景除去部23e−1,23e−2および標識部23f−1,23f−2を備える。そして、領域統合部3d、背景除去部23e−1および標識部23f−1は、到達極値算出部3cによって生成された仮ラベル画像に対して、図4に示した細胞認識処理と同様にステップS117〜ステップS121を行い、認識ラベル画像を生成する。一方、背景除去部23e−2および標識部23f−2は、仮ラベル画像に対して、ステップS117を省略し、ステップS119およびステップS121を行い、背景画素を除去した仮ラベル画像を生成する。
The
標識部23f−1,23f−2は、固有の領域標識を認識ラベル画像および仮ラベル画像にそれぞれ付与する。このとき、標識部23f−1が、到達極値算出部3cによって各仮細胞領域に付与された領域標識のいずれとも異なる領域標識を付与する場合には、標識部23f−2は、到達極値算出部3cによって付与された領域標識をそのまま流用することができる。なお、この場合には、標識部23f−2を細胞認識部23から取り除くこともできる。
The
被統合輪郭抽出部29は、標識部23f−1,23f−2から認識ラベル画像および仮ラベル画像を取得し、認識ラベル画像と仮ラベル画像との差分を演算する。これによって、被統合輪郭抽出部29は、例えば図20に示すように、領域統合部3dが統合した仮細胞領域間の境界線に相当する被統合輪郭を抽出し、抽出した被統合輪郭を示す被統合輪郭画像を生成する。
The integrated
選択的統合ラベル画像生成部30は、標識部23f−1,23f−2から認識ラベル画像および仮ラベル画像を、参照エッジ画像生成部4から参照エッジ画像を、被統合輪郭抽出部29から被統合輪郭画像をそれぞれ取得する。そして、被統合輪郭画像内の被統合輪郭に含まれる境界画素としての被統合輪郭画素に対応する、参照エッジ画像内の画素が有するエッジ画素値に応じて、認識ラベル画像内の細胞領域または仮ラベル画像内の仮細胞領域を、最終的な細胞領域として認識する。
The selective integrated label
より具体的には、選択的統合ラベル画像生成部30は、被統合輪郭を構成する被統合輪郭画素に対応する参照エッジ画像内の画素のエッジ画素値が、所定の閾値より大きい場合には、仮ラベル画像内のこの被統合輪郭を境界線として隣接する各仮細胞領域を最終的な細胞領域と認識する。これは、被統合輪郭に対応するエッジ強度が大きい場合に、被統合輪郭が細胞の輪郭を示している可能性が高く、各仮細胞領域が個別の細胞に対応する領域である可能性が高いと考えられることによる。
More specifically, the selective integrated label
また、選択的統合ラベル画像生成部30は、被統合輪郭画素に対応する参照エッジ画像内の画素のエッジ画素値が、所定の閾値以下の場合には、隣接した仮細胞領域を統合した結果の細胞領域を最終的な細胞領域と認識する。これは、被統合輪郭に対応するエッジ強度が小さい場合に、被統合輪郭が細胞の輪郭以外の輝度変化を示している可能性が高く、隣接した各仮細胞領域が同一の細胞に対応する領域である可能性が高いと考えられることによる。
In addition, the selective integrated label
さらに、選択的統合ラベル画像生成部30は、このように認識した最終的な細胞領域を示す選択的統合ラベル画像を生成する。この際、選択的統合ラベル画像内の各細胞領域が仮細胞領域であるか、あるいは統合結果の細胞領域であるかを、細胞領域ごとに記録する。また、選択的統合ラベル画像生成部30は、生成した選択的統合ラベル画像を画像照合部25に出力する。なお、選択的統合ラベル画像生成部30は、生成した選択的統合ラベル画像を、制御部28を介して記憶部7に出力して記憶させることもできる。
Further, the selective integrated label
画像照合部25は、認識ラベル画像に替えて選択的統合ラベル画像を用い、画像処理装置1が備えた画像照合部5と同様に認識信頼度判定処理を行って、選択的統合ラベル画像内の各細胞領域について認識の成否の程度を判定する。ただし、画像照合部25は、統合結果である細胞領域に対して式(11)〜(13)に示した演算を行う場合には、細胞領域内部を構成する全画素を用いる替わりに被統合輪郭画素に対応する領域内エッジ強度Ecin(q)のみ用いて演算を行い、画素数nin(L)を、被統合輪郭画素の画素数として演算を行う。このように演算処理することによって、認識信頼度判定処理の効率化および高速化を実現できる。
The
ここで、画像処理装置21が行う処理手順について説明する。図21は、制御部28が画像処理プログラムを実行することによって、画像処理装置21が細胞蛍光画像を処理する画像処理手順を示すフローチャートである。図21に示すように、まず、画像取得部2は、外部装置から細胞蛍光画像を取得し(ステップS201)、細胞認識部23は、図3に示したステップS103と同様に、仮ラベル画像および認識ラベル画像を生成する細胞認識処理を行う(ステップS203)。
Here, a processing procedure performed by the
ただし、ステップS103で認識ラベル画像のみ出力していたのに対し、このステップS203では、認識ラベル画像および仮ラベル画像をともに出力する。また、ステップS103の内部処理として図4に示したステップS119およびステップS121では、認識ラベル画像に対してのみ処理を行うようにしていたが、このステップS203では、認識ラベル画像と仮ラベル画像との双方に対して、ステップS119およびステップS121と同様の処理を行う。 However, while only the recognized label image is output in step S103, in step S203, both the recognized label image and the temporary label image are output. Further, in steps S119 and S121 shown in FIG. 4 as internal processing in step S103, processing is performed only on the recognized label image. In step S203, the recognition label image and the temporary label image are processed. For both, the same processing as in step S119 and step S121 is performed.
つづいて、参照エッジ画像生成部4は、図3に示したステップS105と同様にステップS205を行う。被統合輪郭抽出部29は、標識部23f−1,23f−2から取得した認識ラベル画像と仮ラベル画像との差分を演算し、被統合輪郭を抽出して、被統合輪郭画像を生成する(ステップS207)。選択的統合ラベル画像生成部30は、被統合輪郭画素に対応する参照エッジ画像内の画素が有するエッジ画素値に応じて、認識ラベル画像内の細胞領域または仮ラベル画像内の仮細胞領域を選択し、選択した領域を最終的な細胞領域として示す選択的統合ラベル画像を生成する選択的統合ラベル画像生成処理を行う(ステップS209)。
Subsequently, the reference edge
その後、画像照合部25および表示部6は、図3に示したステップS107,S109と同様にステップS211,S213を順次行って、制御部28は、一連の画像処理を終了する。ただし、ステップS211では、画像照合部25は、認識ラベル画像に替えて選択的統合ラベル画像を用いて処理を行う。
Thereafter, the
なお、ステップS213では、表示部6は、ステップS109に対して新たに選択的統合ラベル画像、被統合輪郭画像等を表示することができる。また、ステップS213では、表示部6は、制御部28の制御のもと、選択的統合ラベル画像中の細胞領域ごとに、仮細胞領域が選択されたか、あるいは統合結果の細胞領域が選択されたかを、文字情報もしくは画像情報として観測者に報知することができる。なお、制御部28は、ステップS203とステップS205とを処理順序を入れ換えて行ってもよい。
In step S213, the
以上説明したように、本実施の形態3にかかる画像処理装置21および画像処理プログラムでは、細胞領域の認識を行う際に、被統合輪郭画素の参照エッジ画像におけるエッジ画素値、すなわち被統合輪郭に対応するエッジ強度に応じて、認識ラベル画像内の細胞領域または仮ラベル画像内の仮細胞領域を選択して、最終的な細胞領域とするようにしているため、一層信頼性の高い細胞認識処理を実現できる。この結果、認識した細胞領域の特徴量の計測処理、細胞の追跡処理等、認識結果をもとに行われる各種処理において、一層信頼性の高い処理を可能にする。
As described above, in the
また、本実施の形態3にかかる画像処理装置21および画像処理プログラムでは、各細胞領域の認識の成否の程度を判定する際に、統合結果の細胞領域に対して、細胞領域内部を構成するすべての画素を用いる替わりに、被統合輪郭画素のみ用いて各種演算を行うようにしているため、認識信頼度判定処理の効率化および高速化を実現できる。
Further, in the
また、本実施の形態3にかかる画像処理装置21および画像処理プログラムでは、被統合輪郭に対応するエッジ強度の大きさを所定の閾値を基準に判別するようにしているため、統合結果の細胞領域に対する統合処理の妥当性、統合結果の細胞領域内のノイズ量等を評価できる。
Further, in the
(実施の形態4)
つぎに、本発明の実施の形態4について説明する。上述した実施の形態1では、認識ラベル画像と参照エッジ画像とを照合して認識信頼度を判定するようにしていたが、この実施の形態4では、さらに細胞領域に対して設定した所定の領域モデルとの適合度に応じて、各細胞領域の認識の成否の程度を判定するようにしている。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described. In the first embodiment described above, the recognition label image and the reference edge image are collated to determine the recognition reliability. However, in the fourth embodiment, a predetermined region set for the cell region is further determined. The degree of success or failure of recognition of each cell region is determined according to the degree of matching with the model.
図22は、本発明の実施の形態4にかかる画像処理装置31の構成を示すブロック図である。図22に示すように、画像処理装置31は、画像処理装置1の構成をもとに、画像照合部5および制御部8に替えて、画像照合部35および制御部38を備える。また、図23は、画像照合部35の詳細構成を示すブロック図である。図23に示すように、画像照合部35は、画像照合部5の構成をもとに、認識信頼度判定部5dに替えて認識信頼度判定部35dを備えるとともに、特徴量算出部35e、細胞モデル割当部35fおよびモデル適合度算出部35gを新たに備える。なお、実施の形態1と同一の構成部には、同一符号を付している。
FIG. 22 is a block diagram showing a configuration of the
画像照合部35は、画像照合部5と同様に、認識ラベル画像および参照エッジ画像をもとに、輪郭部エッジ成分強度平均と内部エッジ成分強度平均とを算出して、各細胞領域の認識の成否の程度の判定を行う。この処理に加えて、画像照合部35は、認識ラベル画像内の細胞領域と、あらかじめ細胞領域に対して設定された領域モデルとの適合度に応じて、各細胞領域の認識の成否の程度の判定を行う。ここで、あらかじめ設定される領域モデルは、細胞領域の形状、輝度分布等に基づいて規定されるものである。
Similar to the
より具体的には、細胞モデル割当部35fは、細胞領域に対して所定の領域モデルを設定する。モデル適合度算出部35gは、設定された領域モデルに応じて、適合度の判定基準としての閾値を設定する。一方、特徴量算出部35eは、認識ラベル画像内の各細胞領域について、領域モデルとの適合度を判定するために必要な特徴量を算出して、モデル適合度算出部35gに出力する。認識信頼度判定部35dは、モデル適合度算出部35gから取得した判定基準としての閾値と細胞領域の特徴量とを比較し、閾値と特徴量との適合度が高い場合に、この細胞領域に認識信頼度を割り当てる。また、適合度が低い場合には、認識信頼度判定部5と同様に、輪郭部エッジ成分強度平均と内部エッジ成分強度平均とに基づいて認識信頼度を割り当てる処理を行う。
More specifically, the cell
ここで、画像処理装置31が行う処理として、図3に示したステップS107に対応する認識信頼度判定処理について説明する。なお、制御部38が画像処理プログラムを実行することによって、画像処理装置31が細胞蛍光画像を処理する画像処理手順は、ステップS107を除き、図3に示した画像処理手順と同様である。
Here, as a process performed by the
図24は、画像処理装置31が行う認識信頼度判定処理の処理手順を示すフローチャートである。このフローチャートは、細胞モデル割当部35fによって円形の領域モデルが設定され、モデル適合度算出部35gによって円形度に対する閾値RoundThが設定された場合の認識信頼度判定処理を例示している。
FIG. 24 is a flowchart illustrating a processing procedure of recognition reliability determination processing performed by the
図24に示すように、まず、特徴量算出部35eは、領域モデルとの適合度を判定するために必要な特徴量として、ラベル番号Lの細胞領域の円形度RdLを算出する(ステップS221)。つづいて、認識信頼度判定部35dは、円形度RdLが閾値RoundTh以上であるか否かを判断する(ステップS223)。円形度RdLが閾値RoundTh以上である場合(ステップS223:Yes)、認識信頼度判定部35dは、ラベル番号Lの細胞領域に「認識信頼度1」を割り当てる(ステップS225)。
As shown in FIG. 24, first, the feature
円形度RdLが閾値RoundThより小さい場合(ステップS223:No)、認識ラベル画像分離部5a、輪郭部エッジ成分算出部5bおよび内部エッジ成分算出部5cは、図14に示したステップS141〜S145と同様にステップS227〜S231を実行する。そして、認識信頼度判定部35dは、輪郭部エッジ成分強度平均Vcon(L)が所定の閾値ContourThより小さく、かつ、内部エッジ成分強度平均Vin(L)が所定の閾値InnerThより大きいか否かを判断し(ステップS233)、この判断条件が満足される場合(ステップS233:Yes)、ラベル番号Lの細胞領域に「認識信頼度5」を割り当てる(ステップS235)。
When the circularity Rd L is smaller than the threshold RoundTh (step S223: No), the recognition label
ステップS233の判断条件が満足されない場合(ステップS233:No)、認識信頼度判定部35dは、内部エッジ成分強度平均Vin(L)が閾値InnerThより大きいか否かを判断し(ステップS237)、この判断条件が満足される場合(ステップS237:Yes)、ラベル番号Lの細胞領域に「認識信頼度4」を割り当てる(ステップS239)。
When the determination condition of step S233 is not satisfied (step S233: No), the recognition
ステップS237の判断条件が満足されない場合(ステップS237:No)、認識信頼度判定部35dは、輪郭部エッジ成分強度平均Vcon(L)が閾値ContourThより小さいか否かを判断し(ステップS241)、この判断条件が満足される場合(ステップS241:Yes)、ラベル番号Lの細胞領域に「認識信頼度3」を割り当てる(ステップS243)。ステップS241の判断条件が満足されない場合には(ステップS241:No)、ラベル番号Lの細胞領域に「認識信頼度2」を割り当てる(ステップS245)。
When the determination condition of step S237 is not satisfied (step S237: No), the recognition
そして、制御部38は、認識ラベル画像中のすべての細胞領域を処理したか否かを判断し(ステップS247)、すべての細胞領域を処理していない場合(ステップS247:No)、処理していない細胞領域に対してステップS221からの処理を繰り返す。一方、すべての細胞領域を処理している場合には(ステップS247:Yes)、制御部38は、認識信頼度が対応付けられた認識ラベル画像を認識信頼度判定部35dから表示部6に出力させた後、認識信頼度判定処理を終了する。なお、かかる認識信頼度判定処理手順では、制御部38は、ステップS229とステップS231とを、処理順序を入れ換えて実行させることもできる。
And the
ステップS221では、特徴量算出部35eは、細胞領域の面積S、周囲長Tを用いて、次式(17)によって、円形度RdLを算出する。
RdL=4πS/T ・・・(17)
In step S221, the feature
Rd L = 4πS / T (17)
なお、この認識信頼度判定処理では、ステップS221〜S225によって、細胞領域の領域モデルに対する適合度を優先的に判断して、円形度RdLが閾値RoundTh以上であって真円に近ければ、エッジ強度によらず適合度が高いものとして、認識の成功度が最も高いことを示す「認識信頼度1」を対応付けるようにしている。
In this recognition reliability determination process, the suitability of the cell region with respect to the region model is preferentially determined in steps S221 to S225, and if the circularity Rd L is equal to or greater than the threshold RoundTh and close to a perfect circle, an edge is determined. “
また、この認識信頼度判定処理によって認識信頼度が対応付けられた認識ラベル画像は、制御部38の制御のもと、実施の形態1と同様に、認識信頼度に応じて細胞領域ごとに識別可能に表示される。
In addition, the recognition label image associated with the recognition reliability by the recognition reliability determination process is identified for each cell region according to the recognition reliability under the control of the
つぎに、画像処理装置31が行う認識信頼度判定処理の別の一例として、細胞モデル割当部35fによって、輝度分布が凸状である領域モデルが設定された場合の、認識信頼度判定処理について説明する。この場合、例えば、モデル適合度算出部35gは、細胞領域内で輝度分布が凸状である凸状領域の細胞領域全体に対する存在比rcについて閾値ConvexityThを設定し、特徴量算出部35eは、認識ラベル画像内の各細胞領域に対して存在比rcを算出するものとする。なお、このような領域モデルおよび閾値ConvexityThの設定は、細胞蛍光画像中では、一般に細胞領域が高輝度画素の塊として現れることに基づいている。
Next, as another example of the recognition reliability determination process performed by the
より具体的には、特徴量算出部35eは、まず、認識ラベル画像中の細胞領域から凸状領域を検出する。その際、例えば図25に示すように、注目画素Pに対して対称に所定間隔Dだけ離隔した画素A,Bを参照する。そして、画素A,Bが有する輝度値IA,IBの平均輝度値IABと比較して、注目画素Pの画素値IPが大きい場合に、注目画素Pを凸状領域を構成する候補画素として検出する。特徴量算出部35eは、このような検出処理を、図26に示す4方向、すなわち、水平方向(IAhor−IBhor方向)、垂直方向(IAver−IBver方向)、右上がり斜め方向(IAsla−IBsla方向)および左下がり斜め方向(IAbac−IBbac方向)について行い、次式(18)〜(21)で示される条件をすべて満足する場合に、注目画素Pを凸状領域を構成する画素として最終的に検出する。
IP>IMhor=(IAhor+IBhor)/2 ・・・(18)
IP>IMver=(IAver+IBver)/2 ・・・(19)
IP>IMsla=(IAsla+IBsla)/2 ・・・(20)
IP>IMbac=(IAbac+IBbac)/2 ・・・(21)
More specifically, the feature
I P > I Mhor = (I Ahor + I Bhor ) / 2 (18)
I P > I Mver = (I Aver + I Bver ) / 2 (19)
I P > I Msla = (I Asla + I Bsla ) / 2 (20)
I P > I Mbac = (I Abac + I Bbac ) / 2 (21)
つづいて、特徴量算出部35eは、認識ラベル画像中のすべての画素について、凸状領域を構成する画素であるか否かを判別し、凸状領域の輝度凸の大きさを記録した輝度凸画像を生成する。ここで、注目画素Pにおける輝度凸の大きさCPは、次式(22)によって算出される。
CP=((IP−IMhor)+(IP−IMver)+(IP−IMsla)+(IP−IMbac))/4 ・・・(22)
Subsequently, the feature
C P = ((I P −I Mhor ) + (I P −I Mver ) + (I P −I Msla ) + (I P −I Mbac )) / 4 (22)
その後、特徴量算出部35eは、輝度凸画像中の各画素の値が所定の閾値より大きいか否かを判別し、大きい場合に「1」、大きくない場合に「0」として2値化した輝度凸2値化画像を生成する。そして、認識ラベル画像内のラベル番号Lの細胞領域について、細胞領域を構成する画素に対応する輝度凸2値化画像での値が「1」である画素数nLを算出し、算出した画素数nLと、この細胞領域の面積SLとを用いて、次式(23)によって、存在比rc(L)を算出する。
rc(L)=nL/SL ・・・(23)
After that, the feature
r c (L) = n L / S L (23)
認識信頼判定処理手順としては、図24に示したフローチャートをもとに、特徴量算出部35eは、ステップS221に替えて、ラベル番号Lの細胞領域の存在比rc(L)を算出し、認識信頼度判定部35dは、ステップS223に替えて、存在比rc(L)が閾値ConvexityThより大きいか否かを判断するように処理内容を変更すればよい。これによって、輝度分布が凸状である領域モデルに対する適合度が高いと判断される細胞領域に「認識信頼度1」を割り当てることができる。
As the recognition reliability determination processing procedure, the feature
以上説明したように、本実施の形態4にかかる画像処理装置31および画像処理プログラムでは、細胞領域の形状、輝度分布等に基づいて規定した領域モデルを設定し、領域モデルに対する細胞領域の適合度を優先的に判断して、適合度の高い細胞領域に対して高い認識信頼度を対応付けるようにしているため、領域モデルに適合した認識の成功度の高い細胞領域を効率的に判別することができる。また、領域モデルに適合した認識の成功度の高い細胞領域を、他の細胞領域と区別して表示することが可能であって、観測者に容易に識別可能とすることができる。
As described above, in the
なお、上述した実施の形態1〜4では、画素値として特に輝度値を扱ったが、輝度値に限定して解釈する必要はなく、本発明における画素値には、濃淡値、階調値、強度値等が含まれる。そして、本発明にかかる画像処理装置は、処理する画像の性質に応じて、画素値としての値をかかる各種の値の中から適宜選択して処理することが可能である。
In
1,11,21,31 画像処理装置
2 画像取得部
3,23 細胞認識部
3a 平滑部
3b 勾配方向算出部
3c 到達極値算出部
3d 領域統合部
3e,23e−1,23e−2 背景除去部
3f,23f−1,23f−2 標識部
4 参照エッジ画像生成部
4a 平滑部
4b 構造保存平滑部
4c エッジ抽出部
4d 輪郭強調部
4e 階調変換部
5,25,35 画像照合部
5a 認識ラベル画像分離部
5b 輪郭部エッジ成分演算部
5c 内部エッジ成分演算部
5d,35d 認識信頼度判定部
6 表示部
7 記憶部
8,18,28,38 制御部
19 細胞追跡部
29 被統合輪郭抽出部
30 選択的統合ラベル画像生成部
35e 特徴量算出部
35f 細胞モデル割当部
35g モデル適合度算出部
AR1〜AR4 細胞領域
FT1〜FT4 方向フィルタ
DESCRIPTION OF
Claims (18)
前記認識処理による認識の成否の程度を前記対象領域ごとに判定する認識信頼度判定手段を備えたことを特徴とする画像処理装置。 In an image processing apparatus that performs recognition processing for recognizing a target area that is an image area corresponding to an observation target from among input observation images,
An image processing apparatus comprising: a recognition reliability determination unit that determines the degree of success or failure of recognition by the recognition process for each target region.
前記仮領域認識手段によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手段と、
前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手段と、
をさらに備えたことを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。 Temporary area recognition means for recognizing a temporary target area from the observed image;
An area in which the adjacent temporary target areas are integrated to form an integrated area based on a feature amount indicating a feature between adjacent temporary target areas from among the temporary target areas recognized by the temporary area recognition unit. Integration means;
The temporary target area or the integrated area is set as the target area according to an edge pixel value of a pixel in the edge image corresponding to a boundary pixel included in a boundary line between the integrated temporary target areas in the integrated area. Selective area recognition means for recognizing;
The image processing apparatus according to claim 1, further comprising:
前記仮領域認識手段によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手段と、
前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手段と、
をさらに備え、
前記認識信頼度判定手段は、前記境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値を、前記領域内エッジ強度として前記認識処理による認識の成否の程度を判定することを特徴とする請求項3に記載の画像処理装置。 Temporary area recognition means for recognizing a temporary target area from the observed image;
An area in which the adjacent temporary target areas are integrated to form an integrated area based on a feature amount indicating a feature between adjacent temporary target areas from among the temporary target areas recognized by the temporary area recognition unit. Integration means;
The temporary target area or the integrated area is set as the target area according to an edge pixel value of a pixel in the edge image corresponding to a boundary pixel included in a boundary line between the integrated temporary target areas in the integrated area. Selective area recognition means for recognizing;
Further comprising
The recognition reliability determination means determines the degree of success or failure of recognition by the recognition process using an edge pixel value of a pixel in the edge image corresponding to the boundary pixel as an edge strength in the region. The image processing apparatus according to claim 3.
前記観測時点の異なる観測画像間の前記観測対象の同一性を判別する対象追跡手段をさらに備え、前記対象追跡手段は、前記認識信頼度判定手段で判定した前記認識処理による認識の成否の程度を、前記観測対象の同一性の判別に反映させることを特徴とする請求項1〜8のいずれか一つに記載の画像処理装置。 The observation image includes a plurality of images taken at different observation time points,
It further comprises a target tracking unit that determines the identity of the observation target between observation images at different observation points, and the target tracking unit determines the degree of success or failure of recognition by the recognition process determined by the recognition reliability determination unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is reflected in determination of identity of the observation target.
前記画像処理装置に、
前記認識処理による認識の成否の程度を前記対象領域ごとに判定する認識信頼度判定手順を実行させることを特徴とする画像処理プログラム。 In an image processing program for causing an image processing apparatus that performs recognition processing to recognize a target region that is an image region corresponding to an observation target from among input observation images,
In the image processing apparatus,
An image processing program for executing a recognition reliability determination procedure for determining the degree of success or failure of recognition by the recognition processing for each target area.
前記仮領域認識手順によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手順と、
前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手順と、
をさらに実行させることを特徴とする請求項12〜14のいずれか一つに記載の画像処理プログラム。 A temporary area recognition procedure for recognizing a temporary target area from the observed image;
An area in which the adjacent temporary target areas are integrated to form an integrated area based on a feature amount indicating a feature between adjacent temporary target areas from among the temporary target areas recognized by the temporary area recognition procedure. Integration procedures and
The temporary target area or the integrated area is set as the target area according to an edge pixel value of a pixel in the edge image corresponding to a boundary pixel included in a boundary line between the integrated temporary target areas in the integrated area. Selective area recognition procedure to recognize;
The image processing program according to any one of claims 12 to 14, wherein the image processing program is further executed.
前記仮領域認識手順によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手順と、
前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手順と、
をさらに実行させ、
前記認識信頼度判定手順は、前記境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値を、前記領域内エッジ強度として前記認識処理による認識の成否の程度を判定することを特徴とする請求項14に記載の画像処理プログラム。 A temporary area recognition procedure for recognizing a temporary target area from the observed image;
An area in which the adjacent temporary target areas are integrated to form an integrated area based on a feature amount indicating a feature between adjacent temporary target areas from among the temporary target areas recognized by the temporary area recognition procedure. Integration procedures and
The temporary target area or the integrated area is set as the target area according to an edge pixel value of a pixel in the edge image corresponding to a boundary pixel included in a boundary line between the integrated temporary target areas in the integrated area. Selective area recognition procedure to recognize;
Is executed further,
In the recognition reliability determination procedure, the degree of success or failure of recognition by the recognition process is determined using an edge pixel value of a pixel in the edge image corresponding to the boundary pixel as an edge strength in the region. The image processing program according to claim 14.
前記観測時点の異なる観測画像間の前記観測対象の同一性を判別する対象追跡手順をさらに実行させ、前記対象追跡手順は、前記認識信頼度判定手順で判定した前記認識処理による認識の成否の程度を、前記観測対象の同一性の判別に反映させることを特徴とする請求項12〜17のいずれか一つに記載の画像処理プログラム。
The observation image includes a plurality of images taken at different observation time points,
A target tracking procedure for determining the identity of the observation target between observation images at different observation points is further executed, and the target tracking procedure is a degree of success or failure of recognition by the recognition process determined in the recognition reliability determination procedure. The image processing program according to claim 12, wherein the image processing program is reflected in the determination of the identity of the observation target.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005231326A JP2007048006A (en) | 2005-08-09 | 2005-08-09 | Image processor and image processing program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005231326A JP2007048006A (en) | 2005-08-09 | 2005-08-09 | Image processor and image processing program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2007048006A true JP2007048006A (en) | 2007-02-22 |
Family
ID=37850782
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005231326A Withdrawn JP2007048006A (en) | 2005-08-09 | 2005-08-09 | Image processor and image processing program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2007048006A (en) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008216177A (en) * | 2007-03-07 | 2008-09-18 | Fuji Heavy Ind Ltd | Object detection device |
| JP2009042909A (en) * | 2007-08-07 | 2009-02-26 | Sanyo Electric Co Ltd | Feature point detection device and moving image processor mounted therewith |
| JP2010263872A (en) * | 2009-05-18 | 2010-11-25 | Olympus Corp | Cell image analyzer |
| JP2012200156A (en) * | 2011-03-23 | 2012-10-22 | Olympus Corp | Method for tracking cell |
| JP2013150557A (en) * | 2012-01-24 | 2013-08-08 | Tokyo Denki Univ | System for observation of cultured cell with multi-point lighting |
| WO2016121065A1 (en) * | 2015-01-29 | 2016-08-04 | オリンパス株式会社 | Device and method for analyzing cell |
| JP2018515743A (en) * | 2015-05-11 | 2018-06-14 | 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. | Method and apparatus for depth image processing |
| CN111950558A (en) * | 2020-08-26 | 2020-11-17 | 上海申瑞继保电气有限公司 | High-voltage oil-immersed transformer oil level image recognition method |
| CN115018415A (en) * | 2022-05-31 | 2022-09-06 | 中邮信息科技(北京)有限公司 | Express mail key information extraction method and device, electronic equipment and storage medium |
| JP2023021000A (en) * | 2021-07-29 | 2023-02-09 | 楽天グループ株式会社 | Blur-robust image segmentation |
| CN115803619A (en) * | 2020-06-10 | 2023-03-14 | 日立造船株式会社 | Information processing device, determination method, and information processing program |
| US12306086B2 (en) | 2019-11-22 | 2025-05-20 | Evident Corporation | Method for displaying cell count information, system, and computer-readable medium |
| US12529684B2 (en) | 2020-06-10 | 2026-01-20 | Kanadevia Corporation | Inspection device, inspection method, and inspection program |
-
2005
- 2005-08-09 JP JP2005231326A patent/JP2007048006A/en not_active Withdrawn
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008216177A (en) * | 2007-03-07 | 2008-09-18 | Fuji Heavy Ind Ltd | Object detection device |
| JP2009042909A (en) * | 2007-08-07 | 2009-02-26 | Sanyo Electric Co Ltd | Feature point detection device and moving image processor mounted therewith |
| JP2010263872A (en) * | 2009-05-18 | 2010-11-25 | Olympus Corp | Cell image analyzer |
| JP2012200156A (en) * | 2011-03-23 | 2012-10-22 | Olympus Corp | Method for tracking cell |
| JP2013150557A (en) * | 2012-01-24 | 2013-08-08 | Tokyo Denki Univ | System for observation of cultured cell with multi-point lighting |
| US10385300B2 (en) | 2015-01-29 | 2019-08-20 | Olympus Corporation | Cell analysis apparatus and method |
| WO2016121065A1 (en) * | 2015-01-29 | 2016-08-04 | オリンパス株式会社 | Device and method for analyzing cell |
| JPWO2016121065A1 (en) * | 2015-01-29 | 2017-11-02 | オリンパス株式会社 | Cell analysis apparatus and method |
| JP2018515743A (en) * | 2015-05-11 | 2018-06-14 | 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. | Method and apparatus for depth image processing |
| US12306086B2 (en) | 2019-11-22 | 2025-05-20 | Evident Corporation | Method for displaying cell count information, system, and computer-readable medium |
| US12529684B2 (en) | 2020-06-10 | 2026-01-20 | Kanadevia Corporation | Inspection device, inspection method, and inspection program |
| US12488574B2 (en) | 2020-06-10 | 2025-12-02 | Kanadevia Corporation | Information processing device, determination method, and information processing program |
| CN115803619A (en) * | 2020-06-10 | 2023-03-14 | 日立造船株式会社 | Information processing device, determination method, and information processing program |
| CN111950558A (en) * | 2020-08-26 | 2020-11-17 | 上海申瑞继保电气有限公司 | High-voltage oil-immersed transformer oil level image recognition method |
| CN111950558B (en) * | 2020-08-26 | 2024-02-09 | 上海申瑞继保电气有限公司 | High-pressure oil immersed transformer oil liquid level image identification method |
| JP7447191B2 (en) | 2021-07-29 | 2024-03-11 | 楽天グループ株式会社 | Image segmentation robust against blur |
| US12165310B2 (en) | 2021-07-29 | 2024-12-10 | Rakuten Group, Inc. | Blur-robust image segmentation |
| JP2023021000A (en) * | 2021-07-29 | 2023-02-09 | 楽天グループ株式会社 | Blur-robust image segmentation |
| CN115018415A (en) * | 2022-05-31 | 2022-09-06 | 中邮信息科技(北京)有限公司 | Express mail key information extraction method and device, electronic equipment and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12394036B2 (en) | Information processing device, information processing method, and storage medium | |
| CN110678901B (en) | Information processing equipment, information processing method and computer-readable storage medium | |
| EP2101296B1 (en) | Eye detecting device, eye detecting method, and program | |
| CN107230202B (en) | Method and system for automatic identification of pavement disease images | |
| CN108416344B (en) | Method for locating and identifying eyeground color optic disk and yellow spot | |
| JP6303332B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| US8073233B2 (en) | Image processor, microscope system, and area specifying program | |
| CN109684981B (en) | Identification method and equipment of cyan eye image and screening system | |
| CN114419025A (en) | Fiberboard quality evaluation method based on image processing | |
| US12156697B2 (en) | Glaucoma image recognition method and device and diagnosis system | |
| CN111914665B (en) | Face shielding detection method, device, equipment and storage medium | |
| CN104700112B (en) | Parasite egg detecting method in a kind of excrement based on morphological feature | |
| CN106651846A (en) | Segmentation method of retinal blood vessel image | |
| RU2014101665A (en) | DISPLAY DETECTION IN IMAGE DATA FRAME | |
| JP2008286725A (en) | Person detection apparatus and method | |
| JP2007048006A (en) | Image processor and image processing program | |
| CN115689970B (en) | Defect detection method and device for display panel, electronic equipment and storage medium | |
| CN114170168A (en) | Display module defect detection method, system and computer readable storage medium | |
| CN111612749B (en) | Lesion detection method and device based on lung imaging | |
| Khan et al. | Counting clustered cells using distance mapping | |
| Shambhu et al. | Edge-based segmentation for accurate detection of malaria parasites in microscopic blood smear images: a novel approach using FCM and MPP algorithms | |
| CN110246139B (en) | Method for rapidly extracting plankton in-situ image ROI (region of interest) based on double thresholds | |
| JP2017053699A (en) | Wavelength determination method for near-infrared imaging used for substance discrimination and substance discrimination method using near-infrared image | |
| CN105869147B (en) | A kind of amblyopia visual aid stray light recognition methods | |
| CN119048521A (en) | Cow milk somatic cell counting method, cow milk somatic cell counting device and computer equipment |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080801 |
|
| A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090918 |