[go: up one dir, main page]

JP2007048006A - Image processor and image processing program - Google Patents

Image processor and image processing program Download PDF

Info

Publication number
JP2007048006A
JP2007048006A JP2005231326A JP2005231326A JP2007048006A JP 2007048006 A JP2007048006 A JP 2007048006A JP 2005231326 A JP2005231326 A JP 2005231326A JP 2005231326 A JP2005231326 A JP 2005231326A JP 2007048006 A JP2007048006 A JP 2007048006A
Authority
JP
Japan
Prior art keywords
recognition
image
area
edge
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005231326A
Other languages
Japanese (ja)
Inventor
Takehiro Matsuda
岳博 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005231326A priority Critical patent/JP2007048006A/en
Publication of JP2007048006A publication Critical patent/JP2007048006A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily determine the recognition result of the object of observation according to the level of the success/failure of recognition, and to perform processing based on the recognition result according to the level of the success/failure of recognition. <P>SOLUTION: This image processor 1 is provided with a cell recognizing part 3 for recognizing an object region corresponding to the object of observation from an observation image, a reference edge image generating part 4 for generating a reference edge image by detecting an edge included in the observation image, a recognition label image separation part 5a for separating the outline part of the object region and the inside of the region, an outline part edge component calculating part 5b for calculating an outline part edge component strength average as a mean value of pixel values in the reference edge image of the outline part of the object region, an inside edge component calculating part 5c for calculating an internal edge component intensity average as the mean value of the pixel values in the reference edge image in the object region and a recognition reliability deciding part 5d for associating recognition reliability showing the level of the success/failure of the recognition for each object region based on the outline part edge component strength average and the internal edge component strength average. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、入力された画像の中から観測対象に対応する画像領域を認識する画像処理装置および画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus and an image processing program for recognizing an image region corresponding to an observation target from input images.

従来、顕微鏡等を利用して種々の細胞を標本とする観測が行われている。例えば顕微鏡を用いた生細胞の経時的な観測では、通常、複数の時点で生細胞を撮像して得た各観測画像の中から目視作業と手作業とによって個々の生細胞を抽出し、抽出した各生細胞の特徴量の経時変化を観測時点の異なる観測画像間で比較して観測するとともに、観測画像間で各生細胞を対応付けて追跡することが行われる。   Conventionally, observation using various cells as specimens using a microscope or the like has been performed. For example, when observing live cells over time using a microscope, individual live cells are usually extracted from each observation image obtained by imaging live cells at multiple time points by visual and manual operations. The time-dependent change in the feature amount of each live cell is observed by comparing between observation images at different observation points, and each live cell is correlated and tracked between the observation images.

このような従来の観測手法では、観測細胞数、観測頻度、観測範囲、観測時間等の増大にともなって観測者にかかる負荷が増大するなどの問題があった。これに対して、観測画像の中から個々の細胞に対応する細胞領域を画像処理によって自動的に抽出し、観測者への負荷を軽減する技術が提案されている(たとえば、特許文献1参照)。   Such a conventional observation method has a problem that the load on the observer increases as the number of observation cells, observation frequency, observation range, observation time, etc. increase. In contrast, a technique has been proposed in which cell regions corresponding to individual cells are automatically extracted from the observed image by image processing to reduce the load on the observer (for example, see Patent Document 1). .

特許文献1に開示されている細胞形状抽出方法では、観測画像中の細胞に対してモデルとする細胞形状を当てはめて細胞中心位置を検出し、検出した細胞中心位置の周囲の濃度勾配を求め、濃度勾配方向と各画素から細胞中心位置へ向かう方向との一致度を算出して、細胞領域の輪郭を抽出するようにしている。   In the cell shape extraction method disclosed in Patent Document 1, a cell shape as a model is applied to a cell in an observation image to detect a cell center position, and a concentration gradient around the detected cell center position is obtained. The degree of coincidence between the density gradient direction and the direction from each pixel toward the cell center position is calculated to extract the outline of the cell region.

より具体的には、まず、観測画像内の任意画素で濃度勾配方向を算出し、この任意画素から濃度勾配方向に所定半径だけ離れた画素に対して得点を与える演算処理を、観測画像内の全画素について行う。この処理の結果、細胞中心に相当する画素は、各画素からの得点が集中して高得点を得る。次に、細胞輪郭部での濃度勾配方向が細胞中心に向かうことから、細胞中心の周囲画素の濃度勾配ベクトルと、任意画素から細胞中心に向かうベクトルとの内積に基づいて、細胞領域の輪郭を示す輪郭画素の候補となる候補画素を抽出する。その後、この抽出した候補画素をもとに、動的輪郭抽出法を利用して、細胞領域の詳細な輪郭の抽出を行う。動的輪郭抽出法では、細胞中心位置を中心とする指定半径の円形の閉曲線を設定し、設定した閉曲線が候補画素と重なる場合、この候補画素の濃度勾配の大きさを減ずる。そして、閉曲線の濃度勾配の大きさの和を評価値として、閉曲線の形状を局所的に変化させながら評価値を算出し、評価値が最小となる時の閉曲線を最終的な細胞領域の輪郭とする。   More specifically, first, a calculation process that calculates a density gradient direction at an arbitrary pixel in the observation image and gives a score to a pixel separated from the arbitrary pixel in the density gradient direction by a predetermined radius is performed in the observation image. Repeat for all pixels. As a result of this processing, the pixel corresponding to the cell center obtains a high score by concentrating the scores from each pixel. Next, since the concentration gradient direction in the cell contour portion is directed toward the cell center, the contour of the cell region is determined based on the inner product of the concentration gradient vector of the surrounding pixels at the cell center and the vector from the arbitrary pixel toward the cell center. Candidate pixels that are candidates for the contour pixel to be shown are extracted. Thereafter, based on the extracted candidate pixels, a detailed outline of the cell region is extracted using a dynamic outline extraction method. In the active contour extraction method, a circular closed curve having a specified radius centered on the cell center position is set, and when the set closed curve overlaps with a candidate pixel, the density gradient of the candidate pixel is reduced. Then, the evaluation value is calculated while locally changing the shape of the closed curve using the sum of the magnitudes of the concentration gradients of the closed curve as an evaluation value, and the closed curve when the evaluation value is minimized is defined as the final contour of the cell region. To do.

また、他の領域抽出方法として、分水嶺領域分割と呼ばれる画像処理手法を用いる方法がある(たとえば、非特許文献1参照)。この領域抽出方法では、低輝度画素の集中する領域ごとに画像を分割するようにしているが、一般に細胞は高輝度画素の集合として現れるため、高輝度画素の集中する領域ごとに観測画像を分割して、細胞領域を抽出するようにしている。このため、細胞領域を抽出する場合には、手法上、輝度を反転して、高輝度領域を分割するものとして適用する。   As another area extraction method, there is a method using an image processing technique called watershed area division (see, for example, Non-Patent Document 1). In this region extraction method, the image is divided for each area where low-brightness pixels are concentrated, but since cells generally appear as a set of high-brightness pixels, the observation image is divided for each area where high-brightness pixels are concentrated. Thus, the cell region is extracted. For this reason, when extracting a cell area | region, it applies as what inverts brightness | luminance and divides a high-intensity area | region on a technique.

特許第3314759号公報Japanese Patent No. 3314759 Vincent & Soille , "Watersheds in Digital Spaces : An Efficient Algorithm Based on Immersion Simulations", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.13, NO.6, JUNE 1991Vincent & Soille, "Watersheds in Digital Spaces: An Efficient Algorithm Based on Immersion Simulations", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.13, NO.6, JUNE 1991

ところで、画像処理による細胞領域の自動抽出では、一般に完全な結果を得ることが難しく、誤った抽出結果を生じる場合が多い。例えば特許文献1に開示されている細胞形状抽出方法では、モデルとする細胞形状をもとに細胞領域の輪郭を抽出するようにしているため、モデルから逸脱した細胞形状を捉えることが困難である。また、例えば蛍光蛋白を作用させた生細胞を撮像して得た蛍光画像を観測して、生細胞に対応する細胞領域の抽出を行う場合には、ノイズや蛍光量の変動等の影響により、細胞領域を安定して検出できない場合がある。細胞領域の抽出において誤差が生じた場合、抽出結果をもとに行われる特徴量の計測や生細胞の追跡などの処理にも誤差が伝播するという問題があった。   By the way, in the automatic extraction of a cell region by image processing, it is generally difficult to obtain a complete result, and an erroneous extraction result often occurs. For example, in the cell shape extraction method disclosed in Patent Document 1, since the outline of a cell region is extracted based on the cell shape as a model, it is difficult to capture the cell shape deviating from the model. . In addition, for example, when observing a fluorescent image obtained by imaging a living cell on which a fluorescent protein is allowed to act and extracting a cell region corresponding to the living cell, due to the influence of noise and fluctuations in the amount of fluorescence, The cell region may not be detected stably. When an error occurs in the extraction of the cell region, there is a problem that the error propagates to processing such as measurement of the feature amount and tracking of the living cell performed based on the extraction result.

本発明は、上記に鑑みてなされたものであって、観測画像の中から観測対象に対応する領域を自動的に認識する認識処理において、認識の成否の程度を評価した評価結果を対応付けて認識結果を生成することができ、この結果、認識結果を認識の成否の程度に応じて容易に識別可能にするとともに、認識結果に基づく処理を認識の成否の程度に応じて処理可能にする画像処理装置および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and in a recognition process for automatically recognizing a region corresponding to an observation object from an observation image, an evaluation result obtained by evaluating the degree of success or failure of the recognition is correlated. A recognition result can be generated. As a result, the recognition result can be easily identified according to the degree of recognition success, and the processing based on the recognition result can be processed according to the degree of recognition success. It is an object to provide a processing device and an image processing program.

上記の目的を達成するために、請求項1にかかる画像処理装置は、入力された観測画像の中から観測対象に対応する画像領域である対象領域を認識する認識処理を行う画像処理装置において、前記認識処理による認識の成否の程度を前記対象領域ごとに判定する認識信頼度判定手段を備えたことを特徴とする。   In order to achieve the above object, an image processing apparatus according to claim 1 is an image processing apparatus that performs recognition processing for recognizing a target area that is an image area corresponding to an observation target from input observation images. A recognition reliability determination unit that determines the degree of success or failure of recognition by the recognition process for each target region is provided.

また、請求項2にかかる画像処理装置は、上記の発明において、前記認識信頼度判定手段は、前記観測画像に含まれるエッジを検出したエッジ画像の各画素が有するエッジ画素値を用いて前記認識処理による認識の成否の程度を判定することを特徴とする。   In the image processing apparatus according to claim 2, in the above invention, the recognition reliability determination unit uses the edge pixel value of each pixel of the edge image in which the edge included in the observation image is detected. It is characterized by determining the degree of success or failure of recognition by processing.

また、請求項3にかかる画像処理装置は、上記の発明において、前記認識信頼度判定手段は、前記対象領域の輪郭部に含まれる輪郭画素に対応する前記エッジ画像内の画素が有するエッジ画素値である輪郭エッジ強度と、前記対象領域の輪郭部を除く領域内部に含まれる内部画素に対応する前記エッジ画像内の画素が有するエッジ画素値である領域内エッジ強度と、を用いて前記認識処理による認識の成否の程度を判定することを特徴とする。   In the image processing apparatus according to claim 3, in the above invention, the recognition reliability determination unit includes an edge pixel value included in a pixel in the edge image corresponding to a contour pixel included in a contour portion of the target region. The recognition processing using the edge strength of the edge and the edge strength in the region that is the edge pixel value of the pixel in the edge image corresponding to the inner pixel included in the region excluding the contour portion of the target region. It is characterized in that the degree of success or failure of recognition is determined.

また、請求項4にかかる画像処理装置は、上記の発明において、前記観測画像の中から仮対象領域を認識する仮領域認識手段と、前記仮領域認識手段によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手段と、前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手段と、をさらに備えたことを特徴とする。   According to a fourth aspect of the present invention, in the above invention, a temporary area recognition unit for recognizing a temporary target area from the observed image, and a temporary target area recognized by the temporary area recognition unit. From the region integration means for forming the integrated region by integrating the adjacent temporary target regions based on the feature amount indicating the feature between the adjacent temporary target regions, and between the integrated temporary target regions in the integrated region Selective area recognition means for recognizing the temporary target area or the integrated area as the target area according to an edge pixel value of a pixel in the edge image corresponding to the boundary pixel included in the boundary line of It is characterized by having.

また、請求項5にかかる画像処理装置は、上記の発明において、前記観測画像の中から仮対象領域を認識する仮領域認識手段と、前記仮領域認識手段によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手段と、前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手段と、をさらに備え、前記認識信頼度判定手段は、前記境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値を、前記領域内エッジ強度として前記認識処理による認識の成否の程度を判定することを特徴とする。   According to a fifth aspect of the present invention, in the above invention, a temporary area recognition unit that recognizes a temporary target area from the observed image, and a temporary target area recognized by the temporary area recognition unit. From the region integration means for forming the integrated region by integrating the adjacent temporary target regions based on the feature amount indicating the feature between the adjacent temporary target regions, and between the integrated temporary target regions in the integrated region Selective area recognition means for recognizing the temporary target area or the integrated area as the target area according to an edge pixel value of a pixel in the edge image corresponding to the boundary pixel included in the boundary line of The recognition reliability determination means uses the edge pixel value of the pixel in the edge image corresponding to the boundary pixel as the in-region edge strength, and the degree of success or failure of recognition by the recognition process And judging.

また、請求項6にかかる画像処理装置は、上記の発明において、前記認識信頼度判定手段は、前記認識処理によって認識された対象領域と、あらかじめ設定された領域モデルとの適合度を用いて前記認識処理による認識の成否の程度を判定することを特徴とする。   In the image processing apparatus according to claim 6, in the above invention, the recognition reliability determination unit uses the matching degree between the target area recognized by the recognition process and a preset area model. It is characterized by determining the degree of success or failure of recognition by the recognition process.

また、請求項7にかかる画像処理装置は、上記の発明において、前記領域モデルは、前記観測対象の形状または輝度分布に基づいて規定されることを特徴とする。   According to a seventh aspect of the present invention, in the above invention, the region model is defined based on the shape or luminance distribution of the observation target.

また、請求項8にかかる画像処理装置は、上記の発明において、前記認識処理によって認識された各対象領域を前記認識信頼度判定手段の判定結果に応じた態様で表示する制御を行う表示制御手段をさらに備えたことを特徴とする。   According to an eighth aspect of the present invention, there is provided the image processing apparatus according to the above invention, wherein the display control means performs control to display each target region recognized by the recognition processing in a mode according to the determination result of the recognition reliability determination means. Is further provided.

また、請求項9にかかる画像処理装置は、上記の発明において、前記観測画像は、異なる観測時点に撮像された複数の画像を含み、前記観測時点の異なる観測画像間の前記観測対象の同一性を判別する対象追跡手段をさらに備え、前記対象追跡手段は、前記認識信頼度判定手段で判定した前記認識処理による認識の成否の程度を、前記観測対象の同一性の判別に反映させることを特徴とする。   In the image processing apparatus according to claim 9, in the above invention, the observation image includes a plurality of images taken at different observation time points, and the observation object is identical between the observation images at different observation time points. The object tracking means further includes a target tracking means for reflecting the degree of success or failure of recognition by the recognition processing determined by the recognition reliability determination means in the determination of the identity of the observation target. And

また、請求項10にかかる画像処理装置は、上記の発明において、前記認識信頼度判定手段によって認識の成功度が低いと判定された前記対象領域に対応させて、認識の成功度が低い旨の警告情報を報知する制御を行う報知制御手段をさらに備えたことを特徴とする。   According to a tenth aspect of the present invention, there is provided the image processing apparatus according to the above invention, wherein the recognition success level is low in correspondence with the target region that is determined to have a low recognition success level by the recognition reliability determination unit. The information processing device further includes notification control means for performing control for notifying warning information.

また、請求項11にかかる画像処理装置は、上記の発明において、前記観測対象は、細胞であることを特徴とする。   The image processing apparatus according to claim 11 is characterized in that, in the above invention, the observation object is a cell.

また、請求項12にかかる画像処理プログラムは、入力された観測画像の中から観測対象に対応する画像領域である対象領域を認識する認識処理を行う画像処理装置に、前記認識処理を行わせるための画像処理プログラムにおいて、前記画像処理装置に、前記認識処理による認識の成否の程度を前記対象領域ごとに判定する認識信頼度判定手順を実行させることを特徴とする。   According to a twelfth aspect of the present invention, there is provided an image processing program for causing an image processing apparatus that performs recognition processing for recognizing a target region that is an image region corresponding to an observation target from the input observation images to perform the recognition processing. In the image processing program, the image processing apparatus is caused to execute a recognition reliability determination procedure for determining the degree of success or failure of recognition by the recognition processing for each target region.

また、請求項13にかかる画像処理プログラムは、上記の発明において、前記認識信頼度判定手順は、前記観測画像に含まれるエッジを検出したエッジ画像の各画素が有するエッジ画素値を用いて前記認識処理による認識の成否の程度を判定することを特徴とする。   In the image processing program according to claim 13, in the above invention, the recognition reliability determination procedure uses the edge pixel value of each pixel of the edge image in which an edge included in the observation image is detected. It is characterized by determining the degree of success or failure of recognition by processing.

また、請求項14にかかる画像処理プログラムは、上記の発明において、前記認識信頼度判定手順は、前記対象領域の輪郭部に含まれる輪郭画素に対応する前記エッジ画像内の画素が有するエッジ画素値である輪郭エッジ強度と、前記対象領域の輪郭部を除く領域内部に含まれる内部画素に対応する前記エッジ画像内の画素が有するエッジ画素値である領域内エッジ強度と、を用いて前記認識処理による認識の成否の程度を判定することを特徴とする。   In the image processing program according to claim 14, in the above invention, the recognition reliability determination procedure includes an edge pixel value included in a pixel in the edge image corresponding to a contour pixel included in a contour portion of the target region. The recognition processing using the edge strength of the edge and the edge strength in the region that is the edge pixel value of the pixel in the edge image corresponding to the inner pixel included in the region excluding the contour portion of the target region. It is characterized in that the degree of success or failure of recognition is determined.

また、請求項15にかかる画像処理プログラムは、上記の発明において、前記観測画像の中から仮対象領域を認識する仮領域認識手順と、前記仮領域認識手順によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手順と、前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手順と、をさらに実行させることを特徴とする。   According to a fifteenth aspect of the present invention, there is provided an image processing program according to the above invention, wherein a temporary region recognition procedure for recognizing a temporary target region from the observed image, and a temporary target region recognized by the temporary region recognition procedure. From the region integration procedure for forming the integrated region by integrating the adjacent temporary target regions based on the feature amount indicating the feature between the adjacent temporary target regions, and between the integrated temporary target regions in the integrated region A selective region recognition procedure for recognizing the temporary target region or the integrated region as the target region according to an edge pixel value of a pixel in the edge image corresponding to a boundary pixel included in the boundary line of It is made to perform.

また、請求項16にかかる画像処理プログラムは、上記の発明において、前記観測画像の中から仮対象領域を認識する仮領域認識手順と、前記仮領域認識手順によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手順と、前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手順と、をさらに実行させ、前記認識信頼度判定手順は、前記境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値を、前記領域内エッジ強度として前記認識処理による認識の成否の程度を判定することを特徴とする。   According to a sixteenth aspect of the present invention, there is provided an image processing program according to the above invention, wherein a temporary region recognition procedure for recognizing a temporary target region from the observed image, and a temporary target region recognized by the temporary region recognition procedure. From the region integration procedure for forming the integrated region by integrating the adjacent temporary target regions based on the feature amount indicating the feature between the adjacent temporary target regions, and between the integrated temporary target regions in the integrated region A selective region recognition procedure for recognizing the temporary target region or the integrated region as the target region according to an edge pixel value of a pixel in the edge image corresponding to a boundary pixel included in the boundary line of The recognition reliability determination procedure is executed to recognize an edge pixel value of a pixel in the edge image corresponding to the boundary pixel as the in-region edge strength by the recognition process. And judging a degree of success.

また、請求項17にかかる画像処理プログラムは、上記の発明において、前記認識信頼度判定手順は、前記認識処理によって認識された対象領域と、あらかじめ設定された領域モデルとの適合度を用いて前記認識処理による認識の成否の程度を判定することを特徴とする。   The image processing program according to claim 17 is the image processing program according to the above invention, wherein the recognition reliability determination procedure uses the matching degree between the target area recognized by the recognition process and a preset area model. It is characterized by determining the degree of success or failure of recognition by the recognition process.

また、請求項18にかかる画像処理プログラムは、上記の発明において、前記観測画像は、異なる観測時点に撮像された複数の画像を含み、前記観測時点の異なる観測画像間の前記観測対象の同一性を判別する対象追跡手順をさらに実行させ、前記対象追跡手順は、前記認識信頼度判定手順で判定した前記認識処理による認識の成否の程度を、前記観測対象の同一性の判別に反映させることを特徴とする。   The image processing program according to claim 18 is the above invention, wherein the observation image includes a plurality of images taken at different observation time points, and the observation object is identical between the observation images at different observation time points. The target tracking procedure is further executed, and the target tracking procedure reflects the success or failure of recognition by the recognition processing determined in the recognition reliability determination procedure in the determination of the identity of the observation target. Features.

本発明にかかる画像処理装置および画像処理プログラムによれば、観測画像の中から観測対象に対応する領域を自動的に認識する認識処理において、認識の成否の程度を評価した評価結果を対応付けて認識結果を生成することができ、この結果、認識結果を認識の成否の程度に応じて容易に識別可能にするとともに、認識結果に基づく処理を認識の成否の程度に応じて処理可能にする。   According to the image processing apparatus and the image processing program according to the present invention, in the recognition processing for automatically recognizing the region corresponding to the observation target from the observation image, the evaluation result that evaluates the degree of success or failure of the recognition is associated A recognition result can be generated. As a result, the recognition result can be easily identified according to the degree of success or failure of the recognition, and processing based on the recognition result can be processed according to the degree of success or failure of the recognition.

以下、添付図面を参照して、本発明にかかる画像処理装置および画像処理プログラムの好適な実施の形態を詳細に説明する。なお、この実施の形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付している。   Exemplary embodiments of an image processing apparatus and an image processing program according to the present invention are explained in detail below with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment. In the description of the drawings, the same parts are denoted by the same reference numerals.

(実施の形態1)
まず、本発明の実施の形態1にかかる画像処理装置および画像処理プログラムについて説明する。図1は、本実施の形態1にかかる画像処理装置1の構成を示すブロック図である。また、図2は、図1に示す画像照合部5の詳細構成を示すブロック図である。
(Embodiment 1)
First, an image processing apparatus and an image processing program according to the first embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating a configuration of the image processing apparatus 1 according to the first embodiment. FIG. 2 is a block diagram showing a detailed configuration of the image matching unit 5 shown in FIG.

図1に示すように、画像処理装置1は、観測対象とする細胞を記録した観測画像を取得する画像取得部2と、観測画像の中から細胞に対応する画像領域である細胞領域を認識する細胞認識処理を行う細胞認識部3と、観測画像に含まれるエッジを検出したエッジ画像としての参照エッジ画像を生成する参照エッジ画像生成部4と、参照エッジ画像を用いて、細胞認識処理による認識の成否の程度を細胞領域ごとに判定する画像照合部5と、画像表示等の各種情報の表示を行う表示部6と、画像等の各種情報を記憶する記憶部7と、画像処理装置1の各部の処理および動作を制御する制御部8と、を備える。画像取得部2、細胞認識部3、参照エッジ画像生成部4、画像照合部5、表示部6および記憶部7は、制御部8に電気的に接続されている。   As illustrated in FIG. 1, the image processing apparatus 1 recognizes a cell region that is an image region corresponding to a cell from an image acquisition unit 2 that acquires an observation image in which a cell to be observed is recorded, and the observation image. Recognition by cell recognition processing using a cell recognition unit 3 that performs cell recognition processing, a reference edge image generation unit 4 that generates a reference edge image as an edge image in which an edge included in an observed image is detected, and a reference edge image Of the image collation unit 5 that determines the degree of success or failure for each cell region, a display unit 6 that displays various types of information such as image display, a storage unit 7 that stores various types of information such as images, and the like. And a control unit 8 that controls processing and operation of each unit. The image acquisition unit 2, cell recognition unit 3, reference edge image generation unit 4, image collation unit 5, display unit 6 and storage unit 7 are electrically connected to the control unit 8.

画像取得部2は、USB、IEEE1394等の通信用インターフェース、フラッシュメモリ、CD、DVD、ハードディスク等の携帯型記憶媒体に対応するインターフェースなどの各種インターフェースを備え、インターフェースを介して外部装置から観測画像を取得する。なお、画像取得部2は、撮像レンズ、CCD等の撮像素子およびA/D変換器を用いて実現される撮像装置を備え、この撮像装置が撮像して生成した観測画像を取得するようにしてもよい。この場合、画像取得部2が備える撮像装置には、デジタルカメラ、顕微鏡、視覚センサ等、デジタル画像を生成可能な各種形態の撮像装置が適用できる。画像取得部2は、取得した観測画像を細胞認識部3および参照エッジ画像生成部4に出力する。また、画像取得部2は、観測画像を記憶部7に出力して記憶させることもできる。   The image acquisition unit 2 includes various interfaces such as a communication interface such as USB and IEEE1394, and an interface corresponding to a portable storage medium such as a flash memory, a CD, a DVD, and a hard disk, and an observation image is received from an external device via the interface. get. The image acquisition unit 2 includes an imaging device realized by using an imaging lens, an imaging element such as a CCD, and an A / D converter, and acquires an observation image generated by imaging by the imaging device. Also good. In this case, various types of imaging devices capable of generating digital images, such as a digital camera, a microscope, and a visual sensor, can be applied to the imaging device included in the image acquisition unit 2. The image acquisition unit 2 outputs the acquired observation image to the cell recognition unit 3 and the reference edge image generation unit 4. In addition, the image acquisition unit 2 can output the observation image to the storage unit 7 for storage.

ここで、画像取得部2が取得する観測画像は、一例として、あらかじめ蛍光色素によって染色された生体組織中の細胞を撮像した細胞蛍光画像である。かかる細胞蛍光画像では、色素の作用した細胞の該当部位が明るく観測される。すなわち、細胞蛍光画像中の細胞領域は、高輝度画素の集中した画像領域として存在する。なお、細胞の染色は、細胞全体を染色するものであってもよく、あるいは細胞核、アクチン、細胞膜等の特定部位のみを染色するものであってもよい。また、染色に用いる色素は、蛍光色素に限定されるものではなく、細胞のコントラストを一層鮮明にするものであって、コントラストの他に細胞の特性を変質させないものであれば任意の色素でよい。すなわち、観測対象である細胞を記録した対象画像としての細胞画像は、細胞蛍光画像に限定されず、各種の細胞染色画像でよい。   Here, as an example, the observation image acquired by the image acquisition unit 2 is a cell fluorescence image obtained by imaging cells in a biological tissue that has been stained with a fluorescent dye in advance. In such a cell fluorescence image, the corresponding part of the cell on which the dye acts is observed brightly. That is, the cell region in the cell fluorescence image exists as an image region where high luminance pixels are concentrated. The cell staining may be for staining the entire cell, or for staining only a specific site such as the cell nucleus, actin, or cell membrane. The dye used for staining is not limited to a fluorescent dye, and any dye may be used as long as it further enhances cell contrast and does not alter cell characteristics in addition to contrast. . That is, the cell image as the target image in which the cells to be observed are recorded is not limited to the cell fluorescence image, and may be various cell-stained images.

また、画像取得部2が取得する観測画像は、モノクロ画像、カラー画像、色差画像等、観測対象が識別できる画像であれば任意形態の画像でよい。さらに、観測画像に記録される観測対象は、細胞に限定して解釈する必要はなく、車両等の物体、人物、動物など任意でよい。   The observation image acquired by the image acquisition unit 2 may be an arbitrary image as long as the observation target can be identified, such as a monochrome image, a color image, or a color difference image. Furthermore, the observation target recorded in the observation image need not be interpreted as being limited to cells, and may be any object such as a vehicle, a person, or an animal.

細胞認識部3は、平滑部3a、勾配方向算出部3b、到達極値算出部3c、領域統合部3d、背景除去部3eおよび標識部3fを備え、画像取得部2から取得した細胞蛍光画像の中から細胞領域を抽出して認識し、認識結果を示す認識ラベル画像を生成する。   The cell recognition unit 3 includes a smoothing unit 3a, a gradient direction calculation unit 3b, a reaching extreme value calculation unit 3c, a region integration unit 3d, a background removal unit 3e, and a labeling unit 3f. A cell region is extracted from the inside and recognized, and a recognition label image indicating the recognition result is generated.

ここで、平滑部3aは、細胞蛍光画像を平滑化して画像中の輝度ムラを低減する。勾配方向算出部3bは、平滑化された細胞蛍光画像内の各画素の輝度(画素値)の勾配方向を算出するとともに、輝度の極大値を示す極値画素を検出する。勾配方向は、処理対象の画素から、この処理対象の画素に隣接する画素のうち最も輝度値の大きな画素に向かう方向として定義される。到達極値算出部3cは、勾配方向と極値画素とをもとに、細胞蛍光画像を仮細胞領域に領域分割した仮ラベル画像を生成する。領域統合部3dは、細胞蛍光画像中の細胞の輪郭形状に整合するように、仮ラベル画像の隣接した仮細胞領域を統合して、対象領域としての細胞領域を成形する。背景除去部3eは、細胞蛍光画像中の輝度値の小さい画素を、背景を示す背景画素として細胞領域から除去する。標識部3fは、細胞領域ごとに固有の領域標識を付与した認識ラベル画像を生成する。   Here, the smoothing unit 3a smoothes the cell fluorescence image to reduce luminance unevenness in the image. The gradient direction calculation unit 3b calculates the gradient direction of the luminance (pixel value) of each pixel in the smoothed cell fluorescence image, and detects an extreme pixel indicating the maximum value of luminance. The gradient direction is defined as a direction from a pixel to be processed toward a pixel having the highest luminance value among pixels adjacent to the pixel to be processed. The ultimate value calculation unit 3c generates a temporary label image obtained by dividing the cell fluorescence image into temporary cell regions based on the gradient direction and the extreme pixel. The region integration unit 3d integrates adjacent temporary cell regions of the temporary label image so as to match the outline shape of the cells in the cell fluorescence image, and forms a cell region as a target region. The background removal unit 3e removes a pixel having a small luminance value in the cell fluorescence image from the cell region as a background pixel indicating the background. The labeling unit 3f generates a recognition label image in which a unique region label is assigned to each cell region.

また、細胞認識部3は、生成した認識ラベル画像を画像照合部5に出力する。なお、細胞認識部3は、生成した認識ラベル画像を、制御部8を介して記憶部7に出力して記憶させることもできる。また、細胞認識部3は、記憶部7に記憶された細胞蛍光画像を取得して認識ラベル画像を生成することもできる。   In addition, the cell recognition unit 3 outputs the generated recognition label image to the image matching unit 5. The cell recognizing unit 3 can also output and store the generated recognition label image to the storage unit 7 via the control unit 8. The cell recognition unit 3 can also generate a recognition label image by acquiring the cell fluorescence image stored in the storage unit 7.

参照エッジ画像生成部4は、平滑部4a、構造保存平滑部4b、エッジ抽出部4c、輪郭強調部4dおよび階調変換部4eを備え、画像取得部2から取得した細胞蛍光画像に含まれるエッジを検出して参照エッジ画像を生成する。   The reference edge image generation unit 4 includes a smoothing unit 4a, a structure preserving smoothing unit 4b, an edge extracting unit 4c, an outline emphasizing unit 4d, and a gradation converting unit 4e, and includes an edge included in the cell fluorescence image acquired from the image acquiring unit 2 To generate a reference edge image.

ここで、平滑部4aは、細胞蛍光画像を平滑化して画像中の輝度ムラを低減する。構造保存平滑部4bは、平滑部4aによって平滑化された細胞蛍光画像に対し、細胞領域の輪郭部に対応する輝度値の谷を残しながら、細胞領域内部のノイズである微小な輝度値の谷を減少させる平滑化処理をさらに行う。エッジ抽出部4cは、構造保存平滑部4bによって平滑化された細胞蛍光画像の中から、細胞領域と背景との境界あるいは細胞領域同士の境界等を示す輝度値の変動をエッジとして検出したエッジ画像を生成する。輪郭強調部4dは、エッジ画像内に含まれるエッジのうち、細胞領域内部のエッジ成分を弱め、細胞領域の輪郭部のエッジ成分を強調する。階調変換部4eは、輪郭強調部4dによって処理されたエッジ画像をもとに、弱いエッジをより弱めるように階調変換を行って参照エッジ画像を生成する。   Here, the smoothing unit 4a smoothes the cell fluorescence image to reduce luminance unevenness in the image. The structure preserving smoothing unit 4b leaves a valley of luminance values corresponding to the outline of the cell region in the cell fluorescence image smoothed by the smoothing unit 4a, and a valley of minute luminance values that are noise inside the cell region. Further smoothing is performed to reduce. The edge extraction unit 4c detects, from the cell fluorescence image smoothed by the structure preserving smoothing unit 4b, a luminance value change indicating the boundary between the cell region and the background or between the cell regions as an edge. Is generated. The contour emphasizing unit 4d weakens the edge component inside the cell region among the edges included in the edge image, and emphasizes the edge component of the contour portion of the cell region. The gradation converting unit 4e performs gradation conversion so as to weaken weak edges based on the edge image processed by the contour emphasizing unit 4d to generate a reference edge image.

また、参照エッジ画像生成部4は、生成した参照エッジ画像を画像照合部5に出力する。なお、参照エッジ画像生成部4は、生成した参照エッジ画像を、制御部8を介して記憶部7に出力して記憶させることもできる。また、参照エッジ画像生成部4は、記憶部7に記憶された細胞蛍光画像を取得して参照エッジ画像を生成することもできる。   Further, the reference edge image generation unit 4 outputs the generated reference edge image to the image matching unit 5. Note that the reference edge image generation unit 4 can also output and store the generated reference edge image to the storage unit 7 via the control unit 8. The reference edge image generation unit 4 can also acquire a cell fluorescence image stored in the storage unit 7 and generate a reference edge image.

画像照合部5は、図2に示すように、認識ラベル画像分離部5a、輪郭部エッジ成分演算部5b、内部エッジ成分演算部5cおよび認識信頼度判定部5dを備え、参照エッジ画像の各画素が有するエッジ画素値を用いて、細胞認識部3によって認識された細胞領域ごとに認識信頼度を対応付ける。   As shown in FIG. 2, the image matching unit 5 includes a recognition label image separation unit 5a, a contour edge component calculation unit 5b, an internal edge component calculation unit 5c, and a recognition reliability determination unit 5d, and each pixel of the reference edge image Is associated with each cell region recognized by the cell recognition unit 3 using the edge pixel value of the.

ここで、認識ラベル画像分離部5aは、細胞認識部3によって生成された認識ラベル画像から細胞領域の輪郭部と領域内部とを分離し、輪郭部を抽出した輪郭部ラベル画像と、領域内部を抽出した内部ラベル画像とを生成する。輪郭部エッジ成分演算部5bは、輪郭部ラベル画像に示される細胞領域の輪郭部に含まれる輪郭画素に対応する、参照エッジ画像内の画素が有するエッジ画素値の平均値である輪郭部エッジ成分強度平均を算出する。内部エッジ成分演算部5cは、内部ラベル画像に示される細胞領域内部に含まれる内部画素に対応する、参照エッジ画像内の画素が有するエッジ画素値の平均値である内部エッジ成分強度平均を算出する。認識信頼度判定部5dは、輪郭部エッジ成分強度平均と内部エッジ成分強度平均とに基づいて、細胞認識部3で認識した各細胞領域について、その認識の成否の程度を判定する。   Here, the recognition label image separation unit 5a separates the contour part of the cell region from the inside of the region from the recognition label image generated by the cell recognition unit 3, and extracts the contour part label image obtained by extracting the contour part and the region inside. An extracted internal label image is generated. The contour portion edge component calculation unit 5b is a contour portion edge component that is an average value of edge pixel values of pixels in the reference edge image corresponding to the contour pixels included in the contour portion of the cell region indicated in the contour portion label image. Calculate the intensity average. The internal edge component calculation unit 5c calculates an internal edge component intensity average that is an average value of edge pixel values of pixels in the reference edge image corresponding to internal pixels included in the cell region indicated in the internal label image. . The recognition reliability determination unit 5d determines the degree of success or failure of the recognition for each cell region recognized by the cell recognition unit 3 based on the contour edge component intensity average and the internal edge component intensity average.

また、画像照合部5は、認識ラベル画像と認識の成否の程度を示す認識信頼度とを表示部6に出力する。なお、画像照合部5は、認識信頼度を、制御部8を介して記憶部7に出力して記憶させることもできる。また、画像照合部5は、記憶部7に記憶された認識ラベル画像および参照エッジ画像を取得して認識の成否の程度を判定することもできる。   Further, the image matching unit 5 outputs the recognition label image and the recognition reliability indicating the degree of success or failure of the recognition to the display unit 6. The image matching unit 5 can also output and store the recognition reliability to the storage unit 7 via the control unit 8. The image matching unit 5 can also acquire the recognition label image and the reference edge image stored in the storage unit 7 and determine the degree of success or failure of the recognition.

表示部6は、CRT、液晶ディスプレイ等を有する表示装置を備え、画像照合部5から出力される認識ラベル画像と認識信頼度とを取得し、画像情報および数値情報として表示する。この表示では、表示部6は、画像情報および数値情報のいずれか一方のみを表示することができる。また、両方を同時もしくは切り換えて表示することができる。なお、表示部6は、記憶部7に記憶された認識ラベル画像と認識信頼度とを取得して表示するようにしてもよい。   The display unit 6 includes a display device having a CRT, a liquid crystal display, and the like, acquires the recognition label image and the recognition reliability output from the image matching unit 5, and displays them as image information and numerical information. In this display, the display unit 6 can display only one of image information and numerical information. Both can be displayed simultaneously or by switching. Note that the display unit 6 may acquire and display the recognition label image and the recognition reliability stored in the storage unit 7.

記憶部7は、各種処理プログラム等があらかじめ記憶されたROMと、各種処理の処理パラメータ、処理データ等を記憶するRAMとを用いて実現される。記憶部7は、特に、細胞認識部3、参照エッジ画像生成部4および画像照合部5に処理を実行させるためのプログラム、すなわち画像処理装置1に細胞蛍光画像の中から細胞領域を認識する認識処理を行わせるとともに、認識信頼度を対応付ける認識信頼度判定処理を実行させるための画像処理プログラムを記憶する。なお、記憶部7は、フラッシュメモリ、CD、DVD、ハードディスク等の携帯型記憶媒体を着脱可能な記憶部として備えるようにしてもよい。   The storage unit 7 is realized by using a ROM that stores various processing programs and the like, and a RAM that stores processing parameters, processing data, and the like for various processes. The storage unit 7 particularly recognizes a program for causing the cell recognition unit 3, the reference edge image generation unit 4 and the image collation unit 5 to perform processing, that is, recognition for recognizing a cell region from the cell fluorescence image by the image processing apparatus 1. An image processing program for executing the recognition reliability determination process for associating the recognition reliability with the process is stored. Note that the storage unit 7 may include a portable storage medium such as a flash memory, a CD, a DVD, or a hard disk as a removable storage unit.

制御部8は、記憶部7に記憶された各種処理プログラムを実行するCPU等を用いて実現される。制御部8は、特に、記憶部7に記憶された画像処理プログラムを実行し、この画像処理プログラムにしたがって細胞認識部3、参照エッジ画像生成部4および画像照合部5の処理および動作を制御する。また、制御部8は、画像照合部5から出力される認識ラベル画像と認識信頼度とを、画像情報および数値情報として表示部6に表示させる制御を行う。このとき、細胞認識部3によって認識された各細胞領域を、認識信頼度に応じた態様で表示するように表示部6を制御する。なお、制御部8は、認識ラベル画像と認識信頼度以外にも、原画像としての細胞蛍光画像、平滑化後の細胞蛍光画像、仮ラベル画像、参照エッジ画像等を表示部6に表示させる制御を行うこともできる。   The control unit 8 is realized using a CPU or the like that executes various processing programs stored in the storage unit 7. In particular, the control unit 8 executes an image processing program stored in the storage unit 7 and controls processing and operations of the cell recognition unit 3, the reference edge image generation unit 4, and the image matching unit 5 according to the image processing program. . In addition, the control unit 8 performs control to display the recognition label image and the recognition reliability output from the image matching unit 5 on the display unit 6 as image information and numerical information. At this time, the display unit 6 is controlled so as to display each cell region recognized by the cell recognition unit 3 in a manner corresponding to the recognition reliability. In addition to the recognition label image and the recognition reliability, the control unit 8 controls the display unit 6 to display a cell fluorescence image as an original image, a smoothed cell fluorescence image, a temporary label image, a reference edge image, and the like. Can also be done.

また、制御部8は、認識信頼度判定部5dによって細胞領域の認識の成功度が低いと判定された細胞領域について、認識の成功度が低い旨の警告情報を報知する制御を行う。すなわち、認識信頼度が低い細胞領域について、誤認識を起こしている可能性が高い旨、認識結果に基づいて行われる各種処理において誤った処理が行われる可能性が高い旨等を、観測者に通知するように制御を行う。   In addition, the control unit 8 performs control for notifying warning information indicating that the recognition success level is low for the cell region determined by the recognition reliability determination unit 5d as having low recognition success level. In other words, for the cell region with low recognition reliability, the observer is informed that there is a high possibility of misrecognition and that there is a high possibility that erroneous processing will be performed in various processes performed based on the recognition result. Control to notify.

ここで、画像処理装置1が行う処理手順について説明する。図3は、制御部8が画像処理プログラムを実行することによって、画像処理装置1が細胞蛍光画像を処理する画像処理手順を示すフローチャートである。図3に示すように、まず、画像取得部2は、外部装置から細胞蛍光画像を取得し(ステップS101)、細胞認識部3は、画像取得部2から取得した細胞蛍光画像の中から細胞領域を認識して認識ラベル画像を生成する細胞認識処理を行う(ステップS103)。   Here, a processing procedure performed by the image processing apparatus 1 will be described. FIG. 3 is a flowchart showing an image processing procedure in which the image processing apparatus 1 processes the cell fluorescence image by the control unit 8 executing the image processing program. As shown in FIG. 3, first, the image acquisition unit 2 acquires a cell fluorescence image from an external device (step S <b> 101), and the cell recognition unit 3 extracts a cell region from the cell fluorescence image acquired from the image acquisition unit 2. Recognition processing is performed to generate a recognition label image (step S103).

つづいて、参照エッジ画像生成部4は、画像取得部2から取得した細胞蛍光画像に含まれるエッジを検出して参照エッジ画像を生成する参照エッジ画像生成処理を行う(ステップS105)。画像照合部5は、参照エッジ画像生成部4から取得した参照エッジ画像を用いて、細胞認識部3から取得した認識ラベル画像内の各細胞領域に認識信頼度を対応付ける認識信頼度判定処理を行う(ステップS107)。表示部6は、画像照合部5から取得した認識ラベル画像と認識信頼度とを認識結果として表示する(ステップS109)。その後、制御部8は、一連の画像処理を終了する。   Subsequently, the reference edge image generation unit 4 performs a reference edge image generation process of detecting an edge included in the cell fluorescence image acquired from the image acquisition unit 2 and generating a reference edge image (step S105). The image matching unit 5 uses the reference edge image acquired from the reference edge image generation unit 4 to perform a recognition reliability determination process for associating the recognition reliability with each cell region in the recognition label image acquired from the cell recognition unit 3. (Step S107). The display unit 6 displays the recognition label image acquired from the image matching unit 5 and the recognition reliability as a recognition result (step S109). Thereafter, the control unit 8 ends the series of image processing.

なお、制御部8は、例えば所定の処理終了の指示情報等を受け付けるまでステップS101〜S109の処理を繰り返し行うことができる。また、ステップS101において画像取得部2から細胞蛍光画像を取得する代わりに、記憶部7に記憶された細胞蛍光画像を取得してステップS103からの処理を実行することもできる。さらに、ステップS101〜S105を処理する代わりに、記憶部7に記憶された認識ラベル画像および参照エッジ画像を取得してステップS107を実行することもできる。また、ステップS109を省略することもできる。なお、制御部8は、ステップS103とステップS105とを処理順序を入れ換えて行ってもよい。   Note that the control unit 8 can repeatedly perform the processing of steps S101 to S109 until, for example, instruction information for ending predetermined processing is received. Further, instead of acquiring the cell fluorescence image from the image acquisition unit 2 in step S101, the cell fluorescence image stored in the storage unit 7 can be acquired and the processing from step S103 can be executed. Furthermore, instead of processing steps S101 to S105, the recognition label image and the reference edge image stored in the storage unit 7 can be acquired and step S107 can be executed. Also, step S109 can be omitted. Note that the control unit 8 may perform step S103 and step S105 by switching the processing order.

つぎに、図3に示したステップS103〜S109について、より具体的に各処理内容を説明する。まず、ステップS103の細胞認識処理について説明する。図4は、細胞認識処理の処理手順を示すフローチャートである。図4に示すように、平滑部3aは、画像取得部2から取得した細胞蛍光画像を平滑化する平滑化処理を行い(ステップS111)、勾配方向算出部3bは、平滑化された細胞蛍光画像の各画素の輝度の勾配方向を算出するとともに極値画素を検出する勾配方向算出処理を行う(ステップS113)。   Next, the details of each process will be described with respect to steps S103 to S109 shown in FIG. First, the cell recognition process in step S103 will be described. FIG. 4 is a flowchart showing the procedure of the cell recognition process. As illustrated in FIG. 4, the smoothing unit 3 a performs a smoothing process for smoothing the cell fluorescence image acquired from the image acquisition unit 2 (step S <b> 111), and the gradient direction calculation unit 3 b includes the smoothed cell fluorescence image. The gradient direction calculation process for calculating the gradient direction of the luminance of each pixel and detecting the extreme value pixel is performed (step S113).

つづいて、到達極値算出部3cは、勾配方向算出部3bから取得した勾配方向および極値画素をもとに、細胞蛍光画像を仮細胞領域に領域分割して仮ラベル画像を生成する到達極値算出処理を行う(ステップS115)。領域統合部3dは、仮ラベル画像中の隣接した仮細胞領域を統合して細胞領域を成形する領域統合処理を行う(ステップS117)。背景除去部3eは、細胞蛍光画像中の輝度値の小さい画素を背景画素として細胞領域から除去する背景除去処理を行う(ステップS119)。標識部3fは、成形された細胞領域ごとに固有の領域標識を付与して認識ラベル画像を生成するラベリング処理を行う(ステップS121)。そして、制御部8は、標識部3fから画像照合部5に認識ラベル画像を出力させた後、ステップS105の処理に移る。   Subsequently, the ultimate extreme value calculation unit 3c divides the cell fluorescence image into temporary cell regions based on the gradient direction and extreme value pixels acquired from the gradient direction calculation unit 3b, and generates a temporary label image. A value calculation process is performed (step S115). The region integration unit 3d performs region integration processing for integrating adjacent temporary cell regions in the temporary label image to form a cell region (step S117). The background removal unit 3e performs a background removal process of removing a pixel having a small luminance value in the cell fluorescence image from the cell region as a background pixel (step S119). The labeling unit 3f performs a labeling process for generating a recognition label image by assigning a unique region label to each shaped cell region (step S121). Then, the control unit 8 causes the image collation unit 5 to output the recognition label image from the labeling unit 3f, and then proceeds to the process of step S105.

ステップS111では、平滑部3aは、細胞蛍光画像中のエッジ等、大きな輝度値変化を示す輝度分布の構造を保存しながら細胞蛍光画像を平滑化して輝度ムラを低減する。なお、平滑部3aは、平滑化処理の結果としての平滑化画像を、制御部8を介して記憶部7に出力して記憶させることができる。   In step S111, the smoothing unit 3a smoothes the cell fluorescence image while reducing the luminance unevenness while preserving the structure of the luminance distribution showing a large luminance value change such as an edge in the cell fluorescence image. The smoothing unit 3a can output and store a smoothed image as a result of the smoothing process to the storage unit 7 via the control unit 8.

ステップS113では、勾配方向算出部3bは、まず、処理対象画素と、この処理対象画素を中心とする8近傍の各隣接画素との間で、隣接画素の輝度値から処理対象画素の輝度値を差し引いた輝度値差を算出し、処理対象画素から輝度値差が最大となる隣接画素に向かう方向を勾配方向とする。そして、この勾配方向を処理対象画素に対応付けて記録する。また、勾配方向算出部3bは、8近傍の各隣接画素との間で算出した輝度値差がすべて負の値となる場合に、処理対象画素を8近傍内の極大値を示す極値画素として記録する。かかる処理を、勾配方向算出部3bは、細胞蛍光画像内のすべての画素に対して順次行う。   In step S113, the gradient direction calculation unit 3b first calculates the luminance value of the processing target pixel from the luminance value of the adjacent pixel between the processing target pixel and each of the eight neighboring pixels centered on the processing target pixel. The subtracted luminance value difference is calculated, and the direction from the processing target pixel toward the adjacent pixel having the maximum luminance value difference is defined as the gradient direction. Then, this gradient direction is recorded in association with the processing target pixel. Further, the gradient direction calculation unit 3b determines that the pixel to be processed is an extreme pixel indicating a maximum value in the vicinity of 8 when the luminance value differences calculated between the adjacent pixels in the vicinity of 8 are all negative values. Record. The gradient direction calculation unit 3b sequentially performs such processing on all the pixels in the cell fluorescence image.

ステップS115では、到達極値算出部3cは、処理対象画素から勾配方向を順に極値画素に到達するまでたどり、経路となった各画素を到達した極値画素に対応付ける。この処理を細胞蛍光画像内のすべての画素に対して順次行い、各画素をいずれかの極値画素に対応付ける。そして、到達極値算出部3cは、同一の極値画素に対応付けられた各画素が同一の領域を構成するものとして、この極値画素ごとの各領域を仮細胞領域と認識し、各仮細胞領域に固有の領域標識を付与して仮ラベル画像を生成する。このようにして生成された仮ラベル画像では、細胞蛍光画像における輝度値の微細な変化に対応する極値画素ごとに仮細胞領域が形成されているため、通常、細胞蛍光画像中に本来存在する細胞領域よりも細かな仮細胞領域に分割されている。なお、仮細胞領域に付与される領域標識は、固有のものであれば番号、アルファベット、記号等を用いた任意の表記でよい。   In step S115, the reached extreme value calculation unit 3c sequentially follows the gradient direction from the processing target pixel until it reaches the extreme value pixel, and associates each pixel that has become a path with the reached extreme value pixel. This process is sequentially performed on all the pixels in the cell fluorescence image, and each pixel is associated with one of the extreme pixels. Then, the ultimate extreme value calculation unit 3c recognizes each region of each extreme value pixel as a temporary cell region, assuming that each pixel associated with the same extreme value pixel constitutes the same region, A temporary label image is generated by assigning a unique region label to the cell region. In the temporary label image generated in this way, since the temporary cell region is formed for each extreme pixel corresponding to a minute change in the luminance value in the cell fluorescence image, it normally exists in the cell fluorescence image. It is divided into temporary cell regions that are finer than the cell region. In addition, if the area | region label | marker provided to a temporary cell area | region is intrinsic | native, arbitrary description using a number, an alphabet, a symbol, etc. may be sufficient.

ステップS117では、領域統合部3dは、例えば、隣接した各仮細胞領域の極値画素間で極値間距離が所定の閾値以下の場合に、この隣接した仮細胞領域を統合して細胞領域とする。ここで、極値間距離とは、図5に示すように、細胞蛍光画像の輝度値の分布を示す輝度分布曲線に沿った距離であって、異なる極値画素のそれぞれに対応する輝度分布曲線上の点を結ぶ距離である。図5では、輝度分布曲線上の2点を結ぶ太線で示した部分曲線の長さが極値間距離となる。   In step S117, the region integration unit 3d, for example, integrates the adjacent temporary cell regions and sets the cell region when the distance between the extreme values between the adjacent extreme cell regions is equal to or less than a predetermined threshold. To do. Here, the distance between extreme values is a distance along the luminance distribution curve indicating the distribution of luminance values of the cell fluorescence image, as shown in FIG. 5, and is a luminance distribution curve corresponding to each of different extreme pixels. The distance connecting the top points. In FIG. 5, the length of the partial curve shown by the bold line connecting two points on the luminance distribution curve is the distance between extreme values.

また、領域統合部3dは、例えば、細胞蛍光画像に含まれるエッジを検出したエッジ画像を生成することとして、エッジ画像と仮ラベル画像とを比較することによって、隣接した仮細胞領域を統合することもできる。この場合、領域統合部3dは、図6に示すように、仮ラベル画像中の隣接した仮細胞領域の境界線を示す画素に対応するエッジ画像内の画素が有する強度値が、所定の閾値以下の場合、この境界線を示す画素を除去し、隣接した仮細胞領域を統合する。図6では、仮ラベル画像内に矢印で示す境界線は、エッジ画像内では微弱であってほとんど認識されないため、細胞領域の輪郭とは異なるものとして除去される。   Further, the region integration unit 3d integrates adjacent temporary cell regions by, for example, comparing the edge image and the temporary label image as generating an edge image in which an edge included in the cell fluorescence image is detected. You can also. In this case, as shown in FIG. 6, the region integration unit 3d has an intensity value of a pixel in the edge image corresponding to a pixel indicating a boundary line between adjacent temporary cell regions in the temporary label image equal to or less than a predetermined threshold value. In this case, the pixels indicating the boundary line are removed, and adjacent temporary cell regions are integrated. In FIG. 6, the boundary line indicated by the arrow in the temporary label image is weak and hardly recognized in the edge image, and is thus removed as being different from the outline of the cell region.

領域統合部3dは、かかる領域統合の処理を、仮ラベル画像中に存在するすべての隣接した仮細胞領域に対して行い、統合を行えなくなるまで繰り返す。そして、統合を繰り返した結果として残された仮細胞領域を、最終的な細胞領域として認識する。なお、領域統合部3dによって統合されなかった仮細胞領域は、そのまま細胞領域として認識される。   The region integration unit 3d performs the region integration processing on all adjacent temporary cell regions existing in the temporary label image, and repeats until the integration cannot be performed. And the temporary cell area | region left as a result of repeating integration is recognized as a final cell area | region. In addition, the temporary cell area | region which was not integrated by the area | region integration part 3d is recognized as a cell area as it is.

ステップS119では、背景除去部3eは、例えば所定の閾値以下の輝度値を有する画素、あるいは所定の閾値以下の輝度値を有する極値画素に対応する細胞領域に含まれる全画素を、背景画素として除去する。   In step S119, the background removal unit 3e uses, as background pixels, all pixels included in the cell region corresponding to, for example, a pixel having a luminance value equal to or lower than a predetermined threshold or an extreme value pixel having a luminance value equal to or lower than a predetermined threshold. Remove.

ステップS121では、標識部3fは、細胞領域ごとに新たに固有の領域標識を付与するようにしてもよく、仮細胞領域に付与した領域標識を引き継ぐようにしてもよい。領域標識を引き継ぐ場合には、標識部3fは、仮細胞領域の統合が行われた結果としての細胞領域に、統合前の各仮細胞領域のいずれかの領域標識を引き継ぐようにする。なお、細胞領域に付与される領域標識も、固有のものであれば番号、アルファベット、記号等を用いた任意の表記でよい。   In step S121, the labeling unit 3f may newly give a unique area label for each cell area, or may take over the area label given to the temporary cell area. In the case of taking over the region label, the labeling unit 3f takes over any region label of each temporary cell region before the integration into the cell region as a result of the integration of the temporary cell region. In addition, the area | region label | marker provided to a cell area | region may be arbitrary description using a number, an alphabet, a symbol, etc., if it is unique.

つぎに、ステップS105の参照エッジ画像生成処理について説明する。図7は、参照エッジ画像生成処理の処理手順を示すフローチャートである。図7に示すように、まず、平滑部4aは、画像取得部2から取得した細胞蛍光画像を平滑化する平滑化処理を行う(ステップS131)。そして、構造保存平滑部4bは、この平滑化された細胞蛍光画像に対して、さらに細胞領域内部のノイズを減少させる構造保存平滑化処理を行う(ステップS133)。   Next, the reference edge image generation process in step S105 will be described. FIG. 7 is a flowchart illustrating a processing procedure of reference edge image generation processing. As shown in FIG. 7, first, the smoothing unit 4a performs a smoothing process for smoothing the cell fluorescence image acquired from the image acquisition unit 2 (step S131). And the structure preservation | save smoothing part 4b performs the structure preservation | save smoothing process which further reduces the noise inside a cell area | region with respect to this smoothed cell fluorescence image (step S133).

つづいて、エッジ抽出部4cは、構造保存平滑部4bによって平滑化された細胞蛍光画像の中からエッジを検出してエッジ画像を生成するエッジ抽出処理を行う(ステップS135)。輪郭強調部4dは、このエッジ画像内のエッジのうち、細胞領域の輪郭部を示すエッジ成分を強調する輪郭強調処理を行う(ステップS137)。階調変換部4eは、輪郭強調処理後のエッジ画像をもとに階調変換を行って参照エッジ画像を生成する階調変換処理を行う(ステップS139)。そして、制御部8は、階調変換部4eから画像照合部5に参照エッジ画像を出力させた後、ステップS107の処理に移る。   Subsequently, the edge extraction unit 4c performs edge extraction processing for detecting an edge from the cell fluorescence image smoothed by the structure preserving smoothing unit 4b and generating an edge image (step S135). The contour emphasizing unit 4d performs contour emphasis processing for emphasizing an edge component indicating the contour portion of the cell region among the edges in the edge image (step S137). The gradation converting unit 4e performs gradation conversion processing for generating a reference edge image by performing gradation conversion based on the edge image after the contour enhancement processing (step S139). Then, the control unit 8 causes the image conversion unit 5 to output the reference edge image from the gradation conversion unit 4e, and then proceeds to the process of step S107.

ステップS131では、平滑部4aは、例えば図8に示すガウシアンフィルタを細胞蛍光画像に畳み込むことによって、細胞蛍光画像中の微細な輝度ムラを低減する。また、ステップS133では、構造保存平滑部4bは、例えば、処理対象画素を中心とする5×5画素を参照して処理対象画素の輝度値を変換する処理を、細胞蛍光画像内の各画素を処理対象画素として順次行うことによって、細胞蛍光画像の全体を平滑化する。   In step S131, the smoothing unit 4a reduces fine luminance unevenness in the cell fluorescence image by, for example, convolving a Gaussian filter shown in FIG. 8 with the cell fluorescence image. Moreover, in step S133, the structure preservation | save smoothing part 4b performs the process which converts the luminance value of a process target pixel with reference to the 5 * 5 pixel centering on a process target pixel, for example, for each pixel in a cell fluorescence image. The entire cell fluorescence image is smoothed by sequentially performing processing as pixels to be processed.

図9は、かかる平滑化処理において構造保存平滑部4bが参照する5×5画素を示す模式図である。図中、各画素を示す矩形内に、その画素の輝度値を示す変数が記されている。構造保存平滑部4bは、このような5×5画素の中心にある処理対象画素の輝度値v(13)を、次式(1)によって輝度値v’(13)に変換する。この変換処理によって、処理対象画素に対して輝度値が近い近傍画素ほど重みを大きくした輝度値の加重平均が求められる。

Figure 2007048006
ここで、変数a(i)(i=1〜25)は、変数sv(i)を用いた次式(2),(3)によって求められる。なお、式(2)では、演算値max(sv)≠0であることが前提とされている。また、式(2)で用いる指数αは、α=0.5とすることが好ましい。
Figure 2007048006
sv(i) = |v(i)−v(13)| ・・・(3) FIG. 9 is a schematic diagram showing 5 × 5 pixels referred to by the structure preserving smoothing unit 4b in the smoothing process. In the figure, a variable indicating the luminance value of each pixel is shown in a rectangle indicating each pixel. The structure preserving smoothing unit 4b converts the luminance value v (13) of the processing target pixel at the center of the 5 × 5 pixels into the luminance value v ′ (13) by the following equation (1). By this conversion processing, a weighted average of luminance values is obtained by increasing the weight of neighboring pixels whose luminance values are closer to the processing target pixel.
Figure 2007048006
Here, the variable a (i) (i = 1 to 25) is obtained by the following equations (2) and (3) using the variable sv (i). In formula (2), it is assumed that the calculated value max (sv) ≠ 0. The index α used in the formula (2) is preferably α = 0.5.
Figure 2007048006
sv (i) = | v (i) −v (13) | (3)

なお、ステップS131の平滑化処理およびステップS133の構造保存平滑化処理は、画像取得部2から取得する細胞蛍光画像の種類等に応じて省略することができる。   In addition, the smoothing process of step S131 and the structure preservation | save smoothing process of step S133 can be abbreviate | omitted according to the kind etc. of the cell fluorescence image acquired from the image acquisition part 2. FIG.

ステップS135では、エッジ抽出部4cは、構造保存平滑部4bによって平滑化された細胞蛍光画像内の各画素に対し、一次微分値や二次微分値を算出する。エッジ抽出部4cは、一次微分値を用いる場合、例えば一次微分フィルタであるSobelフィルタを用いて算出する。この場合、エッジ抽出部4cは、図10−1に示すx方向Sobelフィルタの畳み込みの出力S1(k)と、図10−2に示すy方向Sobelフィルタの畳み込みの出力S2(k)とを用い、次式(4)によって、画素番号kの一次微分値E1(k)を算出する。ここで、画素番号kは、各画素の画素番号を示している。

Figure 2007048006
In step S135, the edge extraction unit 4c calculates a primary differential value and a secondary differential value for each pixel in the cell fluorescence image smoothed by the structure preserving smoothing unit 4b. When using the primary differential value, the edge extraction unit 4c calculates using, for example, a Sobel filter that is a primary differential filter. In this case, the edge extraction unit 4c uses the convolution output S1 (k) of the x-direction Sobel filter shown in FIG. 10-1 and the convolution output S2 (k) of the y-direction Sobel filter shown in FIG. 10-2. Then, the primary differential value E 1 (k) of the pixel number k is calculated by the following equation (4). Here, the pixel number k indicates the pixel number of each pixel.
Figure 2007048006

また、エッジ抽出部4cは、二次微分値を用いる場合、例えば輝度値変化の凹部を検出する二次微分フィルタを用いて算出する。この場合、エッジ抽出部4cは、図11−1に示すx方向凹部検出フィルタの畳み込みの出力C1(k)と、図11−2に示すy方向凹部検出フィルタの畳み込みの出力C2(k)と、図11−3に示すx+y+方向凹部検出フィルタの畳み込みの出力C3(k)と、図11−4に示すx+y−方向凹部検出フィルタの畳み込みの出力C4(k)とを用い、これらの出力の中から次式(5)に示すように最大値を抽出して、画素番号kの二次微分値E2(k)とする。ここで、画素番号kは、各画素の画素番号を示している。
2(k)=Max(C1(k),C2(k),C3(k),C4(k)) ・・・(5)
Moreover, when using a secondary differential value, the edge extraction part 4c calculates using the secondary differential filter which detects the recessed part of a luminance value change, for example. In this case, the edge extraction unit 4c outputs the convolution output C1 (k) of the x-direction concave portion detection filter shown in FIG. 11-1 and the convolution output C2 (k) of the y-direction concave portion detection filter shown in FIG. 11-3, the convolution output C3 (k) of the x + y + direction concave portion detection filter shown in FIG. 11 and the convolution output C4 (k) of the x + y− direction concave portion detection filter shown in FIG. The maximum value is extracted from the inside as shown in the following equation (5), and is set as the secondary differential value E 2 (k) of the pixel number k. Here, the pixel number k indicates the pixel number of each pixel.
E 2 (k) = Max (C1 (k), C2 (k), C3 (k), C4 (k)) (5)

ステップS137では、輪郭強調部4dは、エッジ抽出部4cによって生成されたエッジ画像の各画素の輝度値E(k)と、構造保存平滑部4cによって平滑化された細胞蛍光画像の各画素の輝度値V(k)とを用い、次式(6)によって、細胞領域の輪郭部のエッジ成分を強調した各画素の輝度値Ec(k)を算出する。なお、式(6)で用いる係数mは、m=0.55とすることが好ましい。
c(k)=m・E(k)−V(k) ・・・(6)
In step S137, the contour emphasizing unit 4d determines the luminance value E (k) of each pixel of the edge image generated by the edge extracting unit 4c and the luminance of each pixel of the cell fluorescence image smoothed by the structure preserving smoothing unit 4c. Using the value V (k), the luminance value E c (k) of each pixel in which the edge component of the contour portion of the cell region is emphasized is calculated by the following equation (6). Note that the coefficient m used in Equation (6) is preferably m = 0.55.
E c (k) = m · E (k) −V (k) (6)

ステップS139では、階調変換部4eは、図12−1に示すように、中心の処理対象画素に対して4種類の方向フィルタFT1〜FT4を適用し、各方向フィルタ内の画素が有する輝度値の中から、輝度最大値Ecmaxと輝度最小値Ecminとを抽出する。そして、抽出した輝度最大値Ecmaxの大きさを1、輝度最小値Ecminの大きさを0とするように諧調変換を行う。このとき、諧調変換部4eは、次式(7)に示す諧調変換関数によって、処理対象画素の輝度値Ecinを輝度値Ecoutに変換する。この諧調変換関数に対する入力としての輝度値Ecinと、出力としての輝度値Ecoutとの関係を図12−2に示す。なお、式(7)で用いる指数γは、γ=4とすることが好ましい。

Figure 2007048006
In step S139, as shown in FIG. 12A, the gradation conversion unit 4e applies four types of directional filters FT1 to FT4 to the central processing target pixel, and the luminance values of the pixels in each directional filter. The maximum luminance value Ec max and the minimum luminance value Ec min are extracted from the above. Then, gradation conversion is performed so that the extracted maximum luminance value Ec max is 1 and the minimum luminance value Ec min is 0. At this time, the gradation conversion unit 4e converts the luminance value Ec in of the pixel to be processed into the luminance value Ec out using a gradation conversion function expressed by the following equation (7). FIG. 12-2 shows the relationship between the luminance value Ec in as an input to the tone conversion function and the luminance value Ec out as an output. The index γ used in the equation (7) is preferably γ = 4.
Figure 2007048006

なお、方向フィルタFT1は、処理対象画素の左右方向を参照する横方向フィルタであり、方向フィルタFT2は、処理対象画素の上下方向を参照する縦方向フィルタである。また、方向フィルタFT3は、右下および左上方向を参照する斜め方向フィルタであり、方向フィルタFT4は、右上および左下方向を参照する斜め方向フィルタである。各方向フィルタFT1〜FT4は、処理対象画素を中心とする各方向の10画素ずつを参照する。ただし、この参照する画素数は、各方向10画素ずつに限定されるものではなく、これより増減させることもできる。また、各方向フィルタFT1〜FT4は、図12−1では、各方向で画素列を1列のみ参照するように示したが、参照する画素列は1列に限定されるものではなく、処理対象画素を含む画素列を中心とする3列、もしくはそれ以上の画素列を参照することもできる。   The direction filter FT1 is a horizontal filter that refers to the horizontal direction of the processing target pixel, and the direction filter FT2 is a vertical filter that refers to the vertical direction of the processing target pixel. The direction filter FT3 is an oblique direction filter that refers to the lower right and upper left directions, and the direction filter FT4 is an oblique direction filter that refers to the upper right and lower left directions. Each direction filter FT1 to FT4 refers to 10 pixels in each direction centered on the processing target pixel. However, the number of pixels to be referred to is not limited to 10 pixels in each direction, and can be increased or decreased. Each direction filter FT1 to FT4 is shown in FIG. 12A so as to refer to only one pixel column in each direction. However, the pixel column to be referred to is not limited to one column, and is subject to processing. It is also possible to refer to three or more pixel columns centering on the pixel column including the pixels.

以上説明したステップS105の参照エッジ画像生成処理によって生成される参照エッジ画像の一例を図13−1に示す。また、図13−1に示す参照エッジ画像に対応する細胞蛍光画像を図13−2に示す。   An example of the reference edge image generated by the reference edge image generation process of step S105 described above is shown in FIG. Further, FIG. 13-2 shows a cell fluorescence image corresponding to the reference edge image shown in FIG.

つぎに、ステップS107の認識信頼度判定処理について説明する。この認識信頼度判定処理では、認識信頼度判定部5dは、認識ラベル画像内の各細胞領域の輪郭部エッジ成分強度平均と内部エッジ成分強度平均とをもとに、細胞領域ごとに認識結果の良好さ、認識を阻害する成分の度合いを判断することで、各細胞領域の認識の成否の程度を判定する。   Next, the recognition reliability determination process in step S107 will be described. In this recognition reliability determination process, the recognition reliability determination unit 5d determines the recognition result for each cell region based on the contour edge component intensity average and the internal edge component intensity average of each cell region in the recognition label image. The degree of success or failure of recognition of each cell region is determined by determining the degree of goodness and the component that inhibits recognition.

認識された細胞領域の認識の成否の程度は、輪郭部のエッジ成分が大きいほど、また細胞領域内部のエッジ成分が小さいほど成功度が高いといえる。すなわち、輪郭部のエッジ成分が小さければ、その細胞領域は、より大きな細胞領域の一部を分割して成形された可能性が高いと考えられる。また、細胞領域内部のエッジ成分が大きければ、その細胞領域は、より細かい細胞領域に分割できる可能性が高い、あるいはノイズを多く含んだ細胞領域である可能性が高いと考えられる。そこで、認識信頼度判定部5dでは、認識された細胞領域の妥当性であり、細胞認識処理による認識の成否の程度を示す認識信頼度を、各細胞領域の輪郭部のエッジ成分および細胞領域内部のエッジ成分の大きさにより判断するようにしている。   The degree of success or failure of recognition of the recognized cell region can be said to be higher as the edge component of the contour portion is larger and the edge component inside the cell region is smaller. That is, if the edge component of the contour portion is small, the cell region is considered to have a high possibility of being formed by dividing a part of a larger cell region. In addition, if the edge component inside the cell region is large, the cell region is highly likely to be divided into finer cell regions, or is likely to be a cell region containing a lot of noise. Therefore, the recognition reliability determination unit 5d determines the recognition reliability, which is the validity of the recognized cell region and indicates the degree of success or failure of the recognition by the cell recognition processing, as the edge component of each cell region and the inside of the cell region. Judgment is made based on the size of the edge component.

図14は、認識信頼度判定処理の処理手順を示すフローチャートである。図14に示すように、まず、認識ラベル画像分離部5aは、細胞認識部3から取得した認識ラベル画像内の細胞領域を輪郭部と領域内部とに分離し、輪郭部ラベル画像と内部ラベル画像とを生成する(ステップS141)。そして、輪郭部エッジ成分算出部5bは、輪郭部ラベル画像をもとに輪郭部エッジ成分強度平均Vcon(L)を算出し(ステップS143)、内部エッジ成分算出部5cは、内部ラベル画像をもとに内部エッジ成分強度平均Vin(L)を算出する(ステップS145)。なお、本実施の形態1では、後に詳細に説明する輪郭部エッジ成分強度平均Vcon(L)および内部エッジ成分強度平均Vin(L)によって、各細胞領域の認識の成否の程度を判定する。 FIG. 14 is a flowchart illustrating a processing procedure of recognition reliability determination processing. As shown in FIG. 14, first, the recognition label image separation unit 5 a separates the cell region in the recognition label image acquired from the cell recognition unit 3 into the contour portion and the inside of the region, and the contour portion label image and the internal label image. Are generated (step S141). Then, the contour edge component calculation unit 5b calculates the contour edge component strength average V con (L) based on the contour label image (step S143), and the internal edge component calculation unit 5c calculates the internal label image. The inner edge component intensity average V in (L) is calculated based on the original (step S145). In the first embodiment, the degree of success or failure of recognition of each cell region is determined based on the contour edge component intensity average V con (L) and the internal edge component intensity average V in (L) described in detail later. .

つづいて、認識信頼度判定部5dは、輪郭部エッジ成分強度平均Vcon(L)が所定の閾値ContourThより小さく、かつ、内部エッジ成分強度平均Vin(L)が所定の閾値InnerThより大きいか否かを判断して、各細胞領域の認識の成否の程度を一次的に判定する(ステップS147)。この判断条件が満足される場合(ステップS147:Yes)、認識信頼度判定部5dは、領域標識としてのラベル番号が番号Lである細胞領域に「認識信頼度4」を割り当てる(ステップS149)。 Subsequently, the recognition reliability determination unit 5d determines whether the contour edge component strength average V con (L) is smaller than a predetermined threshold ContourTh and the inner edge component strength average V in (L) is larger than a predetermined threshold InnerTh. It is determined whether or not the recognition of each cell region is successful (step S147). When this determination condition is satisfied (step S147: Yes), the recognition reliability determination unit 5d assigns “recognition reliability 4” to the cell region whose label number is the number L as the region marker (step S149).

ステップS147の判断条件が満足されない場合(ステップS147:No)、認識信頼度判定部5dは、内部エッジ成分強度平均Vin(L)が閾値InnerThより大きいか否かを判断して、認識の成否の程度をさらに判定する(ステップS151)。この判断条件が満足される場合(ステップS151:Yes)、ラベル番号Lの細胞領域に「認識信頼度3」を割り当てる(ステップS153)。 When the determination condition of step S147 is not satisfied (step S147: No), the recognition reliability determination unit 5d determines whether the inner edge component strength average V in (L) is larger than the threshold InnerTh, and the recognition success / failure is determined. Is further determined (step S151). When this determination condition is satisfied (step S151: Yes), “recognition reliability 3” is assigned to the cell region with the label number L (step S153).

ステップS151の判断条件が満足されない場合(ステップS151:No)、認識信頼度判定部5dは、輪郭部エッジ成分強度平均Vcon(L)が閾値ContourThより小さいか否かを判断して、認識の成否の程度をさらに判定する(ステップS155)。この判断条件が満足される場合(ステップS155:Yes)、ラベル番号Lの細胞領域に「認識信頼度2」を割り当てる(ステップS157)。ステップS155の判断条件が満足されない場合には(ステップS155:No)、ラベル番号Lの細胞領域に「認識信頼度1」を割り当てる(ステップS159)。 When the determination condition of step S151 is not satisfied (step S151: No), the recognition reliability determination unit 5d determines whether the contour edge component strength average V con (L) is smaller than the threshold value ContourTh, and performs recognition. The degree of success or failure is further determined (step S155). When this determination condition is satisfied (step S155: Yes), “recognition reliability 2” is assigned to the cell region with the label number L (step S157). If the determination condition of step S155 is not satisfied (step S155: No), “recognition reliability 1” is assigned to the cell region of label number L (step S159).

そして、制御部8は、認識ラベル画像中のすべての細胞領域を処理したか否か、すなわち、すべての細胞領域に認識信頼度が割り当てられているか否かを判断し(ステップS161)、割り当てられていない場合(ステップS161:No)、割り当てられていない細胞領域に対してステップS141からの処理を繰り返す。一方、すべての細胞領域に認識信頼度が割り当てられている場合には(ステップS161:Yes)、制御部8は、認識信頼度が対応付けられた認識ラベル画像を認識信頼度判定部5dから表示部6に出力させた後、ステップ109の処理に移る。なお、かかる認識信頼度判定処理手順では、制御部8は、ステップS143とステップS145とを、処理順序を入れ換えて実行させることもできる。   Then, the control unit 8 determines whether or not all cell regions in the recognition label image have been processed, that is, whether or not recognition reliability is assigned to all the cell regions (step S161). If not (step S161: No), the process from step S141 is repeated for the unallocated cell region. On the other hand, when the recognition reliability is assigned to all the cell regions (step S161: Yes), the control unit 8 displays the recognition label image associated with the recognition reliability from the recognition reliability determination unit 5d. After output to the unit 6, the process proceeds to step 109. In this recognition reliability determination processing procedure, the control unit 8 can also execute steps S143 and S145 by switching the processing order.

ステップS141では、認識ラベル画像分離部5aは、図15に示すように、細胞領域を、この細胞領域に属する画素であって背景または他の細胞領域と接する輪郭画素で構成される輪郭部と、細胞領域から輪郭部を除いた内部画素で構成される領域内部とに分離する。ただし、認識ラベル画像分離部5aは、輪郭部を取り除く作業をn回繰り返し、輪郭部と領域内部との間に画素数n分の間隙を設けるようにする。画素数nは、n=3程度とすることが好ましい。この輪郭部と領域内部との間隙は、領域内部から輪郭部に対応する画素を確実に排除するための措置である。   In step S141, as shown in FIG. 15, the recognition label image separation unit 5a includes a contour region that includes pixels that belong to the cell region and that are in contact with the background or other cell regions. The cell region is separated into the region composed of internal pixels excluding the contour portion. However, the recognition label image separation unit 5a repeats the operation of removing the contour portion n times so that a gap corresponding to the number of pixels n is provided between the contour portion and the inside of the region. The number of pixels n is preferably about n = 3. The gap between the contour portion and the inside of the region is a measure for reliably removing pixels corresponding to the contour portion from the inside of the region.

ステップS143では、輪郭部エッジ成分演算部5bは、ラベル番号Lの細胞領域に対して、まず、輪郭部ラベル画像中の各輪郭画素に対応する参照エッジ画像内の画素が有するエッジ画素値としての輪郭エッジ強度Ecout(p)を用いて、次式(8)によって、エッジ強度の総和を示すエッジ成分総計SVcon(L)を算出する。ここで、変数pは、輪郭画素の画素番号を示している。

Figure 2007048006
ラベル番号Lの細胞領域の輪郭部を構成する画素数ncon(L)は、次式(9)に示すように、輪郭部ラベル画像におけるラベル番号Lの画素数をカウントすることによって求められる。
Figure 2007048006
そして、輪郭部エッジ成分演算部5bは、式(8)および式(9)の結果を用いて、次式(10)によって、輪郭部エッジ成分強度平均Vcon(L)を算出する。
Figure 2007048006
In step S143, the contour edge component calculation unit 5b first applies the edge pixel value of the pixel in the reference edge image corresponding to each contour pixel in the contour label image to the cell region with the label number L. Using the contour edge strength Ec out (p), an edge component total SV con (L) indicating the sum of the edge strengths is calculated by the following equation (8). Here, the variable p indicates the pixel number of the contour pixel.
Figure 2007048006
The number of pixels n con (L) constituting the contour portion of the cell region with the label number L can be obtained by counting the number of pixels with the label number L in the contour portion label image as shown in the following equation (9).
Figure 2007048006
Then, the contour edge component calculation unit 5b calculates the contour edge component intensity average V con (L) by the following equation (10) using the results of the equations (8) and (9).
Figure 2007048006

ステップS145では、内部エッジ成分演算部5cは、ステップS143と同様に、ラベル番号Lの細胞領域に対して、まず、内部ラベル画像中の各内部画素に対応する参照エッジ画像内の画素が有するエッジ画素値としての領域内エッジ強度Ecin(q)を用いて、次式(11)によって、エッジ強度の総和を示すエッジ成分総計SVin(L)を算出する。ここで、変数qは、内部画素の画素番号を示している。

Figure 2007048006
ラベル番号Lの細胞領域内部を構成する画素数nin(L)は、次式(12)に示すように、内部ラベル画像におけるラベル番号Lの画素数をカウントすることによって求められる。
Figure 2007048006
そして、内部エッジ成分演算部5cは、式(11)および式(12)の結果を用いて、次式(13)によって、内部エッジ成分強度平均Vin(L)を算出する。
Figure 2007048006
In step S145, as in step S143, the internal edge component calculation unit 5c first applies to the cell region with the label number L, the edge of the pixel in the reference edge image corresponding to each internal pixel in the internal label image. Using the in-region edge strength Ec in (q) as the pixel value, an edge component total SV in (L) indicating the sum of the edge strengths is calculated by the following equation (11). Here, the variable q indicates the pixel number of the internal pixel.
Figure 2007048006
The number of pixels n in (L) constituting the inside of the cell region with the label number L can be obtained by counting the number of pixels with the label number L in the internal label image as shown in the following equation (12).
Figure 2007048006
Then, the inner edge component calculation unit 5c calculates the inner edge component intensity average V in (L) by the following equation (13) using the results of the equations (11) and (12).
Figure 2007048006

つぎに、ステップS109の認識結果の表示について説明する。図16は、図13−1および図13−2に示した参照エッジ画像および細胞蛍光画像に基づく認識結果を示す画像であって、ステップS109によって表示部6に表示する画像の一例を示す図である。図16に示すように、制御部8は、認識信頼度判定部5dによって対応付けられた認識信頼度に応じた態様で、認識ラベル画像中の各細胞領域を識別可能に表示する制御を行う。   Next, the display of the recognition result in step S109 will be described. FIG. 16 is an image showing a recognition result based on the reference edge image and the cell fluorescence image shown in FIGS. 13A and 13B, and shows an example of the image displayed on the display unit 6 in step S109. is there. As illustrated in FIG. 16, the control unit 8 performs control to display each cell region in the recognition label image so as to be identifiable in a manner corresponding to the recognition reliability associated with the recognition reliability determination unit 5 d.

具体的には、図16では、認識の成功度が最も高いことを示す「認識信頼度1」が対応付けられた細胞領域は、領域内部が黒色で描画されている(例えば、細胞領域AR1)。また、「認識信頼度2」および「認識信頼度3」が対応付けられた細胞領域は、それぞれ暗い灰色(例えば、細胞領域AR2)および縦縞模様(例えば、細胞領域AR3)で描画されている。そして、認識の成功度が最も低いことを示す「認識信頼度4」が対応付けられた細胞領域は、明るい灰色で描画されている(例えば、細胞領域AR4)。   Specifically, in FIG. 16, the cell region associated with “recognition reliability 1” indicating that the recognition success level is the highest is drawn in black inside the region (for example, cell region AR1). . The cell regions associated with “recognition reliability 2” and “recognition reliability 3” are drawn in dark gray (for example, cell region AR2) and vertical stripe pattern (for example, cell region AR3), respectively. The cell region associated with “recognition reliability 4” indicating that the recognition success level is the lowest is drawn in light gray (for example, cell region AR4).

なお、認識結果の表示方法は、図16の例に限定して解釈する必要はなく、認識信頼度ごとに細胞領域に異なる番号、記号等を対応付けて付記する、カラー画像化して認識信頼度ごとに異なる色を対応付ける、異なる模様を対応付けるなど、認識信頼度ごとに細胞領域が識別可能であれば、任意の表示方法が適用できる。   Note that the recognition result display method need not be interpreted as limited to the example of FIG. 16, and a different number, symbol, etc. is associated with each cell area for each recognition reliability, and is converted into a color image for recognition reliability. As long as the cell region can be identified for each recognition reliability, such as associating different colors with each other or associating different patterns, any display method can be applied.

このように認識信頼度を対応付けて各細胞領域を表示することによって、観測者は、誤認識を起こしている可能性の高い細胞領域を容易に判別することができるようになる。なお、認識された全領域にわたって認識信頼度が低い細胞領域が多い場合には、細胞認識処理時の処理パラメータの設定に不具合がある、あるいは細胞蛍光画像中に多くのノイズが含まれているなどの問題が発生している可能性が高く、制御部8は、この旨の警告情報を観測者に報知する。さらに、制御部8は、認識信頼度が低い各細胞領域に対応させて警告情報を報知することもできる。   By displaying each cell region in association with the recognition reliability in this way, the observer can easily discriminate a cell region that has a high possibility of causing erroneous recognition. When there are many cell regions with low recognition reliability over the entire recognized region, there is a problem in the setting of processing parameters at the time of cell recognition processing, or there is a lot of noise in the cell fluorescence image, etc. The control unit 8 notifies the observer of warning information to that effect. Furthermore, the control part 8 can also alert | report warning information corresponding to each cell area | region with low recognition reliability.

以上説明したように、本実施の形態1にかかる画像処理装置1および画像処理プログラムでは、細胞蛍光画像の中から各細胞に対応する細胞領域を自動的に認識し、認識した各細胞領域に認識の成否の程度を判定しているため、細胞認識処理による各細胞領域の認識がどの程度良好に行われているかを素早く判断可能にするとともに、問題箇所のピックアップが容易であり、より信頼性の高い認識結果を得ることができる。また、この結果、認識した細胞領域の特徴量の計測処理、細胞の追跡処理等、認識結果をもとに行われる各種処理において、各細胞領域の認識の成否の程度に応じた処理を可能にする。   As described above, in the image processing device 1 and the image processing program according to the first embodiment, the cell region corresponding to each cell is automatically recognized from the cell fluorescence image, and the recognized cell region is recognized. Since the degree of success or failure is determined, it is possible to quickly determine how well each cell region is recognized by the cell recognition process, and it is easy to pick up the problem area, making it more reliable. High recognition results can be obtained. In addition, as a result, it is possible to perform processing according to the degree of success or failure of recognition of each cell region in various processing performed based on the recognition result, such as measurement processing of the feature amount of the recognized cell region, cell tracking processing, etc. To do.

また、一般に、観測者が細胞画像を目視した場合、周囲に対して輝度が変化したと知覚される部分が細胞の輪郭として捉えられているものと考えられており、本実施の形態1にかかる画像処理装置1および画像処理プログラムでは、この知覚される部分をエッジ成分として抽出した参照エッジ画像を用いて認識信頼度を対応付けるようにしているため、観測者の知覚に整合した認識信頼度を対応付けることが可能である。   Further, generally, when an observer visually observes a cell image, it is considered that a portion perceived to have changed in luminance with respect to the surroundings is captured as the outline of the cell, and the first embodiment is applied. In the image processing apparatus 1 and the image processing program, since the recognition reliability is associated using the reference edge image obtained by extracting the perceived portion as an edge component, the recognition reliability matched with the observer's perception is associated. It is possible.

(実施の形態2)
つぎに、本発明の実施の形態2について説明する。この実施の形態2では、細胞を認識して認識信頼度を対応付けた後、観測時点の異なる細胞蛍光画像間で細胞の追跡を行うようにしている。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. In the second embodiment, after recognizing the cells and associating the recognition reliability, the cells are traced between the cell fluorescence images at different observation points.

図17は、本発明の実施の形態2にかかる画像処理装置11の構成を示すブロック図である。図17に示すように、画像処理装置11は、画像処理装置1の構成をもとに、制御部8に替えて制御部18を備えるとともに、新たに細胞追跡部19を備える。細胞追跡部19を含む各構成部は、制御部18に電気的に接続されている。なお、実施の形態1と同一の構成部分には、同一符号を付している。   FIG. 17 is a block diagram showing a configuration of the image processing apparatus 11 according to the second embodiment of the present invention. As shown in FIG. 17, the image processing apparatus 11 includes a control unit 18 instead of the control unit 8 and a cell tracking unit 19 based on the configuration of the image processing apparatus 1. Each component including the cell tracking unit 19 is electrically connected to the control unit 18. In addition, the same code | symbol is attached | subjected to the component same as Embodiment 1. FIG.

画像処理装置11では、画像取得部2は、観測時点の異なる一連の細胞蛍光画像を外部装置から取得し、細胞認識部3、参照エッジ画像生成部4および画像照合部5の各々は、この一連の細胞蛍光画像のそれぞれに対して、認識ラベル画像の生成、参照エッジ画像の生成および認識信頼度の対応付けを行う。このように処理される一連の細胞蛍光画像、参照エッジ画像、および認識信頼度に応じて描画された認識ラベル画像の一例を、図18に示す。   In the image processing device 11, the image acquisition unit 2 acquires a series of cell fluorescence images at different observation points from an external device, and each of the cell recognition unit 3, the reference edge image generation unit 4, and the image matching unit 5 For each cell fluorescence image, a recognition label image, a reference edge image, and a recognition reliability are associated. FIG. 18 shows an example of a series of cell fluorescence images, a reference edge image, and a recognition label image drawn according to the recognition reliability.

細胞追跡部19は、画像照合部5から一連の細胞蛍光画像に対応する認識ラベル画像、認識信頼度および認識信頼度の判定に用いたパラメータを取得し、各細胞領域の認識の成否の程度を反映させて、観測時点の異なる細胞画像間の細胞の同一性を判別し、同一と判別した細胞を含む細胞領域同士を対応付ける細胞追跡処理を行う。また、細胞追跡部19は、細胞追跡処理の処理結果としての追跡結果を表示部6に出力する。なお、細胞追跡部19は、追跡結果を、制御部18を介して記憶部7に記憶させることもできる。   The cell tracking unit 19 acquires the recognition label image corresponding to the series of cell fluorescence images, the parameters used for determination of the recognition reliability and the recognition reliability from the image matching unit 5, and determines the degree of success or failure of the recognition of each cell region. Reflecting this, cell identity between cell images at different observation points is determined, and cell tracking processing for associating cell regions including cells determined to be the same is performed. In addition, the cell tracking unit 19 outputs a tracking result as a processing result of the cell tracking process to the display unit 6. Note that the cell tracking unit 19 can also store the tracking result in the storage unit 7 via the control unit 18.

制御部18は、制御部8と同様に各部の処理および動作を制御するのに加えて、細胞追跡部19の制御も行う。制御部18は、特に、記憶部7に記憶された画像処理プログラムを実行し、図3に示した画像処理手順をもとに、さらにステップS107とステップS109との間で細胞追跡処理を行うようにした一連の画像処理の制御を行う。また、制御部18は、細胞追跡部19から出力される追跡結果を、画像情報もしくは数値情報として、各観測時点の認識ラベル画像、認識信頼度等に対応付けて表示部6に表示させる制御を行う。   The control unit 18 controls the cell tracking unit 19 in addition to controlling the processing and operation of each unit in the same manner as the control unit 8. In particular, the control unit 18 executes the image processing program stored in the storage unit 7 and further performs a cell tracking process between step S107 and step S109 based on the image processing procedure shown in FIG. A series of image processing is controlled. In addition, the control unit 18 performs control to display the tracking result output from the cell tracking unit 19 on the display unit 6 as image information or numerical information in association with the recognition label image, the recognition reliability, and the like at each observation time point. Do.

ここで、細胞追跡部19が行う処理について詳細に説明する。細胞追跡部19は、細胞追跡処理において、観測時点の異なる2つの認識ラベル画像間の細胞領域同士の対応度を、各細胞領域の認識の成否の程度を反映させて算出し、算出した対応度に基づいて各細胞領域内の細胞の同一性を判別する。このとき、細胞追跡部19は、例えば細胞領域同士の重なった部分の重なり面積を用いて対応度を算出する。   Here, the process performed by the cell tracking unit 19 will be described in detail. In the cell tracking process, the cell tracking unit 19 calculates the correspondence between the cell regions between two recognition label images at different observation points by reflecting the degree of success or failure of the recognition of each cell region, and the calculated correspondence Based on the above, the identity of the cells in each cell region is determined. At this time, the cell tracking unit 19 calculates the correspondence using, for example, the overlapping area of the overlapping portions of the cell regions.

より具体的には、細胞追跡部19は、観測時点t1の認識ラベル画像内でラベル番号Rit1である細胞領域と、観測時点t1と時系列に連続した観測時点t2の認識ラベル画像内でラベル番号Rit2である細胞領域と、の対応度M(Rit1,Rit2)を、この細胞領域同士の重なり面積OL_Area(Rit1,Rit2)と、各細胞領域の面積Area(Rit1),Area(Rit2)とを用いて、次式(14)によって算出する。なお、式(14)における係数wは、所定の重み付け係数である。

Figure 2007048006
More specifically, cell tracking unit 19, and cell region recognition label image of the observation time t 1 is a label number Ri t1, the continuous time series and observation time t 1 observation time t 2 recognition label image and cell area is a label number Ri t2 in the inner of the corresponding degree M of (Ri t1, Ri t2), the overlapping area OL_Area of this cell between regions (Ri t1, Ri t2), the area area (Ri for each cell region t1), by using the Area (Ri t2), calculated by the following equation (14). Note that the coefficient w in Expression (14) is a predetermined weighting coefficient.
Figure 2007048006

また、細胞追跡部19は、一連の細胞蛍光画像を撮像する際に一般に生じる蛍光量の時間変化の影響を低減するため、時系列で連続する認識ラベル画像間ばかりでなく、所定フレーム数離れた認識ラベル画像間でも対応度を算出する。この場合、細胞追跡部19は、観測時点taに対応する認識ラベル画像内でラベル番号Ritaである細胞領域と、この認識ラベル画像より所定数bだけ前のフレームの認識ラベル画像内でラベル番号Rit(a-b)である細胞領域と、の対応度M(Rit(a-b),Rita)を、この細胞領域同士の重なり面積OL_Area(Rit(a-b),Rita)と、各細胞領域の面積Area(Rit(a-b)),Area(Rita)とを用いて、次式(15)によって算出する。なお、式(15)における係数wfは、所定の重み付け係数である。

Figure 2007048006
In addition, the cell tracking unit 19 is not limited to not only between time-series continuous recognition label images but also a predetermined number of frames away from each other in order to reduce the influence of temporal changes in the amount of fluorescence that occurs when capturing a series of cell fluorescence images. The degree of correspondence is also calculated between the recognition label images. Labels In this case, cell tracking unit 19, and a cell region is the label number Ri ta the recognition label image corresponding to the observation time t a, in the recognition label image of a predetermined number b only the previous frame from the recognition label image and cell area is number Ri t (ab), the corresponding degree M (Ri t (ab), Ri ta) the overlapping area OL_Area of this cell between regions (Ri t (ab), Ri ta) and, each cell Using the area of the area Area (Rit (ab) ) and Area ( Rita ), it is calculated by the following equation (15). Note that the coefficient w f in the equation (15) is a predetermined weighting coefficient.
Figure 2007048006

さらに、細胞追跡部19は、式(15)で算出した対応度をもとに、各細胞領域の認識の成否の程度を反映させた対応度を算出する。このために、本実施の形態2では、各細胞領域の認識の成否の程度を判断する基準となる内部エッジ成分強度平均Vin(L)および輪郭部エッジ成分強度平均Vcon(L)を反映させた対応度を算出する。すなわち、細胞追跡部19は、ラベル番号Ritaである細胞領域とラベル番号Rit(a-b)である細胞領域との認識の成否の程度を考慮した対応度M’(Rit(a-b),Rita)を、もとの対応度M(Rit(a-b),Rita)と、ラベル番号Rit(a-b)である細胞領域の内部エッジ成分強度平均Vin(Rit(a-b))および輪郭部エッジ成分強度平均Vcon(Rit(a-b))とを用いて、次式(16)によって算出する。

Figure 2007048006
Furthermore, the cell tracking unit 19 calculates a correspondence degree reflecting the degree of success or failure of recognition of each cell region based on the correspondence degree calculated by Expression (15). For this reason, the second embodiment reflects the internal edge component intensity average V in (L) and the contour edge component intensity average V con (L), which are criteria for determining the degree of success or failure of recognition of each cell region. The degree of correspondence is calculated. That is, cell tracking unit 19, the label number Ri ta corresponding degree M of the degree of success or failure of recognition of a cell region and the label number Ri t cell area is (ab) considering a '(Ri t (ab), Ri the ta), based on the corresponding degree M (Ri t (ab), and Ri ta), label number Ri t (ab) a is the internal edge component intensity average V in the cell region (Ri t (ab)) and contours Using the partial edge component intensity average V con (Rit (ab) ), the following equation (16) is used.
Figure 2007048006

細胞追跡部19は、かかる対応度M’(Rit(a-b),Rita)を、観測時点taの認識ラベル画像に存在する細胞領域と、観測時点t(a-c)(ただし、c=1〜b)の各観測時点の認識ラベル画像に存在する細胞領域と、の可能なすべての組み合わせについて算出する。そして、最も高い対応度を示す細胞領域の組み合わせにおける各細胞を同一の細胞であると判別し、この組み合わせの細胞領域同士を対応付ける。ただし、観測時点taと観測時点t(a-c)との間で算出されるすべての対応度が0または所定の閾値以下である場合には、細胞追跡部19は、これらの観測時点間で対応付けられる細胞は存在せず、観測時点taで細胞が新たに発生したものと判別する。 Cell tracking unit 19, such corresponding degree M '(Ri t (ab) , Ri ta) and a cell region existing recognition label image of the observation time t a, the observation time t (ac) (however, c = 1 The calculation is performed for all possible combinations of the cell region existing in the recognition label image at each observation time in (b). Then, it is determined that each cell in the combination of the cell regions showing the highest degree of correspondence is the same cell, and the cell regions in this combination are associated with each other. However, if all the corresponding degree calculated between the observed time t a and the observation time t (ac) is less than 0 or a predetermined threshold, cell tracking unit 19, corresponds between these observations point attached cells do not exist, the cells at the observation point t a is determined that the newly generated.

なお、ここでは細胞追跡部19は、細胞領域同士の重なり面積を用いて対応度を算出するものとしたが、重なり面積に限らず、例えば各細胞領域の円形度の一致度等、細胞領域間の他の特徴量を用いて算出することもできる。   Here, the cell tracking unit 19 calculates the correspondence using the overlapping area of the cell regions. However, the cell tracking unit 19 is not limited to the overlapping area. It can also be calculated using other feature quantities.

以上説明したように、本実施の形態2にかかる画像処理装置11および画像処理プログラムでは、各細胞領域の認識の成否の程度を反映させて、観測時点の異なる細胞蛍光画像間の細胞の同一性を判別するようにしているため、細胞認識処理で発生した誤差の伝播を防止して一層信頼性の高い細胞追跡処理を実現することができる。   As described above, in the image processing apparatus 11 and the image processing program according to the second embodiment, the identity of cells between cell fluorescence images at different observation points is reflected by reflecting the degree of success or failure of recognition of each cell region. Therefore, it is possible to prevent propagation of an error generated in the cell recognition process and realize a more reliable cell tracking process.

(実施の形態3)
つぎに、本発明の実施の形態3について説明する。上述した実施の形態1では、仮細胞領域を統合した結果の細胞領域にのみ認識の成否の程度を判定していたが、この実施の形態3では、所定の条件に応じて、細胞領域として仮細胞領域を選択して認識の成否の程度を判定するようにしている。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. In the first embodiment described above, the degree of success or failure of the recognition is determined only in the cell region as a result of the integration of the temporary cell region. However, in this third embodiment, the temporary cell region is temporarily determined according to a predetermined condition. A cell region is selected to determine the degree of success or failure of recognition.

図19は、本発明の実施の形態3にかかる画像処理装置21の構成を示すブロック図である。図19に示すように、画像処理装置21は、画像処理装置1の構成をもとに、細胞認識部3、画像照合部5および制御部8に替えて、細胞認識部23、画像照合部25および制御部28を備えるとともに、被統合輪郭抽出部29および選択的統合ラベル画像生成部30を新たに備える。被統合輪郭抽出部29および選択的統合ラベル画像生成部30を含めた各構成部は、制御部28に電気的に接続されている。なお、実施の形態1と同一の構成部には、同一符号を付している。   FIG. 19 is a block diagram showing a configuration of the image processing apparatus 21 according to the third embodiment of the present invention. As shown in FIG. 19, the image processing device 21 is replaced with the cell recognition unit 3, the image matching unit 5, and the control unit 8 based on the configuration of the image processing device 1, and the cell recognition unit 23 and the image matching unit 25. And a control unit 28, and an integrated outline extraction unit 29 and a selective integrated label image generation unit 30 are newly provided. Each component including the integrated contour extraction unit 29 and the selective integrated label image generation unit 30 is electrically connected to the control unit 28. In addition, the same code | symbol is attached | subjected to the component same as Embodiment 1. FIG.

細胞認識部23は、画像処理装置1が備えた細胞認識部3の構成をもとに、背景除去部3eおよび標識部3fをそれぞれ2つの構成部に分割した背景除去部23e−1,23e−2および標識部23f−1,23f−2を備える。そして、領域統合部3d、背景除去部23e−1および標識部23f−1は、到達極値算出部3cによって生成された仮ラベル画像に対して、図4に示した細胞認識処理と同様にステップS117〜ステップS121を行い、認識ラベル画像を生成する。一方、背景除去部23e−2および標識部23f−2は、仮ラベル画像に対して、ステップS117を省略し、ステップS119およびステップS121を行い、背景画素を除去した仮ラベル画像を生成する。   The cell recognizing unit 23 is based on the configuration of the cell recognizing unit 3 provided in the image processing apparatus 1, and the background removing units 23e-1 and 23e- are obtained by dividing the background removing unit 3e and the labeling unit 3f into two components. 2 and label portions 23f-1 and 23f-2. Then, the region integration unit 3d, the background removal unit 23e-1 and the labeling unit 23f-1 perform steps similar to the cell recognition process shown in FIG. 4 for the temporary label image generated by the ultimate value calculation unit 3c. Steps S117 to S121 are performed to generate a recognition label image. On the other hand, the background removal unit 23e-2 and the labeling unit 23f-2 omit step S117 and perform steps S119 and S121 on the temporary label image to generate a temporary label image from which the background pixels are removed.

標識部23f−1,23f−2は、固有の領域標識を認識ラベル画像および仮ラベル画像にそれぞれ付与する。このとき、標識部23f−1が、到達極値算出部3cによって各仮細胞領域に付与された領域標識のいずれとも異なる領域標識を付与する場合には、標識部23f−2は、到達極値算出部3cによって付与された領域標識をそのまま流用することができる。なお、この場合には、標識部23f−2を細胞認識部23から取り除くこともできる。   The labeling units 23f-1 and 23f-2 respectively assign unique area markers to the recognition label image and the temporary label image. At this time, in a case where the labeling unit 23f-1 gives a region marker different from any of the region markers given to each temporary cell region by the ultimate value calculating unit 3c, the labeling unit 23f-2 The area label given by the calculation unit 3c can be used as it is. In this case, the labeling unit 23f-2 can be removed from the cell recognition unit 23.

被統合輪郭抽出部29は、標識部23f−1,23f−2から認識ラベル画像および仮ラベル画像を取得し、認識ラベル画像と仮ラベル画像との差分を演算する。これによって、被統合輪郭抽出部29は、例えば図20に示すように、領域統合部3dが統合した仮細胞領域間の境界線に相当する被統合輪郭を抽出し、抽出した被統合輪郭を示す被統合輪郭画像を生成する。   The integrated contour extraction unit 29 acquires the recognition label image and the temporary label image from the labeling units 23f-1 and 23f-2, and calculates the difference between the recognition label image and the temporary label image. As a result, the integrated contour extraction unit 29 extracts the integrated contour corresponding to the boundary line between the temporary cell regions integrated by the region integration unit 3d, for example, as shown in FIG. 20, and shows the extracted integrated contour An integrated outline image is generated.

選択的統合ラベル画像生成部30は、標識部23f−1,23f−2から認識ラベル画像および仮ラベル画像を、参照エッジ画像生成部4から参照エッジ画像を、被統合輪郭抽出部29から被統合輪郭画像をそれぞれ取得する。そして、被統合輪郭画像内の被統合輪郭に含まれる境界画素としての被統合輪郭画素に対応する、参照エッジ画像内の画素が有するエッジ画素値に応じて、認識ラベル画像内の細胞領域または仮ラベル画像内の仮細胞領域を、最終的な細胞領域として認識する。   The selective integrated label image generation unit 30 integrates the recognition label image and the temporary label image from the label units 23f-1 and 23f-2, the reference edge image from the reference edge image generation unit 4, and the integrated outline extraction unit 29 to be integrated. Each contour image is acquired. Then, according to the edge pixel value of the pixel in the reference edge image corresponding to the integrated contour pixel as the boundary pixel included in the integrated contour in the integrated contour image, the cell region or the temporary label in the recognition label image The temporary cell region in the label image is recognized as the final cell region.

より具体的には、選択的統合ラベル画像生成部30は、被統合輪郭を構成する被統合輪郭画素に対応する参照エッジ画像内の画素のエッジ画素値が、所定の閾値より大きい場合には、仮ラベル画像内のこの被統合輪郭を境界線として隣接する各仮細胞領域を最終的な細胞領域と認識する。これは、被統合輪郭に対応するエッジ強度が大きい場合に、被統合輪郭が細胞の輪郭を示している可能性が高く、各仮細胞領域が個別の細胞に対応する領域である可能性が高いと考えられることによる。   More specifically, the selective integrated label image generation unit 30, when the edge pixel value of the pixel in the reference edge image corresponding to the integrated contour pixel constituting the integrated contour is larger than a predetermined threshold, Each adjacent temporary cell region is recognized as a final cell region with this integrated contour in the temporary label image as a boundary line. This is because when the edge strength corresponding to the integrated contour is large, the integrated contour is highly likely to indicate the contour of the cell, and each temporary cell region is likely to be a region corresponding to an individual cell. It depends on what is considered.

また、選択的統合ラベル画像生成部30は、被統合輪郭画素に対応する参照エッジ画像内の画素のエッジ画素値が、所定の閾値以下の場合には、隣接した仮細胞領域を統合した結果の細胞領域を最終的な細胞領域と認識する。これは、被統合輪郭に対応するエッジ強度が小さい場合に、被統合輪郭が細胞の輪郭以外の輝度変化を示している可能性が高く、隣接した各仮細胞領域が同一の細胞に対応する領域である可能性が高いと考えられることによる。   In addition, the selective integrated label image generation unit 30 integrates adjacent temporary cell regions when the edge pixel value of the pixel in the reference edge image corresponding to the integrated contour pixel is equal to or less than a predetermined threshold. Recognize the cell region as the final cell region. This is because when the edge strength corresponding to the integrated contour is small, the integrated contour is likely to show a luminance change other than the cell contour, and each adjacent temporary cell region corresponds to the same cell. It is because it is considered that there is a high possibility.

さらに、選択的統合ラベル画像生成部30は、このように認識した最終的な細胞領域を示す選択的統合ラベル画像を生成する。この際、選択的統合ラベル画像内の各細胞領域が仮細胞領域であるか、あるいは統合結果の細胞領域であるかを、細胞領域ごとに記録する。また、選択的統合ラベル画像生成部30は、生成した選択的統合ラベル画像を画像照合部25に出力する。なお、選択的統合ラベル画像生成部30は、生成した選択的統合ラベル画像を、制御部28を介して記憶部7に出力して記憶させることもできる。   Further, the selective integrated label image generation unit 30 generates a selective integrated label image indicating the final cell region recognized as described above. At this time, whether each cell region in the selectively integrated label image is a temporary cell region or a cell region as a result of integration is recorded for each cell region. In addition, the selective integrated label image generation unit 30 outputs the generated selective integrated label image to the image matching unit 25. The selective integrated label image generation unit 30 can also output and store the generated selective integrated label image to the storage unit 7 via the control unit 28.

画像照合部25は、認識ラベル画像に替えて選択的統合ラベル画像を用い、画像処理装置1が備えた画像照合部5と同様に認識信頼度判定処理を行って、選択的統合ラベル画像内の各細胞領域について認識の成否の程度を判定する。ただし、画像照合部25は、統合結果である細胞領域に対して式(11)〜(13)に示した演算を行う場合には、細胞領域内部を構成する全画素を用いる替わりに被統合輪郭画素に対応する領域内エッジ強度Ecin(q)のみ用いて演算を行い、画素数nin(L)を、被統合輪郭画素の画素数として演算を行う。このように演算処理することによって、認識信頼度判定処理の効率化および高速化を実現できる。 The image matching unit 25 uses the selective integrated label image instead of the recognition label image, performs the recognition reliability determination process in the same manner as the image matching unit 5 provided in the image processing apparatus 1, and performs the process in the selective integrated label image. The degree of success or failure of recognition is determined for each cell region. However, when performing the calculation shown in the equations (11) to (13) for the cell region as the integration result, the image matching unit 25 uses the integrated contour instead of using all the pixels constituting the inside of the cell region. The calculation is performed using only the in- region edge intensity Ec in (q) corresponding to the pixel, and the number of pixels n in (L) is calculated as the number of integrated contour pixels. By performing the arithmetic processing in this way, it is possible to realize the efficiency and speedup of the recognition reliability determination processing.

ここで、画像処理装置21が行う処理手順について説明する。図21は、制御部28が画像処理プログラムを実行することによって、画像処理装置21が細胞蛍光画像を処理する画像処理手順を示すフローチャートである。図21に示すように、まず、画像取得部2は、外部装置から細胞蛍光画像を取得し(ステップS201)、細胞認識部23は、図3に示したステップS103と同様に、仮ラベル画像および認識ラベル画像を生成する細胞認識処理を行う(ステップS203)。   Here, a processing procedure performed by the image processing apparatus 21 will be described. FIG. 21 is a flowchart illustrating an image processing procedure in which the image processing device 21 processes a cell fluorescence image by the control unit 28 executing the image processing program. As shown in FIG. 21, first, the image acquisition unit 2 acquires a cell fluorescence image from the external device (step S201), and the cell recognition unit 23 performs the temporary label image and the step similar to step S103 shown in FIG. 3. A cell recognition process for generating a recognition label image is performed (step S203).

ただし、ステップS103で認識ラベル画像のみ出力していたのに対し、このステップS203では、認識ラベル画像および仮ラベル画像をともに出力する。また、ステップS103の内部処理として図4に示したステップS119およびステップS121では、認識ラベル画像に対してのみ処理を行うようにしていたが、このステップS203では、認識ラベル画像と仮ラベル画像との双方に対して、ステップS119およびステップS121と同様の処理を行う。   However, while only the recognized label image is output in step S103, in step S203, both the recognized label image and the temporary label image are output. Further, in steps S119 and S121 shown in FIG. 4 as internal processing in step S103, processing is performed only on the recognized label image. In step S203, the recognition label image and the temporary label image are processed. For both, the same processing as in step S119 and step S121 is performed.

つづいて、参照エッジ画像生成部4は、図3に示したステップS105と同様にステップS205を行う。被統合輪郭抽出部29は、標識部23f−1,23f−2から取得した認識ラベル画像と仮ラベル画像との差分を演算し、被統合輪郭を抽出して、被統合輪郭画像を生成する(ステップS207)。選択的統合ラベル画像生成部30は、被統合輪郭画素に対応する参照エッジ画像内の画素が有するエッジ画素値に応じて、認識ラベル画像内の細胞領域または仮ラベル画像内の仮細胞領域を選択し、選択した領域を最終的な細胞領域として示す選択的統合ラベル画像を生成する選択的統合ラベル画像生成処理を行う(ステップS209)。   Subsequently, the reference edge image generation unit 4 performs Step S205 in the same manner as Step S105 illustrated in FIG. The integrated contour extraction unit 29 calculates the difference between the recognized label image and the temporary label image acquired from the labeling units 23f-1 and 23f-2, extracts the integrated contour, and generates an integrated contour image ( Step S207). The selective integrated label image generation unit 30 selects a cell region in the recognition label image or a temporary cell region in the temporary label image according to the edge pixel value of the pixel in the reference edge image corresponding to the integrated contour pixel. Then, a selective integrated label image generation process for generating a selective integrated label image indicating the selected region as the final cell region is performed (step S209).

その後、画像照合部25および表示部6は、図3に示したステップS107,S109と同様にステップS211,S213を順次行って、制御部28は、一連の画像処理を終了する。ただし、ステップS211では、画像照合部25は、認識ラベル画像に替えて選択的統合ラベル画像を用いて処理を行う。   Thereafter, the image matching unit 25 and the display unit 6 sequentially perform steps S211 and S213 similarly to steps S107 and S109 illustrated in FIG. 3, and the control unit 28 ends the series of image processing. However, in step S211, the image matching unit 25 performs processing using a selective integrated label image instead of the recognized label image.

なお、ステップS213では、表示部6は、ステップS109に対して新たに選択的統合ラベル画像、被統合輪郭画像等を表示することができる。また、ステップS213では、表示部6は、制御部28の制御のもと、選択的統合ラベル画像中の細胞領域ごとに、仮細胞領域が選択されたか、あるいは統合結果の細胞領域が選択されたかを、文字情報もしくは画像情報として観測者に報知することができる。なお、制御部28は、ステップS203とステップS205とを処理順序を入れ換えて行ってもよい。   In step S213, the display unit 6 can newly display a selective integrated label image, an integrated outline image, and the like in step S109. In step S213, whether the display unit 6 has selected a temporary cell region or a cell region as a result of integration for each cell region in the selectively integrated label image under the control of the control unit 28. Can be notified to the observer as text information or image information. The control unit 28 may perform step S203 and step S205 by switching the processing order.

以上説明したように、本実施の形態3にかかる画像処理装置21および画像処理プログラムでは、細胞領域の認識を行う際に、被統合輪郭画素の参照エッジ画像におけるエッジ画素値、すなわち被統合輪郭に対応するエッジ強度に応じて、認識ラベル画像内の細胞領域または仮ラベル画像内の仮細胞領域を選択して、最終的な細胞領域とするようにしているため、一層信頼性の高い細胞認識処理を実現できる。この結果、認識した細胞領域の特徴量の計測処理、細胞の追跡処理等、認識結果をもとに行われる各種処理において、一層信頼性の高い処理を可能にする。   As described above, in the image processing device 21 and the image processing program according to the third embodiment, when the cell region is recognized, the edge pixel value in the reference edge image of the integrated contour pixel, that is, the integrated contour is used. Depending on the corresponding edge strength, the cell area in the recognition label image or the temporary cell area in the temporary label image is selected to be the final cell area. Can be realized. As a result, it is possible to perform processing with higher reliability in various types of processing performed based on the recognition result, such as processing for measuring the feature amount of the recognized cell region and processing for tracking the cell.

また、本実施の形態3にかかる画像処理装置21および画像処理プログラムでは、各細胞領域の認識の成否の程度を判定する際に、統合結果の細胞領域に対して、細胞領域内部を構成するすべての画素を用いる替わりに、被統合輪郭画素のみ用いて各種演算を行うようにしているため、認識信頼度判定処理の効率化および高速化を実現できる。   Further, in the image processing device 21 and the image processing program according to the third embodiment, when determining the degree of success or failure of recognition of each cell region, all of the cell regions inside the cell region as a result of integration are configured. Instead of using these pixels, various calculations are performed using only the integrated contour pixels, so that the recognition reliability determination process can be made more efficient and faster.

また、本実施の形態3にかかる画像処理装置21および画像処理プログラムでは、被統合輪郭に対応するエッジ強度の大きさを所定の閾値を基準に判別するようにしているため、統合結果の細胞領域に対する統合処理の妥当性、統合結果の細胞領域内のノイズ量等を評価できる。   Further, in the image processing device 21 and the image processing program according to the third embodiment, the size of the edge intensity corresponding to the integrated contour is determined based on a predetermined threshold value, so that the cell region of the integration result It is possible to evaluate the validity of the integration processing for the noise, the amount of noise in the cell region of the integration result, and the like.

(実施の形態4)
つぎに、本発明の実施の形態4について説明する。上述した実施の形態1では、認識ラベル画像と参照エッジ画像とを照合して認識信頼度を判定するようにしていたが、この実施の形態4では、さらに細胞領域に対して設定した所定の領域モデルとの適合度に応じて、各細胞領域の認識の成否の程度を判定するようにしている。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described. In the first embodiment described above, the recognition label image and the reference edge image are collated to determine the recognition reliability. However, in the fourth embodiment, a predetermined region set for the cell region is further determined. The degree of success or failure of recognition of each cell region is determined according to the degree of matching with the model.

図22は、本発明の実施の形態4にかかる画像処理装置31の構成を示すブロック図である。図22に示すように、画像処理装置31は、画像処理装置1の構成をもとに、画像照合部5および制御部8に替えて、画像照合部35および制御部38を備える。また、図23は、画像照合部35の詳細構成を示すブロック図である。図23に示すように、画像照合部35は、画像照合部5の構成をもとに、認識信頼度判定部5dに替えて認識信頼度判定部35dを備えるとともに、特徴量算出部35e、細胞モデル割当部35fおよびモデル適合度算出部35gを新たに備える。なお、実施の形態1と同一の構成部には、同一符号を付している。   FIG. 22 is a block diagram showing a configuration of the image processing apparatus 31 according to the fourth embodiment of the present invention. As shown in FIG. 22, the image processing device 31 includes an image matching unit 35 and a control unit 38 instead of the image matching unit 5 and the control unit 8 based on the configuration of the image processing device 1. FIG. 23 is a block diagram illustrating a detailed configuration of the image matching unit 35. As shown in FIG. 23, the image matching unit 35 includes a recognition reliability determination unit 35d instead of the recognition reliability determination unit 5d based on the configuration of the image verification unit 5, and includes a feature amount calculation unit 35e, a cell A model assigning unit 35f and a model suitability calculating unit 35g are newly provided. In addition, the same code | symbol is attached | subjected to the component same as Embodiment 1. FIG.

画像照合部35は、画像照合部5と同様に、認識ラベル画像および参照エッジ画像をもとに、輪郭部エッジ成分強度平均と内部エッジ成分強度平均とを算出して、各細胞領域の認識の成否の程度の判定を行う。この処理に加えて、画像照合部35は、認識ラベル画像内の細胞領域と、あらかじめ細胞領域に対して設定された領域モデルとの適合度に応じて、各細胞領域の認識の成否の程度の判定を行う。ここで、あらかじめ設定される領域モデルは、細胞領域の形状、輝度分布等に基づいて規定されるものである。   Similar to the image matching unit 5, the image matching unit 35 calculates the contour edge component strength average and the inner edge component strength average based on the recognition label image and the reference edge image to recognize each cell region. The degree of success or failure is determined. In addition to this processing, the image matching unit 35 determines the degree of success or failure of recognition of each cell region according to the degree of matching between the cell region in the recognition label image and the region model set in advance for the cell region. Make a decision. Here, the region model set in advance is defined based on the shape of the cell region, the luminance distribution, and the like.

より具体的には、細胞モデル割当部35fは、細胞領域に対して所定の領域モデルを設定する。モデル適合度算出部35gは、設定された領域モデルに応じて、適合度の判定基準としての閾値を設定する。一方、特徴量算出部35eは、認識ラベル画像内の各細胞領域について、領域モデルとの適合度を判定するために必要な特徴量を算出して、モデル適合度算出部35gに出力する。認識信頼度判定部35dは、モデル適合度算出部35gから取得した判定基準としての閾値と細胞領域の特徴量とを比較し、閾値と特徴量との適合度が高い場合に、この細胞領域に認識信頼度を割り当てる。また、適合度が低い場合には、認識信頼度判定部5と同様に、輪郭部エッジ成分強度平均と内部エッジ成分強度平均とに基づいて認識信頼度を割り当てる処理を行う。   More specifically, the cell model assigning unit 35f sets a predetermined area model for the cell area. The model suitability calculation unit 35g sets a threshold value as a criterion for the suitability according to the set area model. On the other hand, the feature amount calculation unit 35e calculates a feature amount necessary for determining the degree of fitness with the region model for each cell region in the recognition label image, and outputs the feature amount to the model suitability calculation unit 35g. The recognition reliability determination unit 35d compares the threshold value as the determination criterion acquired from the model suitability calculation unit 35g with the feature amount of the cell region. Assign recognition confidence. Further, when the degree of matching is low, similarly to the recognition reliability determination unit 5, a process of assigning recognition reliability based on the contour edge component strength average and the internal edge component strength average is performed.

ここで、画像処理装置31が行う処理として、図3に示したステップS107に対応する認識信頼度判定処理について説明する。なお、制御部38が画像処理プログラムを実行することによって、画像処理装置31が細胞蛍光画像を処理する画像処理手順は、ステップS107を除き、図3に示した画像処理手順と同様である。   Here, as a process performed by the image processing apparatus 31, a recognition reliability determination process corresponding to step S107 illustrated in FIG. 3 will be described. The image processing procedure in which the image processing apparatus 31 processes the cell fluorescence image by executing the image processing program by the control unit 38 is the same as the image processing procedure shown in FIG. 3 except for step S107.

図24は、画像処理装置31が行う認識信頼度判定処理の処理手順を示すフローチャートである。このフローチャートは、細胞モデル割当部35fによって円形の領域モデルが設定され、モデル適合度算出部35gによって円形度に対する閾値RoundThが設定された場合の認識信頼度判定処理を例示している。   FIG. 24 is a flowchart illustrating a processing procedure of recognition reliability determination processing performed by the image processing device 31. This flowchart exemplifies a recognition reliability determination process when a circular area model is set by the cell model assigning unit 35f and a threshold RoundTh for the circularity is set by the model suitability calculating unit 35g.

図24に示すように、まず、特徴量算出部35eは、領域モデルとの適合度を判定するために必要な特徴量として、ラベル番号Lの細胞領域の円形度RdLを算出する(ステップS221)。つづいて、認識信頼度判定部35dは、円形度RdLが閾値RoundTh以上であるか否かを判断する(ステップS223)。円形度RdLが閾値RoundTh以上である場合(ステップS223:Yes)、認識信頼度判定部35dは、ラベル番号Lの細胞領域に「認識信頼度1」を割り当てる(ステップS225)。 As shown in FIG. 24, first, the feature amount calculation unit 35e calculates the circularity Rd L of the cell region with the label number L as the feature amount necessary for determining the degree of compatibility with the region model (step S221). ). Subsequently, the recognition reliability determination unit 35d determines whether or not the circularity Rd L is greater than or equal to the threshold value RoundTh (step S223). When the circularity Rd L is greater than or equal to the threshold RoundTh (step S223: Yes), the recognition reliability determination unit 35d assigns “recognition reliability 1” to the cell region with the label number L (step S225).

円形度RdLが閾値RoundThより小さい場合(ステップS223:No)、認識ラベル画像分離部5a、輪郭部エッジ成分算出部5bおよび内部エッジ成分算出部5cは、図14に示したステップS141〜S145と同様にステップS227〜S231を実行する。そして、認識信頼度判定部35dは、輪郭部エッジ成分強度平均Vcon(L)が所定の閾値ContourThより小さく、かつ、内部エッジ成分強度平均Vin(L)が所定の閾値InnerThより大きいか否かを判断し(ステップS233)、この判断条件が満足される場合(ステップS233:Yes)、ラベル番号Lの細胞領域に「認識信頼度5」を割り当てる(ステップS235)。 When the circularity Rd L is smaller than the threshold RoundTh (step S223: No), the recognition label image separation unit 5a, the contour edge component calculation unit 5b, and the internal edge component calculation unit 5c are the same as steps S141 to S145 shown in FIG. Similarly, steps S227 to S231 are executed. Then, the recognition reliability determination unit 35d determines whether the contour edge component strength average V con (L) is smaller than the predetermined threshold ContourTh and whether the inner edge component strength average V in (L) is larger than the predetermined threshold InnerTh. (Step S233), and if this determination condition is satisfied (Step S233: Yes), “recognition reliability 5” is assigned to the cell region of the label number L (Step S235).

ステップS233の判断条件が満足されない場合(ステップS233:No)、認識信頼度判定部35dは、内部エッジ成分強度平均Vin(L)が閾値InnerThより大きいか否かを判断し(ステップS237)、この判断条件が満足される場合(ステップS237:Yes)、ラベル番号Lの細胞領域に「認識信頼度4」を割り当てる(ステップS239)。 When the determination condition of step S233 is not satisfied (step S233: No), the recognition reliability determination unit 35d determines whether or not the inner edge component strength average V in (L) is greater than the threshold InnerTh (step S237). When this determination condition is satisfied (step S237: Yes), “recognition reliability of 4” is assigned to the cell region with the label number L (step S239).

ステップS237の判断条件が満足されない場合(ステップS237:No)、認識信頼度判定部35dは、輪郭部エッジ成分強度平均Vcon(L)が閾値ContourThより小さいか否かを判断し(ステップS241)、この判断条件が満足される場合(ステップS241:Yes)、ラベル番号Lの細胞領域に「認識信頼度3」を割り当てる(ステップS243)。ステップS241の判断条件が満足されない場合には(ステップS241:No)、ラベル番号Lの細胞領域に「認識信頼度2」を割り当てる(ステップS245)。 When the determination condition of step S237 is not satisfied (step S237: No), the recognition reliability determination unit 35d determines whether or not the contour edge component strength average V con (L) is smaller than the threshold value ContourTh (step S241). If this determination condition is satisfied (step S241: Yes), “recognition reliability 3” is assigned to the cell region with the label number L (step S243). If the determination condition of step S241 is not satisfied (step S241: No), “recognition reliability 2” is assigned to the cell region of label number L (step S245).

そして、制御部38は、認識ラベル画像中のすべての細胞領域を処理したか否かを判断し(ステップS247)、すべての細胞領域を処理していない場合(ステップS247:No)、処理していない細胞領域に対してステップS221からの処理を繰り返す。一方、すべての細胞領域を処理している場合には(ステップS247:Yes)、制御部38は、認識信頼度が対応付けられた認識ラベル画像を認識信頼度判定部35dから表示部6に出力させた後、認識信頼度判定処理を終了する。なお、かかる認識信頼度判定処理手順では、制御部38は、ステップS229とステップS231とを、処理順序を入れ換えて実行させることもできる。   And the control part 38 judges whether all the cell areas in the recognition label image were processed (step S247), and when not processing all the cell areas (step S247: No), it is processing. The process from step S221 is repeated for a cell region that does not exist. On the other hand, when all the cell regions are processed (step S247: Yes), the control unit 38 outputs the recognition label image associated with the recognition reliability to the display unit 6 from the recognition reliability determination unit 35d. Then, the recognition reliability determination process is terminated. In this recognition reliability determination processing procedure, the control unit 38 can also execute step S229 and step S231 by switching the processing order.

ステップS221では、特徴量算出部35eは、細胞領域の面積S、周囲長Tを用いて、次式(17)によって、円形度RdLを算出する。
RdL=4πS/T ・・・(17)
In step S221, the feature amount calculation unit 35e calculates the circularity Rd L by the following equation (17) using the area S of the cell region and the perimeter T.
Rd L = 4πS / T (17)

なお、この認識信頼度判定処理では、ステップS221〜S225によって、細胞領域の領域モデルに対する適合度を優先的に判断して、円形度RdLが閾値RoundTh以上であって真円に近ければ、エッジ強度によらず適合度が高いものとして、認識の成功度が最も高いことを示す「認識信頼度1」を対応付けるようにしている。 In this recognition reliability determination process, the suitability of the cell region with respect to the region model is preferentially determined in steps S221 to S225, and if the circularity Rd L is equal to or greater than the threshold RoundTh and close to a perfect circle, an edge is determined. “Recognition reliability 1” indicating that the recognition success level is the highest is associated with the high matching degree regardless of the strength.

また、この認識信頼度判定処理によって認識信頼度が対応付けられた認識ラベル画像は、制御部38の制御のもと、実施の形態1と同様に、認識信頼度に応じて細胞領域ごとに識別可能に表示される。   In addition, the recognition label image associated with the recognition reliability by the recognition reliability determination process is identified for each cell region according to the recognition reliability under the control of the control unit 38 as in the first embodiment. Displayed as possible.

つぎに、画像処理装置31が行う認識信頼度判定処理の別の一例として、細胞モデル割当部35fによって、輝度分布が凸状である領域モデルが設定された場合の、認識信頼度判定処理について説明する。この場合、例えば、モデル適合度算出部35gは、細胞領域内で輝度分布が凸状である凸状領域の細胞領域全体に対する存在比rcについて閾値ConvexityThを設定し、特徴量算出部35eは、認識ラベル画像内の各細胞領域に対して存在比rcを算出するものとする。なお、このような領域モデルおよび閾値ConvexityThの設定は、細胞蛍光画像中では、一般に細胞領域が高輝度画素の塊として現れることに基づいている。 Next, as another example of the recognition reliability determination process performed by the image processing device 31, a recognition reliability determination process when a region model having a convex luminance distribution is set by the cell model assignment unit 35f will be described. To do. In this case, for example, the model fitness calculating part 35g for the presence ratio r c to the entire cell area of the convex region luminance distribution is convex in the cell region to set the threshold ConvexityTh, feature amount calculation unit 35e is It shall be calculated abundance ratio r c with respect to each cell area in the recognition label image. Such setting of the region model and the threshold ConvexityTh is based on the fact that the cell region generally appears as a cluster of high-luminance pixels in the cell fluorescence image.

より具体的には、特徴量算出部35eは、まず、認識ラベル画像中の細胞領域から凸状領域を検出する。その際、例えば図25に示すように、注目画素Pに対して対称に所定間隔Dだけ離隔した画素A,Bを参照する。そして、画素A,Bが有する輝度値IA,IBの平均輝度値IABと比較して、注目画素Pの画素値IPが大きい場合に、注目画素Pを凸状領域を構成する候補画素として検出する。特徴量算出部35eは、このような検出処理を、図26に示す4方向、すなわち、水平方向(IAhor−IBhor方向)、垂直方向(IAver−IBver方向)、右上がり斜め方向(IAsla−IBsla方向)および左下がり斜め方向(IAbac−IBbac方向)について行い、次式(18)〜(21)で示される条件をすべて満足する場合に、注目画素Pを凸状領域を構成する画素として最終的に検出する。
P>IMhor=(IAhor+IBhor)/2 ・・・(18)
P>IMver=(IAver+IBver)/2 ・・・(19)
P>IMsla=(IAsla+IBsla)/2 ・・・(20)
P>IMbac=(IAbac+IBbac)/2 ・・・(21)
More specifically, the feature amount calculation unit 35e first detects a convex region from the cell region in the recognition label image. At this time, for example, as shown in FIG. 25, reference is made to pixels A and B that are symmetrically separated by a predetermined distance D with respect to the target pixel P. If the pixel value I P of the pixel of interest P is larger than the average luminance value I AB of the luminance values I A and I B of the pixels A and B, the candidate that constitutes the convex region when the pixel of interest P is large. It detects as a pixel. The feature quantity calculation unit 35e performs such detection processing in the four directions shown in FIG. 26, that is, the horizontal direction (I Ahor -I Bhor direction), the vertical direction (I Aver -I Bver direction), and the diagonally upward direction ( I Asla -I Bsla direction) and slanting left-down direction (I Abac -I Bbac direction), and when all the conditions expressed by the following equations (18) to (21) are satisfied, Are finally detected as the pixels constituting.
I P > I Mhor = (I Ahor + I Bhor ) / 2 (18)
I P > I Mver = (I Aver + I Bver ) / 2 (19)
I P > I Msla = (I Asla + I Bsla ) / 2 (20)
I P > I Mbac = (I Abac + I Bbac ) / 2 (21)

つづいて、特徴量算出部35eは、認識ラベル画像中のすべての画素について、凸状領域を構成する画素であるか否かを判別し、凸状領域の輝度凸の大きさを記録した輝度凸画像を生成する。ここで、注目画素Pにおける輝度凸の大きさCPは、次式(22)によって算出される。
P=((IP−IMhor)+(IP−IMver)+(IP−IMsla)+(IP−IMbac))/4 ・・・(22)
Subsequently, the feature amount calculation unit 35e determines whether or not all the pixels in the recognition label image are pixels constituting the convex region, and records the luminance convexity of the convex region. Generate an image. Here, the size C P of the luminance projection in the pixel of interest P is calculated by the following equation (22).
C P = ((I P −I Mhor ) + (I P −I Mver ) + (I P −I Msla ) + (I P −I Mbac )) / 4 (22)

その後、特徴量算出部35eは、輝度凸画像中の各画素の値が所定の閾値より大きいか否かを判別し、大きい場合に「1」、大きくない場合に「0」として2値化した輝度凸2値化画像を生成する。そして、認識ラベル画像内のラベル番号Lの細胞領域について、細胞領域を構成する画素に対応する輝度凸2値化画像での値が「1」である画素数nLを算出し、算出した画素数nLと、この細胞領域の面積SLとを用いて、次式(23)によって、存在比rc(L)を算出する。
c(L)=nL/SL ・・・(23)
After that, the feature amount calculation unit 35e determines whether or not the value of each pixel in the luminance convex image is larger than a predetermined threshold value, and binarizes the value as “1” when it is larger and “0” when it is not larger. A luminance convex binarized image is generated. Then, for the cell region with label number L in the recognition label image, the number n L of pixels whose value in the luminance convex binarized image corresponding to the pixel constituting the cell region is “1” is calculated, and the calculated pixel The abundance ratio r c (L) is calculated by the following equation (23) using the number n L and the area S L of the cell region.
r c (L) = n L / S L (23)

認識信頼判定処理手順としては、図24に示したフローチャートをもとに、特徴量算出部35eは、ステップS221に替えて、ラベル番号Lの細胞領域の存在比rc(L)を算出し、認識信頼度判定部35dは、ステップS223に替えて、存在比rc(L)が閾値ConvexityThより大きいか否かを判断するように処理内容を変更すればよい。これによって、輝度分布が凸状である領域モデルに対する適合度が高いと判断される細胞領域に「認識信頼度1」を割り当てることができる。 As the recognition reliability determination processing procedure, the feature quantity calculation unit 35e calculates the abundance ratio r c (L) of the cell region with the label number L instead of step S221 based on the flowchart shown in FIG. The recognition reliability determination unit 35d may change the processing content so as to determine whether or not the existence ratio r c (L) is larger than the threshold value ConvexityTh instead of step S223. As a result, “recognition reliability 1” can be assigned to a cell region that is determined to have a high degree of fitness for a region model having a convex luminance distribution.

以上説明したように、本実施の形態4にかかる画像処理装置31および画像処理プログラムでは、細胞領域の形状、輝度分布等に基づいて規定した領域モデルを設定し、領域モデルに対する細胞領域の適合度を優先的に判断して、適合度の高い細胞領域に対して高い認識信頼度を対応付けるようにしているため、領域モデルに適合した認識の成功度の高い細胞領域を効率的に判別することができる。また、領域モデルに適合した認識の成功度の高い細胞領域を、他の細胞領域と区別して表示することが可能であって、観測者に容易に識別可能とすることができる。   As described above, in the image processing device 31 and the image processing program according to the fourth embodiment, the region model defined based on the shape of the cell region, the luminance distribution, etc. is set, and the fitness of the cell region with respect to the region model Since a high recognition reliability is associated with a cell region having a high degree of fitness, it is possible to efficiently discriminate a cell region with a high degree of recognition success that matches the region model. it can. In addition, a cell region having a high recognition success level that matches the region model can be displayed separately from other cell regions, and can be easily identified by an observer.

なお、上述した実施の形態1〜4では、画素値として特に輝度値を扱ったが、輝度値に限定して解釈する必要はなく、本発明における画素値には、濃淡値、階調値、強度値等が含まれる。そして、本発明にかかる画像処理装置は、処理する画像の性質に応じて、画素値としての値をかかる各種の値の中から適宜選択して処理することが可能である。   In Embodiments 1 to 4 described above, the luminance value is particularly handled as the pixel value. However, the pixel value in the present invention is not limited to the luminance value. Intensity values etc. are included. The image processing apparatus according to the present invention can appropriately select a value as a pixel value from among these various values according to the property of the image to be processed.

本発明の実施の形態1にかかる画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. 図1に示した画像照合部の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the image collation part shown in FIG. 図1に示した画像処理装置が行う処理手順を示すフローチャートである。3 is a flowchart illustrating a processing procedure performed by the image processing apparatus illustrated in FIG. 1. 図3に示した細胞認識処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the cell recognition process shown in FIG. 極値間距離を説明する図である。It is a figure explaining the distance between extreme values. 仮細胞領域の統合方法を説明する図である。It is a figure explaining the integration method of a temporary cell area | region. 図3に示した参照エッジ画像生成処理の処理手順を示すフローチャートである。FIG. 4 is a flowchart showing a processing procedure of reference edge image generation processing shown in FIG. 3. FIG. ガウシアンフィルタを示す図である。It is a figure which shows a Gaussian filter. 図1に示した構造保存平滑部が参照する画素を示す図である。It is a figure which shows the pixel which the structure preservation | save smoothing part shown in FIG. 1 refers. 一次微分フィルタを示す図である。It is a figure which shows a primary differential filter. 一次微分フィルタを示す図である。It is a figure which shows a primary differential filter. 二次微分フィルタを示す図である。It is a figure which shows a secondary differential filter. 二次微分フィルタを示す図である。It is a figure which shows a secondary differential filter. 二次微分フィルタを示す図である。It is a figure which shows a secondary differential filter. 二次微分フィルタを示す図である。It is a figure which shows a secondary differential filter. 方向フィルタを示す図である。It is a figure which shows a direction filter. 階調変換関数の入出力関係を示す図である。It is a figure which shows the input / output relationship of a gradation conversion function. 参照エッジ画像の一例を示す図である。It is a figure which shows an example of a reference edge image. 細胞蛍光画像の一例を示す図である。It is a figure which shows an example of a cell fluorescence image. 図3に示した認識信頼度判定処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the recognition reliability determination process shown in FIG. 細胞領域の分離方法を説明する図である。It is a figure explaining the separation method of a cell field. 認識結果の一例を示す図である。It is a figure which shows an example of a recognition result. 本発明の実施の形態2にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning Embodiment 2 of this invention. 図17に示した画像処理装置で処理される画像の一例を示す図である。It is a figure which shows an example of the image processed with the image processing apparatus shown in FIG. 本発明の実施の形態3にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning Embodiment 3 of this invention. 被統合輪郭の抽出方法を説明する図である。It is a figure explaining the extraction method of a to-be-integrated outline. 図19に示した画像処理装置が行う処理手順を示すフローチャートである。20 is a flowchart illustrating a processing procedure performed by the image processing apparatus illustrated in FIG. 19. 本発明の実施の形態4にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning Embodiment 4 of this invention. 図22に示した画像照合部の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the image collation part shown in FIG. 図22に示した画像処理装置が行う認識信頼度判定処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the recognition reliability determination process which the image processing apparatus shown in FIG. 22 performs. 輝度分布が凸状である領域の検出方法を説明する図である。It is a figure explaining the detection method of the area | region where luminance distribution is convex. 輝度分布が凸状である領域の検出方法を説明する図である。It is a figure explaining the detection method of the area | region where luminance distribution is convex.

符号の説明Explanation of symbols

1,11,21,31 画像処理装置
2 画像取得部
3,23 細胞認識部
3a 平滑部
3b 勾配方向算出部
3c 到達極値算出部
3d 領域統合部
3e,23e−1,23e−2 背景除去部
3f,23f−1,23f−2 標識部
4 参照エッジ画像生成部
4a 平滑部
4b 構造保存平滑部
4c エッジ抽出部
4d 輪郭強調部
4e 階調変換部
5,25,35 画像照合部
5a 認識ラベル画像分離部
5b 輪郭部エッジ成分演算部
5c 内部エッジ成分演算部
5d,35d 認識信頼度判定部
6 表示部
7 記憶部
8,18,28,38 制御部
19 細胞追跡部
29 被統合輪郭抽出部
30 選択的統合ラベル画像生成部
35e 特徴量算出部
35f 細胞モデル割当部
35g モデル適合度算出部
AR1〜AR4 細胞領域
FT1〜FT4 方向フィルタ
DESCRIPTION OF SYMBOLS 1,11,21,31 Image processing apparatus 2 Image acquisition part 3,23 Cell recognition part 3a Smoothing part 3b Gradient direction calculation part 3c Ultimate extreme value calculation part 3d Area | region integration part 3e, 23e-1, 23e-2 Background removal part 3f, 23f-1, 23f-2 Labeling unit 4 Reference edge image generating unit 4a Smoothing unit 4b Structure preserving smoothing unit 4c Edge extracting unit 4d Outline emphasizing unit 4e Tone conversion unit 5, 25, 35 Image matching unit 5a Recognition label image Separation unit 5b Contour part edge component calculation unit 5c Internal edge component calculation unit 5d, 35d Recognition reliability determination unit 6 Display unit 7 Storage unit 8, 18, 28, 38 Control unit 19 Cell tracking unit 29 Integrated contour extraction unit 30 Selection Integrated label image generation unit 35e feature quantity calculation unit 35f cell model assignment unit 35g model fitness calculation unit AR1 to AR4 cell region FT1 to FT4 Yilta

Claims (18)

入力された観測画像の中から観測対象に対応する画像領域である対象領域を認識する認識処理を行う画像処理装置において、
前記認識処理による認識の成否の程度を前記対象領域ごとに判定する認識信頼度判定手段を備えたことを特徴とする画像処理装置。
In an image processing apparatus that performs recognition processing for recognizing a target area that is an image area corresponding to an observation target from among input observation images,
An image processing apparatus comprising: a recognition reliability determination unit that determines the degree of success or failure of recognition by the recognition process for each target region.
前記認識信頼度判定手段は、前記観測画像に含まれるエッジを検出したエッジ画像の各画素が有するエッジ画素値を用いて前記認識処理による認識の成否の程度を判定することを特徴とする請求項1に記載の画像処理装置。   The recognition reliability determination unit determines the degree of success or failure of recognition by the recognition process using an edge pixel value of each pixel of an edge image in which an edge included in the observed image is detected. The image processing apparatus according to 1. 前記認識信頼度判定手段は、前記対象領域の輪郭部に含まれる輪郭画素に対応する前記エッジ画像内の画素が有するエッジ画素値である輪郭エッジ強度と、前記対象領域の輪郭部を除く領域内部に含まれる内部画素に対応する前記エッジ画像内の画素が有するエッジ画素値である領域内エッジ強度と、を用いて前記認識処理による認識の成否の程度を判定することを特徴とする請求項2に記載の画像処理装置。   The recognition reliability determination means includes a contour edge strength that is an edge pixel value of a pixel in the edge image corresponding to a contour pixel included in a contour portion of the target region, and an inside of the region excluding the contour portion of the target region. The degree of success or failure of recognition by the recognition processing is determined using an in-region edge strength which is an edge pixel value of a pixel in the edge image corresponding to an internal pixel included in the recognition image. An image processing apparatus according to 1. 前記観測画像の中から仮対象領域を認識する仮領域認識手段と、
前記仮領域認識手段によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手段と、
前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手段と、
をさらに備えたことを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。
Temporary area recognition means for recognizing a temporary target area from the observed image;
An area in which the adjacent temporary target areas are integrated to form an integrated area based on a feature amount indicating a feature between adjacent temporary target areas from among the temporary target areas recognized by the temporary area recognition unit. Integration means;
The temporary target area or the integrated area is set as the target area according to an edge pixel value of a pixel in the edge image corresponding to a boundary pixel included in a boundary line between the integrated temporary target areas in the integrated area. Selective area recognition means for recognizing;
The image processing apparatus according to claim 1, further comprising:
前記観測画像の中から仮対象領域を認識する仮領域認識手段と、
前記仮領域認識手段によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手段と、
前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手段と、
をさらに備え、
前記認識信頼度判定手段は、前記境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値を、前記領域内エッジ強度として前記認識処理による認識の成否の程度を判定することを特徴とする請求項3に記載の画像処理装置。
Temporary area recognition means for recognizing a temporary target area from the observed image;
An area in which the adjacent temporary target areas are integrated to form an integrated area based on a feature amount indicating a feature between adjacent temporary target areas from among the temporary target areas recognized by the temporary area recognition unit. Integration means;
The temporary target area or the integrated area is set as the target area according to an edge pixel value of a pixel in the edge image corresponding to a boundary pixel included in a boundary line between the integrated temporary target areas in the integrated area. Selective area recognition means for recognizing;
Further comprising
The recognition reliability determination means determines the degree of success or failure of recognition by the recognition process using an edge pixel value of a pixel in the edge image corresponding to the boundary pixel as an edge strength in the region. The image processing apparatus according to claim 3.
前記認識信頼度判定手段は、前記認識処理によって認識された対象領域と、あらかじめ設定された領域モデルとの適合度を用いて前記認識処理による認識の成否の程度を判定することを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。   The recognition reliability determination unit determines the degree of success or failure of recognition by the recognition process using a degree of matching between a target area recognized by the recognition process and a preset area model. Item 4. The image processing device according to any one of Items 1 to 3. 前記領域モデルは、前記観測対象の形状または輝度分布に基づいて規定されることを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the region model is defined based on a shape or a luminance distribution of the observation target. 前記認識処理によって認識された各対象領域を前記認識信頼度判定手段の判定結果に応じた態様で表示する制御を行う表示制御手段をさらに備えたことを特徴とする請求項1〜7のいずれか一つに記載の画像処理装置。   The display control means for performing control to display each target area recognized by the recognition processing in a mode according to the determination result of the recognition reliability determination means. The image processing apparatus according to one. 前記観測画像は、異なる観測時点に撮像された複数の画像を含み、
前記観測時点の異なる観測画像間の前記観測対象の同一性を判別する対象追跡手段をさらに備え、前記対象追跡手段は、前記認識信頼度判定手段で判定した前記認識処理による認識の成否の程度を、前記観測対象の同一性の判別に反映させることを特徴とする請求項1〜8のいずれか一つに記載の画像処理装置。
The observation image includes a plurality of images taken at different observation time points,
It further comprises a target tracking unit that determines the identity of the observation target between observation images at different observation points, and the target tracking unit determines the degree of success or failure of recognition by the recognition process determined by the recognition reliability determination unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is reflected in determination of identity of the observation target.
前記認識信頼度判定手段によって認識の成功度が低いと判定された前記対象領域に対応させて、認識の成功度が低い旨の警告情報を報知する制御を行う報知制御手段をさらに備えたことを特徴とする請求項1〜9のいずれか一つに記載の画像処理装置。   Corresponding to the target region determined to have a low recognition success level by the recognition reliability determination unit, the control unit further includes a notification control unit that performs control to notify warning information indicating that the recognition success level is low. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized in that: 前記観測対象は、細胞であることを特徴とする請求項1〜10のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the observation target is a cell. 入力された観測画像の中から観測対象に対応する画像領域である対象領域を認識する認識処理を行う画像処理装置に、前記認識処理を行わせるための画像処理プログラムにおいて、
前記画像処理装置に、
前記認識処理による認識の成否の程度を前記対象領域ごとに判定する認識信頼度判定手順を実行させることを特徴とする画像処理プログラム。
In an image processing program for causing an image processing apparatus that performs recognition processing to recognize a target region that is an image region corresponding to an observation target from among input observation images,
In the image processing apparatus,
An image processing program for executing a recognition reliability determination procedure for determining the degree of success or failure of recognition by the recognition processing for each target area.
前記認識信頼度判定手順は、前記観測画像に含まれるエッジを検出したエッジ画像の各画素が有するエッジ画素値を用いて前記認識処理による認識の成否の程度を判定することを特徴とする請求項12に記載の画像処理プログラム。   The recognition reliability determination procedure determines a success or failure of recognition by the recognition process using an edge pixel value of each pixel of an edge image in which an edge included in the observed image is detected. 12. An image processing program according to 12. 前記認識信頼度判定手順は、前記対象領域の輪郭部に含まれる輪郭画素に対応する前記エッジ画像内の画素が有するエッジ画素値である輪郭エッジ強度と、前記対象領域の輪郭部を除く領域内部に含まれる内部画素に対応する前記エッジ画像内の画素が有するエッジ画素値である領域内エッジ強度と、を用いて前記認識処理による認識の成否の程度を判定することを特徴とする請求項13に記載の画像処理プログラム。   The recognition reliability determination procedure includes: a contour edge strength which is an edge pixel value of a pixel in the edge image corresponding to a contour pixel included in a contour portion of the target region; and a region inside excluding the contour portion of the target region The degree of success or failure of recognition by the recognition processing is determined using an in-region edge strength that is an edge pixel value of a pixel in the edge image corresponding to an internal pixel included in the recognition image. The image processing program described in 1. 前記観測画像の中から仮対象領域を認識する仮領域認識手順と、
前記仮領域認識手順によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手順と、
前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手順と、
をさらに実行させることを特徴とする請求項12〜14のいずれか一つに記載の画像処理プログラム。
A temporary area recognition procedure for recognizing a temporary target area from the observed image;
An area in which the adjacent temporary target areas are integrated to form an integrated area based on a feature amount indicating a feature between adjacent temporary target areas from among the temporary target areas recognized by the temporary area recognition procedure. Integration procedures and
The temporary target area or the integrated area is set as the target area according to an edge pixel value of a pixel in the edge image corresponding to a boundary pixel included in a boundary line between the integrated temporary target areas in the integrated area. Selective area recognition procedure to recognize;
The image processing program according to any one of claims 12 to 14, wherein the image processing program is further executed.
前記観測画像の中から仮対象領域を認識する仮領域認識手順と、
前記仮領域認識手順によって認識された各仮対象領域の中から、隣接した仮対象領域間の特徴を示す特徴量に基づいて、該隣接した仮対象領域同士を統合して統合領域を成形する領域統合手順と、
前記統合領域内の統合した仮対象領域間の境界線に含まれる境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値に応じて、前記仮対象領域または前記統合領域を前記対象領域として認識する選択的領域認識手順と、
をさらに実行させ、
前記認識信頼度判定手順は、前記境界画素に対応する前記エッジ画像内の画素が有するエッジ画素値を、前記領域内エッジ強度として前記認識処理による認識の成否の程度を判定することを特徴とする請求項14に記載の画像処理プログラム。
A temporary area recognition procedure for recognizing a temporary target area from the observed image;
An area in which the adjacent temporary target areas are integrated to form an integrated area based on a feature amount indicating a feature between adjacent temporary target areas from among the temporary target areas recognized by the temporary area recognition procedure. Integration procedures and
The temporary target area or the integrated area is set as the target area according to an edge pixel value of a pixel in the edge image corresponding to a boundary pixel included in a boundary line between the integrated temporary target areas in the integrated area. Selective area recognition procedure to recognize;
Is executed further,
In the recognition reliability determination procedure, the degree of success or failure of recognition by the recognition process is determined using an edge pixel value of a pixel in the edge image corresponding to the boundary pixel as an edge strength in the region. The image processing program according to claim 14.
前記認識信頼度判定手順は、前記認識処理によって認識された対象領域と、あらかじめ設定された領域モデルとの適合度を用いて前記認識処理による認識の成否の程度を判定することを特徴とする請求項12〜14のいずれか一つに記載の画像処理プログラム。   The recognition reliability determination procedure determines the success or failure of recognition by the recognition process using a degree of matching between a target area recognized by the recognition process and a preset area model. Item 15. The image processing program according to any one of Items 12 to 14. 前記観測画像は、異なる観測時点に撮像された複数の画像を含み、
前記観測時点の異なる観測画像間の前記観測対象の同一性を判別する対象追跡手順をさらに実行させ、前記対象追跡手順は、前記認識信頼度判定手順で判定した前記認識処理による認識の成否の程度を、前記観測対象の同一性の判別に反映させることを特徴とする請求項12〜17のいずれか一つに記載の画像処理プログラム。
The observation image includes a plurality of images taken at different observation time points,
A target tracking procedure for determining the identity of the observation target between observation images at different observation points is further executed, and the target tracking procedure is a degree of success or failure of recognition by the recognition process determined in the recognition reliability determination procedure. The image processing program according to claim 12, wherein the image processing program is reflected in the determination of the identity of the observation target.
JP2005231326A 2005-08-09 2005-08-09 Image processor and image processing program Withdrawn JP2007048006A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005231326A JP2007048006A (en) 2005-08-09 2005-08-09 Image processor and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005231326A JP2007048006A (en) 2005-08-09 2005-08-09 Image processor and image processing program

Publications (1)

Publication Number Publication Date
JP2007048006A true JP2007048006A (en) 2007-02-22

Family

ID=37850782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005231326A Withdrawn JP2007048006A (en) 2005-08-09 2005-08-09 Image processor and image processing program

Country Status (1)

Country Link
JP (1) JP2007048006A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216177A (en) * 2007-03-07 2008-09-18 Fuji Heavy Ind Ltd Object detection device
JP2009042909A (en) * 2007-08-07 2009-02-26 Sanyo Electric Co Ltd Feature point detection device and moving image processor mounted therewith
JP2010263872A (en) * 2009-05-18 2010-11-25 Olympus Corp Cell image analyzer
JP2012200156A (en) * 2011-03-23 2012-10-22 Olympus Corp Method for tracking cell
JP2013150557A (en) * 2012-01-24 2013-08-08 Tokyo Denki Univ System for observation of cultured cell with multi-point lighting
WO2016121065A1 (en) * 2015-01-29 2016-08-04 オリンパス株式会社 Device and method for analyzing cell
JP2018515743A (en) * 2015-05-11 2018-06-14 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. Method and apparatus for depth image processing
CN111950558A (en) * 2020-08-26 2020-11-17 上海申瑞继保电气有限公司 High-voltage oil-immersed transformer oil level image recognition method
CN115018415A (en) * 2022-05-31 2022-09-06 中邮信息科技(北京)有限公司 Express mail key information extraction method and device, electronic equipment and storage medium
JP2023021000A (en) * 2021-07-29 2023-02-09 楽天グループ株式会社 Blur-robust image segmentation
CN115803619A (en) * 2020-06-10 2023-03-14 日立造船株式会社 Information processing device, determination method, and information processing program
US12306086B2 (en) 2019-11-22 2025-05-20 Evident Corporation Method for displaying cell count information, system, and computer-readable medium
US12529684B2 (en) 2020-06-10 2026-01-20 Kanadevia Corporation Inspection device, inspection method, and inspection program

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216177A (en) * 2007-03-07 2008-09-18 Fuji Heavy Ind Ltd Object detection device
JP2009042909A (en) * 2007-08-07 2009-02-26 Sanyo Electric Co Ltd Feature point detection device and moving image processor mounted therewith
JP2010263872A (en) * 2009-05-18 2010-11-25 Olympus Corp Cell image analyzer
JP2012200156A (en) * 2011-03-23 2012-10-22 Olympus Corp Method for tracking cell
JP2013150557A (en) * 2012-01-24 2013-08-08 Tokyo Denki Univ System for observation of cultured cell with multi-point lighting
US10385300B2 (en) 2015-01-29 2019-08-20 Olympus Corporation Cell analysis apparatus and method
WO2016121065A1 (en) * 2015-01-29 2016-08-04 オリンパス株式会社 Device and method for analyzing cell
JPWO2016121065A1 (en) * 2015-01-29 2017-11-02 オリンパス株式会社 Cell analysis apparatus and method
JP2018515743A (en) * 2015-05-11 2018-06-14 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. Method and apparatus for depth image processing
US12306086B2 (en) 2019-11-22 2025-05-20 Evident Corporation Method for displaying cell count information, system, and computer-readable medium
US12529684B2 (en) 2020-06-10 2026-01-20 Kanadevia Corporation Inspection device, inspection method, and inspection program
US12488574B2 (en) 2020-06-10 2025-12-02 Kanadevia Corporation Information processing device, determination method, and information processing program
CN115803619A (en) * 2020-06-10 2023-03-14 日立造船株式会社 Information processing device, determination method, and information processing program
CN111950558A (en) * 2020-08-26 2020-11-17 上海申瑞继保电气有限公司 High-voltage oil-immersed transformer oil level image recognition method
CN111950558B (en) * 2020-08-26 2024-02-09 上海申瑞继保电气有限公司 High-pressure oil immersed transformer oil liquid level image identification method
JP7447191B2 (en) 2021-07-29 2024-03-11 楽天グループ株式会社 Image segmentation robust against blur
US12165310B2 (en) 2021-07-29 2024-12-10 Rakuten Group, Inc. Blur-robust image segmentation
JP2023021000A (en) * 2021-07-29 2023-02-09 楽天グループ株式会社 Blur-robust image segmentation
CN115018415A (en) * 2022-05-31 2022-09-06 中邮信息科技(北京)有限公司 Express mail key information extraction method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
US12394036B2 (en) Information processing device, information processing method, and storage medium
CN110678901B (en) Information processing equipment, information processing method and computer-readable storage medium
EP2101296B1 (en) Eye detecting device, eye detecting method, and program
CN107230202B (en) Method and system for automatic identification of pavement disease images
CN108416344B (en) Method for locating and identifying eyeground color optic disk and yellow spot
JP6303332B2 (en) Image processing apparatus, image processing method, and image processing program
US8073233B2 (en) Image processor, microscope system, and area specifying program
CN109684981B (en) Identification method and equipment of cyan eye image and screening system
CN114419025A (en) Fiberboard quality evaluation method based on image processing
US12156697B2 (en) Glaucoma image recognition method and device and diagnosis system
CN111914665B (en) Face shielding detection method, device, equipment and storage medium
CN104700112B (en) Parasite egg detecting method in a kind of excrement based on morphological feature
CN106651846A (en) Segmentation method of retinal blood vessel image
RU2014101665A (en) DISPLAY DETECTION IN IMAGE DATA FRAME
JP2008286725A (en) Person detection apparatus and method
JP2007048006A (en) Image processor and image processing program
CN115689970B (en) Defect detection method and device for display panel, electronic equipment and storage medium
CN114170168A (en) Display module defect detection method, system and computer readable storage medium
CN111612749B (en) Lesion detection method and device based on lung imaging
Khan et al. Counting clustered cells using distance mapping
Shambhu et al. Edge-based segmentation for accurate detection of malaria parasites in microscopic blood smear images: a novel approach using FCM and MPP algorithms
CN110246139B (en) Method for rapidly extracting plankton in-situ image ROI (region of interest) based on double thresholds
JP2017053699A (en) Wavelength determination method for near-infrared imaging used for substance discrimination and substance discrimination method using near-infrared image
CN105869147B (en) A kind of amblyopia visual aid stray light recognition methods
CN119048521A (en) Cow milk somatic cell counting method, cow milk somatic cell counting device and computer equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080801

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090918