WO2013099772A1 - 細胞輪郭線形成装置及びその方法、コンピュータにより処理可能な細胞輪郭線形成プログラムを記憶する記憶媒体 - Google Patents
細胞輪郭線形成装置及びその方法、コンピュータにより処理可能な細胞輪郭線形成プログラムを記憶する記憶媒体 Download PDFInfo
- Publication number
- WO2013099772A1 WO2013099772A1 PCT/JP2012/083134 JP2012083134W WO2013099772A1 WO 2013099772 A1 WO2013099772 A1 WO 2013099772A1 JP 2012083134 W JP2012083134 W JP 2012083134W WO 2013099772 A1 WO2013099772 A1 WO 2013099772A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- cell
- image
- frequency image
- frequency
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/695—Preprocessing, e.g. image segmentation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
- G02B21/365—Control or image processing arrangements for digital or video microscopes
- G02B21/367—Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/168—Segmentation; Edge detection involving transform domain methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/42—Analysis of texture based on statistical description of texture using transform domain methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/431—Frequency domain transformation; Autocorrelation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
Definitions
- the present invention relates to a cell contour line forming apparatus and method for extracting a contour line representing the shape of an individual cell from a cell image acquired by imaging using, for example, a bright field microscope, and a cell contour line processable by a computer.
- the present invention relates to a storage medium for storing a program.
- Patent Document 1 discloses a technique related to cell contour extraction for analyzing cell morphology conversion for the purpose of analyzing DNA functions.
- the technique relating to cell contour extraction is a technique for forming a cell contour line from a phase difference image photographed by a phase contrast microscope and a fluorescence image photographed by a fluorescence microscope.
- Patent Document 1 first creates edge information by taking a difference between a phase difference image and an image obtained by applying a close-opening filter to the phase difference image, and gradient based on the created edge information. Create a vector flow (GVF), then create an initial contour by binarizing the fluorescence image, and finally apply the Snakes (dynamic contour) method to the initial contour under the constraints of GVF It is disclosed that a cell outline is formed.
- VMF vector flow
- Patent Document 1 obtains rough edge information from a phase difference image, and obtains a final contour from a fluorescence image under the restriction. For this reason, Patent Document 1 has a problem that it is necessary to first capture and process both the phase difference image and the fluorescence image, which is troublesome and requires a large amount of processing and is redundant. Patent Document 1 is based on the premise that only the edge component on the cell contour that is the source of GVF can be extracted by taking the difference between the image obtained by applying the close-opening filter to the phase difference image and the original image. Yes.
- Patent Document 1 when a plurality of cells are aggregated and adjacent to each other, only the edge on the cell outline is obtained while avoiding the extraction of the edge (high frequency) component due to the fine structure (texture) and noise inside the cell. It is very difficult.
- the high-frequency component in the contour line may be similar to the high-frequency component band due to the fine structure (texture) present in the cell.
- the closing-opening filter is adjusted so that only the edges on the contour line can be extracted, the contour line is likely to be a collection of minute line segments that are interrupted, and a sufficient GVF can be created by applying the Snakes method. Not exclusively.
- the present invention has been made in view of the above problems, and stores a cell outline forming apparatus and method capable of calculating a cell outline with high accuracy, and a cell outline forming program that can be processed by a computer. It is to provide a storage medium.
- a cell contour forming apparatus includes a cell image acquisition unit that captures a cell group to be observed and acquires a cell image, and a low-frequency image and a high-frequency component composed of low-frequency components from the cell image.
- a band image creating unit that creates a plurality of band images including a high-frequency image, a feature amount calculating unit that calculates a local texture feature amount from the high-frequency image, a pixel value of the low-frequency image, and the A correction unit that performs correction processing on the high-frequency image based on the texture feature amount, and contour formation that forms a contour line of cells included in the cell group based on the high-frequency image after the correction processing A portion.
- the cell contour forming method acquires a cell image by imaging a cell group to be observed, and a low-frequency image composed of a low-frequency component and a high-frequency image composed of a high-frequency component from the cell image A plurality of band images including the same, calculate a local texture feature amount from the high-frequency image, and correct the high-frequency image based on the pixel value of the low-frequency image and the texture feature amount Processing is performed to form a contour line of cells included in the cell group based on the corrected high-frequency image.
- a computer-processable storage medium captures a cell group to be observed to acquire a cell image, and a high-frequency image composed of a low-frequency image and a high-frequency component from the cell image.
- a cell contour line forming program for realizing the contour lines of the cells included in the cell group based on the corrected high frequency image.
- a cell contour forming apparatus and method for calculating a cell contour with high accuracy and a storage medium for storing a cell contour forming program that can be processed by a computer.
- FIG. 1 is a block diagram showing a first embodiment of a cell contour forming apparatus according to the present invention.
- FIG. 2 is a specific configuration diagram showing a band dividing unit in the apparatus.
- FIG. 3A is a diagram showing a one-dimensionally simplified luminance value distribution of a cell image acquired by an imaging unit in the apparatus.
- FIG. 3B is a diagram illustrating an example of a luminance value distribution of a low-frequency image generated by the band dividing unit in the apparatus.
- FIG. 3C is a diagram illustrating an example of a luminance value distribution of a high-frequency image generated by a band dividing unit in the apparatus.
- FIG. 4A is a diagram illustrating an example of a pixel value in a region of interest applied to the apparatus.
- FIG. 4A is a diagram illustrating an example of a pixel value in a region of interest applied to the apparatus.
- FIG. 4B is a diagram showing an example of a co-occurrence matrix calculated by counting the appearance frequency for adjacent pixel pairs recorded by the apparatus.
- FIG. 5 is a schematic diagram showing a high-frequency image including a fine structure (texture) inside the cell and a high-frequency image obtained by removing the fine structure inside the cell obtained by the boundary line forming unit in the same apparatus.
- FIG. 6 is a flowchart of cell outline formation of the apparatus.
- FIG. 7 is a block diagram showing a second embodiment of the cell contour forming apparatus according to the present invention.
- FIG. 8 is a specific configuration diagram showing a boundary line forming unit in the apparatus.
- FIG. 9A is a schematic diagram showing a schematic contour line in a synthesis process when two cells are in close contact as a boundary line synthesis method by the boundary line synthesis unit in the apparatus.
- FIG. 9B is a schematic diagram showing a cell contour line in a synthesis process when two cells are in close contact as a boundary line synthesis method by the boundary line synthesis unit in the apparatus.
- FIG. 9C is a schematic diagram showing a cell outline obtained as a result of morphological processing and shaping after two synthesizing processes when two cells are in close contact as a boundary synthesizing method by the boundary synthesizing unit in the apparatus. is there.
- FIG. 10 is a flowchart of cell contour formation of the apparatus.
- FIG. 10 is a flowchart of cell contour formation of the apparatus.
- FIG. 11 is a block diagram showing a third embodiment of the cell contour forming apparatus according to the present invention.
- FIG. 12 is a diagram showing a linear discriminant function used by the correction processing unit in the apparatus.
- FIG. 13 is a flowchart of cell contour formation of the apparatus.
- FIG. 1 shows a configuration diagram of a cell contour forming apparatus.
- This apparatus includes an imaging unit 100, a band dividing unit 101, a texture feature amount calculating unit 102, a filter coefficient setting unit 103, a filter processing unit 104, a boundary line forming unit 105, and an output unit 106.
- the imaging unit 100 is connected to the band dividing unit 101.
- the band dividing unit 101 is connected to the texture feature amount calculating unit 102, the filter coefficient setting unit 103, and the filter processing unit 104.
- the texture feature amount calculation unit 102 is connected to the filter coefficient setting unit 103.
- the filter coefficient setting unit 103 is connected to the filter processing unit 104.
- the filter processing unit 104 is connected to the boundary line forming unit 105.
- the boundary line forming unit 105 is connected to the output unit 106.
- the units 100 to 106 are connected to the system controller 107 and controlled in operation, for example.
- Each unit 100 to 106 may be composed of, for example, a CPU (Central Processing Unit) and a storage device such as a RAM or ROM for storing a calculation program.
- the ROM stores a cell outline forming program as a calculation program.
- the cell contour line forming program has a cell image acquisition function for acquiring a cell image obtained by imaging a cell group to be observed in a CPU as a computer, and a low frequency image composed of low frequency components and a high frequency component composed of high frequency components.
- the feature quantity calculation function that calculates local texture feature quantities from high-frequency images, and the pixel values and texture feature quantities of low-frequency images
- a correction function that performs a correction process on the high-frequency image and a contour line forming function that forms a contour line of cells included in the cell group based on the corrected high-frequency image are realized.
- the imaging unit 100 captures a cell group to be observed and acquires a cell image.
- the imaging unit 100 includes an imaging device such as a CCD and an A / D converter, for example.
- the imaging unit 100 is assumed to image a cell group by attaching a camera to a phase contrast microscope (Phase contrast microscope), but is not limited thereto.
- the imaging unit 100 can also be applied to other bright field microscopes such as a differential interference microscope (differential interference microscope).
- the imaging unit 100 converts a phase difference image of a cell photographed by a phase contrast microscope into a digital signal via an imaging element such as a CCD and an A / D converter, and is, for example, 8-bit (256 gradations) monochrome.
- the original image signal F is output.
- the monochrome original image signal F is transferred to the band dividing unit 101.
- the phase contrast microscope is a microscope that utilizes a light diffraction phenomenon. Since the phase contrast microscope can obtain the phase difference (light path difference) of light transmitted between substances having different refractive indexes as contrast, it is suitable for observing objects such as transparent cells and microorganisms.
- An image photographed through a phase contrast microscope has a feature that a strong contrast called a halo (artifact) occurs on the boundary line between the background region and the sample. Halo appears as aura-like light at the boundary between the background and individual cells in a cell image acquired by a phase contrast microscope.
- a cell outline can be obtained by extracting halo by a predetermined edge extracting means. However, at the same time, it is easy to extract edge components based on the fine structure and noise inside the cell, and it is difficult to obtain a beautiful contour line.
- phase contrast image obtained by the phase contrast microscope presupposes a positive contrast image that is captured with a bright background area and a relatively dark cell area.
- the present invention is not limited to this. Even in the case of a negative contrast image, the phase difference image can be processed by inverting the gradation and treating it like a positive contrast image.
- the band dividing unit 101 creates a plurality of band images including a low-frequency image composed of low-frequency components and a high-frequency image composed of high-frequency components from the cell image. Specifically, the band dividing unit 101 decomposes the monochrome original image signal F into a plurality of band images including different frequency band components by a predetermined multi-resolution decomposition process.
- the band dividing unit 101 has two components, a low-frequency image L including a low-frequency component in the monochrome original image signal F and a high-frequency image H including a large amount of high-frequency components in the monochrome original image signal F. Decompose into images.
- the low-frequency image L has a frequency band in which the fine structure / detail and noise existing on or inside the cell image are removed, and a difference in luminance between the background region and the cell region is likely to appear. It is preferable to include many.
- the high-frequency image H preferably includes as much high-frequency components as possible due to edge halos on the cell contour in the cell image.
- FIG. 2 shows a specific configuration diagram of the band dividing unit 101.
- the band dividing unit 101 includes a low frequency generation unit 110 and a high frequency generation unit 111. Each input side of the low-frequency generation unit 110 and the high-frequency generation unit 111 is connected to the imaging unit 100.
- the low frequency generator 110 is connected to the high frequency generator 111 and the filter coefficient setting unit 103.
- the high frequency generation unit 111 is connected to the texture feature quantity calculation unit 102 and the filter processing unit 104.
- the low frequency generation unit 110 generates a low frequency image L by performing a smoothing process on the cell image. Specifically, the low frequency generation unit 110 applies a predetermined smoothing filter to the monochrome original image signal F transferred from the imaging unit 100 to perform smoothing, and outputs the smoothing filter as a low frequency image L. Transfer to the filter coefficient setting unit 103 and the high-frequency generation unit 111. In the present embodiment, the low-frequency generation unit 110 performs smoothing using a Gaussian filter, but is not limited to this. Any low-frequency generator 110 can be applied as long as it extracts a low-frequency component.
- FIG. 3A is an example in which the luminance value distribution of the cell image acquired by the imaging unit 100 is simplified in one dimension.
- the low-frequency generation unit 110 performs a smoothing process on the original cell image shown in FIG. 3A to generate a low-frequency image L as shown in FIG. 3B.
- the high frequency generation unit 111 generates a high frequency image H by subtracting the low frequency image L from the cell image. Specifically, the high-frequency generation unit 111 compares each difference value between corresponding pixel values between the monochrome original image signal F transferred from the imaging unit 100 and the low-frequency image L transferred from the low-frequency generation unit 110. Each difference value is transferred as a high frequency image H to the texture feature amount calculation unit 102 and the filter processing unit 104. Thereby, the low-frequency image L and the high-frequency image H are generated from the monochrome original image signal F.
- FIG. 3C shows an example of the luminance value distribution of the high-frequency image H generated by subtracting the low-frequency image L from the cell image.
- the monochrome original image signal F is divided into two bands, a low-frequency image L and a high-frequency image H, but the present invention is not limited to this.
- the monochrome original image signal F is divided into three or more band images by further dividing the band by further multi-resolution decomposition.
- a band image in which luminance changes of the background and the cell region are likely to appear remarkably from among three or more band images, and a band image containing a lot of edges and halos on the cell contour, for example, a predetermined condition It is also possible to select by threshold processing based on the contrast / dispersion of pixel values and to apply them as a low-frequency image L and a high-frequency image H, respectively.
- the texture feature amount calculation unit 102 calculates a local texture feature amount for each pixel on the high-frequency image H described below.
- the texture feature amount is a feature amount based on the randomness of the pixel value distribution in the high frequency image H.
- the texture feature amount is a feature amount based on the complexity of the pixel value distribution in the high frequency image H.
- the texture feature amount is a feature amount based on a pixel co-occurrence matrix in the high-frequency image H. For the texture feature quantity, select a feature quantity that is likely to make a difference between the pixel containing the high-frequency component in the cell outline on the high-frequency image H and the pixel containing the high-frequency component due to the fine structure (texture) inside the cell. There is a need to.
- entropy that is one of texture feature quantities based on a co-occurrence matrix that is widely known as a texture analysis technique is applied.
- a method for creating a co-occurrence matrix for a predetermined target pixel in the high-frequency image H and calculating the texture feature amount entropy will be described.
- the co-occurrence matrix is one of widely known techniques for calculating the statistical feature quantity of texture in an image.
- the co-occurrence matrix represents the appearance frequency / probability of pixel pairs in a certain positional relationship included in the image in the form of a matrix (co-occurrence matrix).
- Various texture feature quantities can be calculated from the co-occurrence matrix.
- a gradation-compressed image in which the number of gradations is compressed to a predetermined number from the high-frequency image H is created.
- the size of the co-occurrence matrix is a square matrix of the number of gradations ⁇ the number of gradations.
- a region of interest having a predetermined size centered on the pixel of interest is set.
- the size of the attention area is, for example, a 5 ⁇ 5 pixel area.
- the positional relationship ⁇ of the pixel pair extracted from the attention area is set.
- FIG. 4A shows an example of pixel values in a specific region of interest
- entropy which is a texture feature amount defined by Expression (1), is applied as the texture feature amount.
- L represents the size of the matrix (the number of gradations).
- the texture feature amount entropy is an index for measuring the randomness and randomness of the pixel value distribution, and the value becomes smaller as the pixel value is randomly included in the region of interest.
- the texture feature amount entropy calculated for each pixel of the high-frequency image H is transferred to the filter coefficient setting unit 103.
- entropy is applied as the texture feature amount, but the present invention is not limited to this.
- the texture feature amount has a difference between pixels including a high-frequency component in a cell outline included in the high-frequency image H and a high-frequency component due to a fine structure (texture) inside the cell. It can also be applied to feature quantities.
- the texture feature amount that can be calculated from the co-occurrence matrix C is defined in various ways. For example, the angular second moment shown below and the inverse of variance can be applied as the texture feature amount.
- the angular second moment is defined as shown in equation (2). The angular second moment has many specific pixel pairs, and the value increases as the uniformity increases.
- the variance is defined as shown in equation (3).
- the variance increases as the difference between the pixel values included in the region of interest increases and the variation and complexity of the elements increase. The reciprocal of the variance becomes smaller on the contrary.
- the filter coefficient setting unit 103 and the filter processing unit 104 perform a correction process on the high-frequency image H based on the pixel value of the low-frequency image L and the texture feature amount.
- the correction processing in the filter coefficient setting unit 103 and the filter processing unit 104 performs a filter process on the high-frequency image H based on the pixel value and the texture feature amount of the low-frequency image L.
- the filter coefficient setting unit 103 sets a filter coefficient based on the pixel value of the low-frequency image L and the texture feature amount.
- the filter processing unit 104 performs a filter process based on the filter coefficient set by the filter coefficient setting unit 103.
- the filtering process is configured by a non-linear filter.
- the filter coefficient setting unit 103 sets a filter coefficient in the filter processing for the high frequency image H in the filter processing unit 104 based on the texture feature amount and the pixel value of the low frequency image H.
- the filter coefficient setting unit 103 for example, when the texture feature value is large and the randomness of the pixel value distribution is high, or when the texture feature value is not uniform and biased, and the pixel value of the low-frequency image L is When it is low, that is, when it is relatively low compared to the pixel value of the background region, the filter coefficient is set so that the smoothing effect by the filter processing of the filter processing unit 104 becomes high.
- the filter smoothing effect is controlled by performing weighting using texture feature amount entropy and low-frequency pixel values based on, for example, a filter coefficient of a bilateral filter as filter processing.
- a bilateral filter is a filter generally known widely as a non-linear filter.
- the bilateral filter is used in applications such as noise reduction processing as a filter that can remove a minute luminance change while maintaining a global edge structure of an image.
- the filter coefficient Coef (k + m, l + n) is expressed by Expression (4).
- k and l are the X and Y coordinate values of the pixel of interest at the time of filtering
- k + m and l + n are the X and Y coordinates of neighboring pixels included in the region of interest of a predetermined size centered on the pixel of interest.
- Value. H (k, l) represents the pixel value of the high-frequency image H at the coordinates k, l.
- the bilateral filter performs weighting according to the Gaussian distribution according to the difference in distance between the target pixel and its neighboring pixels, and similarly weights according to the Gaussian distribution according to the difference between the target pixel value and its neighboring pixel values.
- ⁇ 1 represents the standard deviation of the former Gaussian distribution
- ⁇ 2 represents the standard deviation of the latter Gaussian distribution.
- the texture feature amount is controlled. Is large, the randomness of the pixel value distribution is high, and the brightness of the low-frequency image L is low.
- the standard deviation ⁇ 1 is defined by equation (5) and the standard deviation ⁇ 2 is defined by equation (6).
- ⁇ 1 ⁇ 1 ′ / F (k, l) (5)
- ⁇ 2 ⁇ 2 ′ / B (k, l) (6)
- ⁇ 1 ′ and ⁇ 2 ′ are predetermined constants.
- the filter processing unit 104 performs filter processing (convolution processing) on the high-frequency image H from the band dividing unit 101 according to the filter coefficient set by the filter coefficient setting unit 103.
- the filter processing unit 104 performs normalization by performing division using the total value of the filter coefficients in the region of interest so that the average brightness of the image does not change after performing filter processing using the filter coefficients. Get the output.
- This filtering process it is possible to suppress high frequency components based on the fine structure (texture) inside the cells while leaving high frequency components based on the cell outline.
- the high-frequency image H ′ after the filter processing by the filter processing unit 104 is transferred to the boundary line forming unit 105.
- the boundary line forming unit 105 forms a cell outline by performing threshold processing on the high-frequency image H ′ after the correction processing by the filter coefficient setting unit 103 and the filter processing unit 104.
- the boundary line forming unit 105 performs binarization by threshold processing on the high-frequency image H ′ after the filter processing by the filter processing unit 104, and sets pixels including high-frequency components that are equal to or higher than a predetermined threshold as cell contour lines. As a result, a cell outline image H ′′ is formed.
- FIG. 5 shows a schematic diagram of a high-frequency image H ′ including a fine structure (texture) inside the cell.
- the high-frequency image H ′ includes the fine structure (texture) t inside the cell H.
- a cell contour image H ′′ is formed as a cell contour line.
- the boundary line forming unit 105 transfers the cell outline image H ′′ to the output unit 106.
- the output unit 106 converts the cell outline image H ′′ into a predetermined image format such as TIFF, and stores it in a recording medium such as a flash memory.
- the imaging unit 100 converts, for example, a phase difference image of a cell group photographed through a phase contrast microscope into a digital signal via an imaging element such as a CCD and an A / D converter, for example, 8 bits (256 gradations). Output as a monochrome original image signal F.
- the monochrome original image signal F is transferred to the band dividing unit 101.
- the band dividing unit 101 inputs the monochrome original image signal F output from the imaging unit 100 in step S10.
- the band dividing unit 101 performs predetermined multi-resolution decomposition processing on the monochrome original image signal F, and converts the monochrome original image signal F into a plurality of band images including different frequency band components, for example, monochrome original image signals.
- the image is decomposed into two component images, a low-frequency image L including a low-frequency component in F and a high-frequency image H including a large amount of high-frequency components in the monochrome original image signal F.
- the low-frequency image L has a frequency band in which the fine structure / detail and noise existing on or inside the cell image are removed, and a difference in luminance between the background region and the cell region is likely to appear. It is preferable to include many.
- the high-frequency image H preferably includes as much high-frequency components as possible due to edge halos on the cell contour in the cell image.
- step S ⁇ b> 30 the texture feature amount calculation unit 102 sets a target pixel and a target region having a predetermined size centered on the target pixel.
- the size of the attention area is, for example, a 5 ⁇ 5 pixel area.
- step S40 the texture feature amount calculation unit 102 calculates a texture feature amount. First, the texture feature quantity calculation unit 102 sets the positional relationship ⁇ of the pixel pair extracted from the attention area.
- the texture feature quantity calculation unit 102 counts the appearance frequencies of all adjacent pixel pairs included in the region of interest and records them in a co-occurrence matrix P ⁇ (Li, Lj) as shown in FIG. 4B.
- the texture feature quantity calculation unit 102 records all frequencies in which the pixel pairs Li and Lj exist, and then normalizes P ⁇ (Li, Lj) with the total number of appearance frequencies.
- the texture feature amount calculation unit 102 calculates a texture feature amount from the calculated co-occurrence matrix C. For example, the texture feature amount entropy defined by the above equation (1) is applied as the texture feature amount.
- the texture feature amount entropy calculated for each pixel of the high-frequency image H is transferred to the filter coefficient setting unit 103.
- step S ⁇ b> 50 the filter coefficient setting unit 103 sets a filter coefficient for the filter processing for the high frequency image H in the filter processing unit 104 based on the texture feature amount and the pixel value of the low frequency image L.
- the filter smoothing effect is controlled by performing weighting using texture feature amount entropy and low-frequency pixel values based on, for example, a filter coefficient of a bilateral filter as filter processing.
- the standard deviation ⁇ 1 is controlled by the texture feature amount F (k, l)
- the standard deviation ⁇ 2 is controlled by the pixel value (brightness) B (k, l) of the low-frequency image L.
- the standard deviation ⁇ 1 is defined by the above formula (5)
- the standard deviation ⁇ 2 is defined by the above formula (6).
- the filter processing unit 104 performs filter processing on the high-frequency image H output from the band dividing unit 101, that is, filter processing (convolution processing) according to the filter coefficient set by the filter coefficient setting unit 103.
- the filter processing unit 104 performs normalization by dividing the image after the filter processing by the total value of the filter coefficients in the region of interest so that the average brightness of the image does not change after performing the filter processing using the filter coefficients. To obtain the final filter output. By performing this filtering process, it is possible to suppress the high frequency component based on the fine structure (texture) inside the cell while leaving the cell outline included in the high frequency component.
- the high-frequency image H ′ after the filter processing by the filter processing unit 104 is transferred to the boundary line forming unit 105.
- step S70 the filter processing unit 104 checks whether or not the filtering process has been performed on all the pixels of the high-frequency image H. If there is an unprocessed pixel, the process returns to step S30. When the process has been performed for all the pixels, the filter processing unit 104 proceeds to step S80.
- the boundary line forming unit 105 forms a cell outline by performing threshold processing on the high-frequency image H ′ after the correction processing by the filter coefficient setting unit 103 and the filter processing unit 104. Specifically, the boundary line forming unit 105 performs binarization by threshold processing on the high-frequency image H ′ after the filter processing by the filter processing unit 104, and sets pixels including high-frequency components that are equal to or higher than a predetermined threshold as cell contour lines. As a result, a cell outline image H ′′ is formed.
- the boundary line forming unit 105 transfers the cell outline image H ′′ to the output unit 106.
- the output unit 106 converts the cell outline image H ′′ into a predetermined image format such as TIFF, and stores it in a recording medium such as a flash memory.
- the cell group to be observed is imaged to obtain the cell image, the low-frequency image L and the high-frequency image H are created from the cell image, and the high-frequency image H A local texture feature amount is calculated from the high frequency image H based on the pixel value and the texture feature amount of the low frequency image L, and based on the corrected high frequency image H ′.
- the contour line is formed based on the high-frequency component separated from the monochrome original image signal F, and the influence of the low-frequency component is excluded, thereby forming a stable contour line that suppresses the influence of brightness unevenness and the like. Can do.
- the cell internal region has a relatively low luminance compared to the background region, high-frequency contour lines are suppressed based on the average luminance value obtained from the low-frequency image L, so that high-frequency components due to the fine structure inside the cell are suppressed. Can be obtained.
- the band dividing unit 101 performs a smoothing process on the cell image to generate the low-frequency image L, and subtracts the low-frequency image L from the cell image to generate the high-frequency image H. Since the area generation unit 111 is included, the separation process into the low-frequency image L and the high-frequency image H based on the monochrome original image signal F can be performed at high speed by a simple process.
- the texture feature amount is a feature amount based on the randomness of the pixel value distribution, it is possible to accurately distinguish the cell contour line from the high-frequency components other than that based on the randomness of the pixel value distribution. Since the texture feature amount is a feature amount based on the complexity of the pixel value distribution, it is possible to accurately distinguish the cell contour line from the high-frequency components other than that based on the complexity of the pixel value distribution. Since the texture feature amount is a feature amount based on the co-occurrence matrix, it is possible to accurately distinguish the cell contour line from the high frequency components other than that based on the feature amount based on the co-occurrence matrix.
- the correction means including the filter coefficient setting unit 103 and the filter processing unit 104 performs the filtering process on the high-frequency image H based on the pixel value and texture feature amount of the low-frequency image L, the pixel value of the low-frequency image L In addition, it is possible to efficiently perform the correction process on the high frequency image H based on the texture feature amount. Since the filter processing unit 104 sets the filter coefficient based on the pixel value and the texture feature amount of the low-frequency image L, the filter degree can be controlled so as to effectively suppress high-frequency components unnecessary for cell outline extraction. it can. Since the filter process is a non-linear filter process, it is possible to perform complicated filter control that cannot be realized by a linear filter.
- the boundary line forming unit 105 forms a cell contour line by performing threshold processing on the high-frequency image H after the filter processing, the cell contour line can be easily and quickly formed by simple threshold processing. it can.
- the cell image is an image acquired by a bright field microscope, and cell outline extraction can be performed on all bright field microscope images such as a phase contrast microscope and a DIC.
- FIG. 7 shows a configuration diagram of the cell contour forming apparatus. This apparatus is different from the apparatus shown in FIG. 1 in that a texture feature amount calculation unit 200 and a boundary line formation unit 201 are different.
- the texture feature quantity calculation unit 200 and the boundary line formation unit 201 may be constituted by, for example, a CPU (Central Processing Unit) and a storage device such as a RAM or ROM that stores a calculation program.
- the ROM stores a cell outline forming program as a calculation program.
- the cell contour line formation program causes a CPU as a computer to calculate a local texture feature amount based on a histogram of luminance (pixel value) in the high frequency image H from the high frequency image H generated by the band dividing unit 101.
- the function and the outline contour line indicating the cell-non-cell region boundary are extracted from the high frequency image H from the band dividing unit 101, and the threshold value processing for the high frequency image H ′ from the filter processing unit 104 is performed.
- a cell contour line image H ′′ is formed with pixels including high-frequency components equal to or higher than a predetermined threshold value as a cell contour line, and the outline contour line and the cell contour line image H ′′ are synthesized. This realizes a function of extracting a contour line with higher accuracy.
- the band dividing unit 101 is connected to the texture feature amount calculating unit 200, the filter coefficient setting unit 103, the filter processing unit 104, and the boundary line forming unit 201.
- the texture feature amount calculation unit 200 is connected to the filter coefficient setting unit 103.
- the filter processing unit 104 is connected to the boundary line forming unit 201.
- the boundary line forming unit 201 is connected to the output unit 106.
- the texture feature amount calculation unit 200 calculates a local texture feature amount from the high frequency image H generated by the band dividing unit 101.
- the texture feature amount is a feature amount based on a histogram of luminance (pixel value) in the high-frequency image H.
- the texture feature amount calculation unit 200 calculates a texture feature amount based on the luminance histogram of the high frequency image H.
- the texture feature quantity calculation unit 200 calculates the variance of the luminance histogram as a scale indicating the complexity of the texture.
- the texture feature amount calculation unit 200 first sets a region of interest having a predetermined size centered on the pixel of interest on the high-frequency image H, and then calculates a luminance histogram Hist [Lv] for the region of interest.
- Lv represents a luminance value (pixel value of a high-frequency image) and takes a value in a range of “0-255”. Subsequently, the texture feature quantity calculation unit 200 calculates the pixel value average Ave in the attention area, and calculates the variance (Complexity) of the luminance histogram according to Expression (7).
- the boundary line forming unit 201 extracts the outline of the outline indicating the cell-non-cell region boundary from the high-frequency image H output from the band dividing unit 101, and the same as in the first embodiment.
- the binarization is performed by performing threshold processing with a predetermined threshold on the high frequency image H ′ output from the filter processing unit 104 by the technique.
- the boundary line forming unit 201 forms a cell outline image H ′′ having a cell outline as a pixel including a high frequency component equal to or higher than a predetermined threshold, and the outline outline and the cell outline image H ′′ are formed. Combine and extract contour lines with higher accuracy.
- FIG. 8 shows a specific configuration diagram of the boundary line forming unit 201.
- the boundary line forming unit 201 includes a threshold processing unit 202, a rough shape forming unit 203, and a boundary line combining unit 204.
- the band dividing unit 101 is connected to the outline forming unit 203.
- a filter processing unit 104 is connected to the threshold processing unit 202.
- Both the threshold processing unit 202 and the outline forming unit 203 are connected to the boundary line combining unit 204.
- the boundary line composition unit 204 is connected to the output unit 106.
- the threshold processing unit 202 performs binarization by threshold processing on the filtered high-frequency image H ′ transferred from the filter processing unit 104, and a pixel including a high-frequency component equal to or higher than a predetermined threshold is used as a cell outline.
- a cell contour image H ′′ is formed.
- the cell outline image H ′′ is transferred to the boundary line synthesis unit 204.
- the outline forming unit 203 calculates a gradient G defined between adjacent pixels as shown in Expression (8) for the high frequency image H, and performs binarization using a predetermined threshold.
- G (k, l) (L k, l ⁇ L k + l, l ) 2 + (L k, l ⁇ L k, l + 1 ) 2 (8)
- k and l are X and Y coordinate values
- L k and l represent pixel values at the coordinates k and l.
- Pixels larger than the predetermined threshold processing for the gradient G can be separated with relatively high accuracy as pixels included in the cell region, and small pixels as pixels included in the non-cell region (background region).
- the outline forming unit 203 adjusts the shape of the region by performing simple morphology processing such as contraction, expansion, and hole filling on the binarized image. Thereafter, the outline forming unit 203 forms a boundary line (hereinafter referred to as outline outline A) that separates the cell area and the non-cell area by extracting pixels adjacent to each other in binary.
- the outline A represents a boundary that separates the cell region and the non-cell region with high accuracy, but does not include a boundary (cell contour) that exists between adjacent and closely contacting cells.
- the outline A is transferred to the boundary line synthesis unit 204.
- the boundary line synthesizing unit 204 synthesizes the cell contour line image H ′′ and the outline contour line A, and then performs a predetermined morphology process such as expansion / contraction to adjust the shape, thereby adjusting the cell contour line H ′ ′′. Get.
- the cell outline H ′ ′′ is transferred to the output unit 106.
- FIG. 9A, FIG. 9B, and FIG. 9C show schematic diagrams of the synthesis process when two cells are in close contact with each other.
- 9A shows the outline A
- FIG. 9B shows the cell outline H ′′.
- the outline A does not include the outline between adjacent cells, but can form a boundary with the non-cell region with high accuracy.
- FIG. 9C shows a cell outline H ′ ′′ obtained as a result of morphological processing and shaping after synthesis.
- step S10 the band dividing unit 101 inputs the monochrome original image signal F output from the imaging unit 100 as described above.
- the band dividing unit 101 performs a plurality of band images including different frequency band components of the input monochrome original image signal F, for example, a low-frequency image L and a high-frequency image H, by a predetermined multi-resolution decomposition process. Decomposes into two component images.
- step S30 the texture feature amount calculation unit 200 sets a target pixel and a target region having a predetermined size centered on the target pixel.
- step S90 the texture feature quantity calculation unit 200 calculates a luminance histogram Hist [Lv] for the attention area.
- Lv represents the luminance value (pixel value of the high-frequency image) and takes a value in the range of “0-255”.
- step S50 the filter coefficient setting unit 103 sets the filter coefficient in the filter processing for the high-frequency image H in the filter processing unit 104 based on the texture feature amount and the pixel value of the low-frequency image L as described above.
- step S60 the filter processing unit 104 performs filter processing on the high-frequency image H from the band dividing unit 101 according to the filter coefficient set by the filter coefficient setting unit 103 as described above.
- step S70 the filter processing unit 104 checks whether or not the filter processing has been performed on all the pixels of the high-frequency image H as described above, and if there is an unprocessed pixel, returns to step S30. When the process has been performed for all the pixels, the filter processing unit 104 proceeds to step S80.
- the threshold processing unit 202 binarizes by performing threshold processing on the filtered high-frequency image H ′ transferred from the filter processing unit 104, and converts pixels including high-frequency components equal to or higher than a predetermined threshold into cells.
- a cell outline image H ′′ as an outline is formed.
- the cell outline image H ′′ is transferred to the boundary line synthesis unit 204.
- step S100 the outline forming unit 203 calculates a gradient G defined between adjacent pixels as shown in the above equation (8) for the high-frequency image H, and performs binarization using a predetermined threshold value.
- a predetermined threshold value For example, as shown in FIG.
- the outline A shows a boundary that separates a cell region and a non-cell region with high accuracy, but does not include a boundary (cell contour) that exists between adjacent and closely contacting cells. .
- the outline A is transferred to the boundary line synthesis unit 204.
- step S110 the boundary line synthesis unit 204 synthesizes the cell outline image H ′′ and the outline outline A as shown in FIG. 9B, and then performs predetermined morphology processing such as expansion and contraction to adjust the shape. Thus, a cell outline H ′ ′′ as shown in FIG. 9C is obtained. The cell outline H ′ ′′ is transferred to the output unit 106.
- the cell contour is calculated by calculating the local texture feature amount based on the histogram of the luminance (pixel value) from the high frequency image H generated by the band dividing unit 101.
- the high-frequency component based on the line and the high-frequency component due to other factors can be accurately distinguished by the feature amount based on the pixel value histogram.
- the boundary line forming unit 201 extracts a rough outline indicating a cell-non-cell region boundary from the high-frequency image H from the band dividing unit 101,
- binarization is performed by threshold processing on the high frequency image H ′ from the filter processing unit 104 to form a cell contour image H ′′ in which a pixel including a high frequency component equal to or higher than a predetermined threshold is used as a cell contour line, Since the outline outline and the cell outline image H ′′ are synthesized, an outline with higher accuracy can be extracted.
- FIG. 11 shows a configuration diagram of the cell contour forming apparatus.
- the present apparatus eliminates the filter coefficient setting unit 103, the filter processing unit 104, and the boundary line forming unit 201, and adds a correction processing unit 300 and a boundary line forming unit 105. is doing.
- Both the band dividing unit 101 and the texture feature amount calculating unit 200 are connected to the correction processing unit 300.
- the correction processing unit 300 is connected to the boundary line forming unit 105.
- the correction processing unit 300 may be composed of, for example, a CPU (central processing unit) and a storage device such as a RAM and a ROM for storing a calculation program.
- the ROM forms a cell contour line as a calculation program.
- the program is stored.
- the cell contour line forming program realizes a function of causing a CPU as a computer to perform correction processing based on discriminant analysis on a high-frequency image based on the pixel value and texture feature amount of the low-frequency image.
- the correction processing unit 300 includes a discriminant analysis unit 301 that performs correction processing based on discriminant analysis on the high-frequency image based on the pixel value of the low-frequency image and the texture feature amount.
- the discriminant analysis unit 301 corrects the high frequency image H by linear discrimination to remove unnecessary high frequencies.
- the correction processing unit 300 removes unnecessary high frequency from the high frequency image H from the band dividing unit 101 based on the texture feature amount and the low frequency image pixel value, that is, a linear discrimination that is a discriminant function based on discriminant analysis. Remove unnecessary high frequency by function. Unnecessary high-frequency removal can be performed more simply and at a higher speed than filter processing.
- the low frequency image L and the high frequency image H generated by the band dividing unit 101 are transferred to the correction processing unit 300.
- the correction processing unit 300 performs correction of the high-frequency image H based on linear discrimination processing, that is, removal of unnecessary high-frequency components, not filter processing.
- the correction processing unit 300 identifies a pixel that seems to have an unnecessary high-frequency component due to a fine structure inside the cell or noise by a linear discrimination process.
- the linear discrimination is the calculation of Expression (9) using the texture feature amount F (k, l) obtained from the high-frequency image H and the pixel value B (k, l) of the low-frequency image L as parameters, as shown in FIG. This is performed based on the value D (k, l) of the linear discriminant function.
- D (k, l) a1 * F (k, l) + a2 * B (k, l) + a3 (9)
- k and l represent the X and Y coordinates of the discrimination target pixel.
- a1, a2, and a3 are predetermined constants, and fixed values obtained in advance through experiments are set.
- (a1, a2, a3) ( ⁇ 1.25, ⁇ 0.15, +1.15).
- the correction processing unit 300 performs the above processing on all pixels.
- step S10 the band dividing unit 101 inputs the monochrome original image signal F output from the imaging unit 100 as described above.
- the band dividing unit 101 performs a plurality of band images including different frequency band components of the input monochrome original image signal F, for example, a low-frequency image L and a high-frequency image H, by a predetermined multi-resolution decomposition process. Decomposes into two component images.
- the texture feature quantity calculation unit 200 sets an attention area of a predetermined size centered on the target pixel in step S30, and calculates a luminance histogram Hist [Lv] for the attention area in step S90.
- the correction processing unit 300 includes a discriminant analysis unit 301 that performs correction processing based on discriminant analysis on the high-frequency image based on the pixel value of the low-frequency image and the texture feature amount.
- the discriminant analysis unit 301 corrects the high frequency image H by linear discrimination to remove unnecessary high frequencies.
- the correction processing unit 300 identifies a pixel that is considered to have an unnecessary high-frequency component due to a fine structure inside the cell or noise by a linear discrimination process.
- the linear discrimination is the calculation of the above equation (9) using the texture feature amount F (k, l) obtained from the high-frequency image H and the pixel value B (k, l) of the low-frequency image L as parameters.
- step S70 the correction processing unit 300 checks whether or not processing has been performed on all the pixels of the high-frequency image H as described above, and returns to step S30 if there is an unprocessed pixel. When the processing has been performed for all the pixels, the correction processing unit 300 proceeds to step S80.
- step S80 the threshold processing unit 202 performs binarization by threshold processing on the high-frequency image H ′ after correction processing transferred from the correction processing unit 300, and converts pixels including high-frequency components equal to or higher than a predetermined threshold into cells.
- a cell outline image H ′′ is formed as the outline.
- the cell outline image H ′′ is transferred to the boundary line synthesis unit 204.
- discriminant analysis for the high frequency image H based on the pixel value and the texture feature amount of the low frequency image L for example, correction by linear discrimination for the high frequency image H is performed. Since unnecessary high frequency is removed, correction can be performed by simple and high-speed processing compared to correction processing by filter processing or the like.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Description
本発明は、例えば明視野顕微鏡等を用いた撮像により取得された細胞画像から個々の細胞の形状を表す輪郭線を抽出する細胞輪郭線形成装置及びその方法、コンピュータにより処理可能な細胞輪郭線形成プログラムを記憶する記憶媒体に関する。
従来から医療・ライフサイエンス分野では、顕微鏡を通して撮影された細胞画像を用いた様々な細胞解析が行われている。例えば、ES細胞、iPS細胞等、幹細胞の研究においては、細胞分化メカニズムの解明や、創薬開発等を目的として、時系列で撮影された複数の細胞画像から細胞の分化過程や形態的特徴変化を観察し、細胞毎の性質の違いを調べるといった作業が一般的に行われている。
細胞画像の解析に関しては、従来目視で行われていた個々の細胞のスクリーニング等の煩雑な作業が画像認識等の画像処理技術を応用することで自動化することが可能になりつつある。かかる画像処理技術を応用すれば、細胞画像に含まれる個々の細胞輪郭線を算出し、細胞の形態情報や個体数等を把握することができる。
特許文献1は、DNAの機能解析を目的として細胞の形態変換を解析するための細胞輪郭抽出に関する技術を開示している。細胞輪郭抽出に関する技術は、位相差顕微鏡により撮影した位相差画像と蛍光顕微鏡により撮影した蛍光画像とから細胞輪郭線を形成する技術である。具体的に特許文献1は、先ず、位相差画像及びこの位相差画像に対してclose-openingフィルタを適用した画像の差分を取ることでエッジ情報を作成し、この作成したエッジ情報に基づいてgradient vector flow(GVF)を作成し、次に、蛍光画像を2値化することで初期輪郭を作成し、最後に、GVFの制約の元、初期輪郭に対しSnakes(動的輪郭)法を適用することで細胞輪郭線を形成することを開示している。
特許文献1は、位相差画像から大まかなエッジ情報を得て、その制約の元で蛍光画像から最終的な輪郭を得る。このため、特許文献1は、初めに位相差画像と蛍光画像との両画像を撮影し処理する必要があり、手間がかかる上、処理量が多く冗長であるという問題がある。
特許文献1は、位相差画像に対してclose-openingフィルタをかけた画像と原画像との差分を取ることで、GVFの元となる細胞輪郭上のエッジ成分だけを抽出できることが前提となっている。
特許文献1は、位相差画像に対してclose-openingフィルタをかけた画像と原画像との差分を取ることで、GVFの元となる細胞輪郭上のエッジ成分だけを抽出できることが前提となっている。
しかしながら、特許文献1では、複数の細胞が凝集し隣接している場合等において、細胞内部の微細構造(テクスチャ)やノイズによるエッジ(高周波)成分の抽出を避けながら細胞輪郭線上のエッジだけを得ることが非常に困難である。例えば、輪郭線における高周波成分と細胞内に存在する微細構造(テクスチャ)による高周波成分の帯域とが類似している場合がある。この場合、輪郭線上のエッジだけ抽出できるようにclosing-openingフィルタを調整しても、輪郭線は途切れ途切れの微小な線分の集まりになり易く、Snakes法適用において十分なGVFを作成できるとは限らない。close-openingフィルタの特性により局所的輝度値の最大値・最小値の影響を強く受けるためバンディングが起きやすく、滑らかな輪郭線が形成され難い。
本発明は、上記問題を鑑みてなされたものであり、細胞輪郭線を高精度に算出することが可能な細胞輪郭線形成装置及びその方法、コンピュータにより処理可能な細胞輪郭線形成プログラムを記憶する記憶媒体を提供することにある。
本発明は、上記問題を鑑みてなされたものであり、細胞輪郭線を高精度に算出することが可能な細胞輪郭線形成装置及びその方法、コンピュータにより処理可能な細胞輪郭線形成プログラムを記憶する記憶媒体を提供することにある。
本発明の主要な局面に係る細胞輪郭線形成装置は、観察対象の細胞群を撮像して細胞画像を取得する細胞画像取得部と、前記細胞画像から低周波成分により成る低域画像と高周波成分により成る高域画像とを含む複数の帯域画像を作成する帯域画像作成部と、前記高域画像から局所的なテクスチャ特徴量を算出する特徴量算出部と、前記低域画像の画素値と前記テクスチャ特徴量とに基づいて前記高域画像に対して補正処理を行う補正部と、前記補正処理後の前記高域画像に基づいて前記細胞群に含まれる細胞の輪郭線を形成する輪郭線形成部と、を具備する。
本発明の主要な局面に係る細胞輪郭線形成方法は、観察対象の細胞群を撮像して細胞画像を取得し、前記細胞画像から低周波成分により成る低域画像と高周波成分により成る高域画像とを含む複数の帯域画像を作成し、前記高域画像から局所的なテクスチャ特徴量を算出し、前記低域画像の画素値と前記テクスチャ特徴量とに基づいて前記高域画像に対して補正処理を行い、前記補正処理された前記高域画像に基づいて前記細胞群に含まれる細胞の輪郭線を形成する。
本発明の主要な局面に係るコンピュータにより処理可能な記憶媒体は、観察対象の細胞群を撮像して細胞画像を取得させ、前記細胞画像から低周波成分により成る低域画像と高周波成分により成る高域画像とを含む複数の帯域画像を作成させ、前記高域画像から局所的なテクスチャ特徴量を算出させ、前記低域画像の画素値と前記テクスチャ特徴量とに基づいて前記高域画像に対して補正処理を行わさせ、前記補正処理された前記高域画像に基づいて前記細胞群に含まれる細胞の輪郭線を形成させることを実現させる細胞輪郭線形成プログラムを記憶する。
本発明によれば、細胞輪郭線を高精度に算出することが可能な細胞輪郭線形成装置及びその方法、コンピュータにより処理可能な細胞輪郭線形成プログラムを記憶する記憶媒体を提供できる。
[第1の実施の形態]
以下、本発明の第1の実施の形態について図面を参照して説明する。
図1は細胞輪郭線形成装置の構成図を示す。本装置は、撮像部100と、帯域分割部101と、テクスチャ特徴量算出部102と、フィルタ係数設定部103と、フィルタ処理部104と、境界線形成部105と、出力部106とを含む。
撮像部100は、帯域分割部101に接続されている。帯域分割部101は、テクスチャ特徴量算出部102と、フィルタ係数設定部103と、フィルタ処理部104とに接続されている。テクスチャ特徴量算出部102は、フィルタ係数設定部103に接続されている。フィルタ係数設定部103は、フィルタ処理部104に接続されている。フィルタ処理部104は、境界線形成部105に接続されている。境界線形成部105は、出力部106に接続されている。各部100~106は、例えばシステムコントローラ107に接続されて動作制御される。
以下、本発明の第1の実施の形態について図面を参照して説明する。
図1は細胞輪郭線形成装置の構成図を示す。本装置は、撮像部100と、帯域分割部101と、テクスチャ特徴量算出部102と、フィルタ係数設定部103と、フィルタ処理部104と、境界線形成部105と、出力部106とを含む。
撮像部100は、帯域分割部101に接続されている。帯域分割部101は、テクスチャ特徴量算出部102と、フィルタ係数設定部103と、フィルタ処理部104とに接続されている。テクスチャ特徴量算出部102は、フィルタ係数設定部103に接続されている。フィルタ係数設定部103は、フィルタ処理部104に接続されている。フィルタ処理部104は、境界線形成部105に接続されている。境界線形成部105は、出力部106に接続されている。各部100~106は、例えばシステムコントローラ107に接続されて動作制御される。
各部100~106は、例えばCPU(中央演算処理装置)と演算プログラムを格納するRAM、ROM等の記憶装置となどから構成してもよい。ROMには、演算プログラムとしての細胞輪郭線形成プログラムが格納されている。
細胞輪郭線形成プログラムは、コンピュータとしてのCPUに、観察対象の細胞群を撮像した細胞画像を取得する細胞画像取得機能と、細胞画像から低周波成分により成る低域画像と高周波成分により成る高域画像とを含む複数の帯域画像を作成する帯域画像作成機能と、高域画像から局所的なテクスチャ特徴量を算出する特徴量算出機能と、低域画像の画素値とテクスチャ特徴量とに基づいて高域画像に対して補正処理を行う補正機能と、補正処理された高域画像に基づいて細胞群に含まれる細胞の輪郭線を形成する輪郭線形成機能とを実現させる。
細胞輪郭線形成プログラムは、コンピュータとしてのCPUに、観察対象の細胞群を撮像した細胞画像を取得する細胞画像取得機能と、細胞画像から低周波成分により成る低域画像と高周波成分により成る高域画像とを含む複数の帯域画像を作成する帯域画像作成機能と、高域画像から局所的なテクスチャ特徴量を算出する特徴量算出機能と、低域画像の画素値とテクスチャ特徴量とに基づいて高域画像に対して補正処理を行う補正機能と、補正処理された高域画像に基づいて細胞群に含まれる細胞の輪郭線を形成する輪郭線形成機能とを実現させる。
撮像部100は、観察対象の細胞群を撮像して細胞画像を取得する。撮像部100は、例えばCCD等の撮像素子と、A/D変換器とを含む。撮像部100は、例えば位相差顕微鏡(Phase contrast microscope)にカメラを取り付けて細胞群を撮像することを想定しているが、これに限定されることはない。撮像部100は、例えば微分干渉顕微鏡(Differential interference contrast microscope; DIC)等、他の明視野顕微鏡に対して適用することも可能である。
撮像部100は、位相差顕微鏡により撮影された細胞の位相差像をCCD等の撮像素子とA/D変換器等とを介してデジタル信号に変換し、例えば8ビット(256階調)のモノクロ原画像信号Fとして出力する。モノクロ原画像信号Fは、帯域分割部101に転送される。
位相差顕微鏡は、光の回折現象を利用した顕微鏡である。位相差顕微鏡は、異なる屈折率を持つ物質間を透過する光の位相差(光路差)をコントラストとして得ることができるので、透明な細胞や微生物等の対象物を観察するのに適している。位相差顕微鏡を通して撮影した画像は、背景領域と試料との境界線上においてハロ(アーティファクト)と呼ばれる強いコントラストが発生するという特徴がある。ハロは、位相差顕微鏡により取得される細胞画像において、背景と個々の細胞との境界部分にオーラ状の光として表れる。ハロを所定のエッジ抽出手段により抽出することで、細胞輪郭線を得ることができる。ところが、同時に細胞内部の微細構造やノイズに基づくエッジ成分も抽出してしまいやすく、綺麗な輪郭線を得ることは困難である。
本装置は、細胞のテクスチャ特徴量及び明るさを考慮することで細胞の輪郭線のみ抽出する。本実施の形態において位相差顕微鏡による位相差像は、見かけ上、背景領域が明るく、細胞領域が相対的に暗く撮影されるポジティブコントラスト像を前提としているが、これに限定されるものではない。当該位相差像は、ネガティブコントラスト像の場合においても、階調を反転させポジティブコントラスト像のように扱うことで処理することが可能である。
帯域分割部101は、細胞画像から低周波成分により成る低域画像と、高周波成分により成る高域画像とを含む複数の帯域画像を作成する。具体的に、帯域分割部101は、所定の多重解像度分解処理により、モノクロ原画像信号Fを異なる周波数帯域成分を含む複数の帯域画像に分解する。ここでは、帯域分割部101は、モノクロ原画像信号Fの中の低周波成分を含む低域画像Lと、モノクロ原画像信号Fの中の高周波成分を多く含む高域画像Hとの2つの成分画像に分解する。
低域画像Lは、細胞画像の中の背景領域上や細胞領域内部に存在する微細構造・ディテール、及びノイズが取り除かれ、かつ背景領域と細胞領域との輝度変化に差が現れやすい周波数帯域を多く含むことが好ましい。
高域画像Hは、細胞画像の中で細胞輪郭上のエッジ・ハロによる高周波成分をできるだけ多く含むことが好ましい。
高域画像Hは、細胞画像の中で細胞輪郭上のエッジ・ハロによる高周波成分をできるだけ多く含むことが好ましい。
図2は帯域分割部101の具体的な構成図を示す。帯域分割部101は、低域生成部110と、高域生成部111とを含む。低域生成部110と高域生成部111との各入力側は、それぞれ撮像部100に接続されている。低域生成部110は、高域生成部111と、フィルタ係数設定部103とに接続されている。高域生成部111は、テクスチャ特徴量算出部102と、フィルタ処理部104とに接続されている。
低域生成部110は、細胞画像に対して平滑化処理を行って低域画像Lを生成する。具体的に低域生成部110は、撮像部100から転送されたモノクロ原画像信号Fに対して所定の平滑化フィルタを適用して平滑化を行い、平滑化フィルタの出力を低域画像Lとしてフィルタ係数設定部103と、高域生成部111とに転送する。本実施の形態において低域生成部110は、ガウシアンフィルタを用いて平滑化しているが、これに限定されるものではない。低域生成部110は、低周波成分を抽出するものであれば如何なるものでも適用可能である。
図3Aは撮像部100により取得された細胞画像の輝度値分布を一次元に簡略化して示した例である。低域生成部110は、同図3Aに示す元の細胞画像に対して平滑化処理を行って同図3Bに示すような低域画像Lを生成する。
高域生成部111は、細胞画像から低域画像Lを減算して高域画像Hを生成する。具体的に高域生成部111は、撮像部100から転送されたモノクロ原画像信号Fと、低域生成部110から転送された低域画像Lとの間の対応する画素値間で各差分値を求め、各差分値を高域画像Hとしてテクスチャ特徴量算出部102と、フィルタ処理部104とに転送する。これにより、モノクロ原画像信号Fから低域画像Lと高域画像Hとが生成される。
図3Cは細胞画像から低域画像Lを減算して生成された高域画像Hの輝度値の分布の一例を示す。
図3Cは細胞画像から低域画像Lを減算して生成された高域画像Hの輝度値の分布の一例を示す。
本実施の形態では、モノクロ原画像信号Fを低域画像Lと高域画像Hとの2つの帯域に分けているが、これに限ることはない。本実施の形態は、更なる多重解像度分解により帯域をより細かく分解することで、モノクロ原画像信号Fを3つ以上の帯域画像に分割する。本実施の形態は、3つ以上の帯域画像の中から背景と細胞領域の輝度変化が顕著に表れやすい帯域画像と、細胞輪郭上のエッジ・ハロを多く含む帯域画像とを所定の条件、例えば画素値のコントラスト・分散に基づく閾値処理等により選択し、それぞれ低域画像Lと高域画像Hとして適用することも可能である。
テクスチャ特徴量算出部102は、以下に説明する高域画像H上の各画素について、局所的なテクスチャ特徴量を算出する。テクスチャ特徴量は、高域画像Hにおける画素値分布のランダム性に基づく特徴量である。テクスチャ特徴量は、高域画像Hにおける画素値分布の複雑度に基づく特徴量である。テクスチャ特徴量は、高域画像Hにおける画素の同時生起行列に基づく特徴量である。テクスチャ特徴量は、高域画像H上の細胞輪郭線における高域成分を含む画素と、細胞内部の微細構造(テクスチャ)による高域成分を含む画素とに対して差の出易い特徴量を選択する必要がある。
本実施の形態では、テクスチャ解析手法として広く知られる同時生起行列に基づくテクスチャ特徴量の一つであるエントロピーを適用する。以下、高域画像H中の所定の注目画素に関して同時生起行列を作成し、テクスチャ特徴量エントロピーを算出する方法について説明する。
同時生起行列は、画像中のテクスチャの統計的な特徴量算出の手法として広く知られているものの一つである。同時生起行列は、画像内に含まれる一定の位置関係にある画素対の出現頻度・確率を行列(同時生起行列)の形で表す。同時生起行列からは、様々なテクスチャ特徴量を算出することができる。
同時生起行列は、画像中のテクスチャの統計的な特徴量算出の手法として広く知られているものの一つである。同時生起行列は、画像内に含まれる一定の位置関係にある画素対の出現頻度・確率を行列(同時生起行列)の形で表す。同時生起行列からは、様々なテクスチャ特徴量を算出することができる。
先ず、同時生起行列のサイズを抑えて計算量を小さくするために、高域画像Hから階調数を所定の数に圧縮した階調圧縮画像が作成される。同時生起行列の大きさは、階調数×階調数の正方行列となる。本実施の形態では、例えば4階調(画素値=0~3)に圧縮する。
次に、注目画素を中心とした所定の大きさの注目領域が設定される。本実施の形態では、注目領域のサイズを例えば5×5画素領域とする。
次に、注目領域から抽出する画素対の位置関係δが設定される。本実施の形態では、横方向に隣接する(画素間の距離d=1、角度θ=0°)画素対を設定し、この画素対を成す左側の画素をi、右側の画素をjとし、それぞれの画素値をLi、Ljとする。なお、i=0,1,2,3,…,nであり、j=0,1,2,3,…,mである。
次に、注目画素を中心とした所定の大きさの注目領域が設定される。本実施の形態では、注目領域のサイズを例えば5×5画素領域とする。
次に、注目領域から抽出する画素対の位置関係δが設定される。本実施の形態では、横方向に隣接する(画素間の距離d=1、角度θ=0°)画素対を設定し、この画素対を成す左側の画素をi、右側の画素をjとし、それぞれの画素値をLi、Ljとする。なお、i=0,1,2,3,…,nであり、j=0,1,2,3,…,mである。
次に、注目領域に含まれる全ての隣接した画素対に関して、その出現頻度をカウントし、同時生起行列Pδ(Li、Lj)に記録する。すなわち、注目領域内で、画素対Li、Ljが存在する頻度を同時生起行列PδのLi行Lj列要素に記録する。
図4Aは具体的な注目領域内の画素値の一例を示し、図4Bはその際に算出される同時生起行列の一例を示す。図4Aに示す注目領域内ではLi=3、Lj=2の画素対が2対存在しているので、図4Bに示す同時生起行列の要素Pδ(3,2)=2となっている。図4Aに示す注目領域内ではLi=0、Lj=0の画素対が5対存在しているので、図4Bに示す同時生起行列の要素Pδ(0,0)=5となっている。
図4Aは具体的な注目領域内の画素値の一例を示し、図4Bはその際に算出される同時生起行列の一例を示す。図4Aに示す注目領域内ではLi=3、Lj=2の画素対が2対存在しているので、図4Bに示す同時生起行列の要素Pδ(3,2)=2となっている。図4Aに示す注目領域内ではLi=0、Lj=0の画素対が5対存在しているので、図4Bに示す同時生起行列の要素Pδ(0,0)=5となっている。
画素対Li、Ljが存在する全ての頻度を記録した後、出現頻度の総数でPδ(Li、Lj)を正規化する。そして、算出した同時生起行列Cからテクスチャ特徴量を算出する。
本実施の形態では、テクスチャ特徴量として式(1)により定義されるテクスチャ特徴量であるエントロピー(Entropy)を適用する。ここで、Lは、行列の大きさ(階調数)を表す。テクスチャ特徴量エントロピーは、画素値分布のでたらめさ、ランダム性を計る指標であり、注目領域内に画素値がランダムに含まれるほど値が小さくなる。
本実施の形態では、テクスチャ特徴量として式(1)により定義されるテクスチャ特徴量であるエントロピー(Entropy)を適用する。ここで、Lは、行列の大きさ(階調数)を表す。テクスチャ特徴量エントロピーは、画素値分布のでたらめさ、ランダム性を計る指標であり、注目領域内に画素値がランダムに含まれるほど値が小さくなる。
高域画像Hの画素毎に算出したテクスチャ特徴量エントロピーは、フィルタ係数設定部103に転送される。
本実施の形態では、テクスチャ特徴量としてエントロピーを適用したが、これに限るものでない。テクスチャ特徴量は、高域画像Hに含まれる細胞輪郭線における高域成分と、細胞内部の微細構造(テクスチャ)による高域成分とを含む画素間において差が出るものであれば、どのような特徴量でも適用可能である。
同時生起行列Cから算出できるテクスチャ特徴量は、様々に定義されており、例えば以下に示す角二次モーメント(Angular second moment)や、分散(Variance)の逆数もテクスチャ特徴量として適用可能である。
角二次モーメントは、式(2)に示すように定義される。角二次モーメントは、特定の画素対が多く存在し、一様性が大きいほど値が大きくなる。
同時生起行列Cから算出できるテクスチャ特徴量は、様々に定義されており、例えば以下に示す角二次モーメント(Angular second moment)や、分散(Variance)の逆数もテクスチャ特徴量として適用可能である。
角二次モーメントは、式(2)に示すように定義される。角二次モーメントは、特定の画素対が多く存在し、一様性が大きいほど値が大きくなる。
フィルタ係数設定部103及びフィルタ処理部104は、低域画像Lの画素値とテクスチャ特徴量とに基づいて高域画像Hに対して補正処理を行う。フィルタ係数設定部103及びフィルタ処理部104における補正処理は、低域画像Lの画素値とテクスチャ特徴量とに基づいて高域画像Hに対してフィルタ処理を行う。フィルタ係数設定部103は、低域画像Lの画素値とテクスチャ特徴量とに基づいてフィルタ係数を設定する。フィルタ処理部104は、フィルタ係数設定部103により設定されたフィルタ係数に基づいてフィルタ処理を行う。本実施の形態では、非線形フィルタによりフィルタ処理を構成している。
具体的に、フィルタ係数設定部103は、フィルタ処理部104における高域画像Hに対するフィルタ処理の際のフィルタ係数を、テクスチャ特徴量及び低域画像Hの画素値に基づき設定する。フィルタ係数設定部103は、例えばテクスチャ特徴量の値が大きく画素値分布のランダム性が高い、又はテクスチャ特徴量の値の一様性が低く偏りが少ない場合、かつ低域画像Lの画素値が低い場合すなわち背景領域の画素値と比べ相対的に低い場合に、フィルタ処理部104のフィルタ処理による平滑化効果が高くなるようにフィルタ係数を設定する。
本実施の形態では、フィルタ処理として例えばバイラテラルフィルタのフィルタ係数をベースとし、テクスチャ特徴量エントロピー、低域画素値による重み付けを行うことで、フィルタ平滑化効果の制御を行う。
バイラテラルフィルタは、非線形フィルタとして一般的に広く知られるフィルタである。バイラテラルフィルタは、画像の大域的なエッジ構造を維持しながら微細な輝度変化を除去できるフィルタとして、ノイズ低減処理等の用途で用いられている。フィルタ係数Coef(k+m,l+n)は、式(4)により表される。
バイラテラルフィルタは、非線形フィルタとして一般的に広く知られるフィルタである。バイラテラルフィルタは、画像の大域的なエッジ構造を維持しながら微細な輝度変化を除去できるフィルタとして、ノイズ低減処理等の用途で用いられている。フィルタ係数Coef(k+m,l+n)は、式(4)により表される。
ここで、k,lは、フィルタリングの際の注目画素のX,Y座標値であり、k+m,l+nは、注目画素を中心とした所定サイズの注目領域内に含まれる近傍画素のX,Y座標値である。又、H(k,l)は、座標k,lにおける高域画像Hの画素値を表す。
バイラテラルフィルタは、注目画素とその近傍画素との間の距離の差に応じてガウス分布に従う重み付けを行い、かつ注目画素値とその近傍画素値との差に応じて同様にガウス分布に従う重み付けを行う。σ1は前者のガウス分布の標準偏差を表し、σ2は後者のガウス分布の標準偏差を表す。
バイラテラルフィルタは、注目画素とその近傍画素との間の距離の差に応じてガウス分布に従う重み付けを行い、かつ注目画素値とその近傍画素値との差に応じて同様にガウス分布に従う重み付けを行う。σ1は前者のガウス分布の標準偏差を表し、σ2は後者のガウス分布の標準偏差を表す。
本実施の形態では、標準偏差σ1をテクスチャ特徴量F(k,l)、標準偏差σ2を低域画像Lの画素値(明るさ)B(k,l)で制御することにより、テクスチャ特徴量が大きく画素値分布のランダム性が高く、低域画像Lの明るさが低い場合にフィルタ平滑化効果が大きくなるよう調整する。
標準偏差σ1を式(5)、標準偏差σ2を式(6)により定義する。
σ1=σ1’/F(k,l) …(5)
σ2=σ2’/B(k,l) …(6)
σ1’、σ2’は所定の定数である。
標準偏差σ1を式(5)、標準偏差σ2を式(6)により定義する。
σ1=σ1’/F(k,l) …(5)
σ2=σ2’/B(k,l) …(6)
σ1’、σ2’は所定の定数である。
フィルタ処理部104は、帯域分割部101からの高域画像Hに対し、フィルタ係数設定部103で設定されたフィルタ係数に従ってフィルタ処理(畳み込み処理)を行う。フィルタ処理部104は、フィルタ係数によるフィルタ処理を行った後、画像の平均的な明るさが変わらない様に、注目領域内のフィルタ係数の合計値で除算することで正規化し、最終的なフィルタ出力を得る。このフィルタ処理により細胞輪郭線に基づく高周波成分を残しながら細胞内部の微細構造(テクスチャ)に基づく高域成分を抑制することができる。フィルタ処理部104によるフィルタ処理後の高域画像H’は、境界線形成部105に転送される。
境界線形成部105は、フィルタ係数設定部103及びフィルタ処理部104による補正処理後の高域画像H’に対して閾値処理を行うことで細胞の輪郭線を形成する。
具体的に、境界線形成部105は、フィルタ処理部104によるフィルタ処理後の高域画像H’に対する閾値処理により2値化を行い、所定の閾値以上の高域成分を含む画素を細胞輪郭線として細胞輪郭線画像H’’を形成する。
図5は細胞内部の微細構造(テクスチャ)を含む高域画像H’の模式図を示す。高域画像H’は、細胞Hの内部の微細構造(テクスチャ)tを含む。高域画像H’に対して閾値処理により2値化すると、細胞輪郭線として細胞輪郭線画像H’’が形成される。
境界線形成部105は、細胞輪郭線画像H’’を出力部106に転送する。
出力部106は、細胞輪郭線画像H’’を例えばTIFF式等の所定の画像形式に変換した後、フラッシュメモリ等の記録媒体に保存する。
図5は細胞内部の微細構造(テクスチャ)を含む高域画像H’の模式図を示す。高域画像H’は、細胞Hの内部の微細構造(テクスチャ)tを含む。高域画像H’に対して閾値処理により2値化すると、細胞輪郭線として細胞輪郭線画像H’’が形成される。
境界線形成部105は、細胞輪郭線画像H’’を出力部106に転送する。
出力部106は、細胞輪郭線画像H’’を例えばTIFF式等の所定の画像形式に変換した後、フラッシュメモリ等の記録媒体に保存する。
次に、上記の如く構成された装置の動作について図6に示す細胞輪郭線形成フローチャートに従って説明する。
撮像部100は、例えば位相差顕微鏡を通して撮影された細胞群の位相差像をCCD等の撮像素子とA/D変換器等とを介してデジタル信号に変換し、例えば8ビット(256階調)のモノクロ原画像信号Fとして出力する。モノクロ原画像信号Fは、帯域分割部101に転送される。
撮像部100は、例えば位相差顕微鏡を通して撮影された細胞群の位相差像をCCD等の撮像素子とA/D変換器等とを介してデジタル信号に変換し、例えば8ビット(256階調)のモノクロ原画像信号Fとして出力する。モノクロ原画像信号Fは、帯域分割部101に転送される。
帯域分割部101は、ステップS10において、撮像部100から出力されたモノクロ原画像信号Fを入力する。帯域分割部101は、ステップS20において、モノクロ原画像信号Fに対して所定の多重解像度分解処理を行い、当該モノクロ原画像信号Fを異なる周波数帯域成分を含む複数の帯域画像、例えばモノクロ原画像信号Fの中の低周波成分を含む低域画像Lと、モノクロ原画像信号Fの中の高周波成分を多く含む高域画像Hとの2つの成分画像に分解する。
低域画像Lは、細胞画像の中の背景領域上や細胞領域内部に存在する微細構造・ディテール、及びノイズが取り除かれ、かつ背景領域と細胞領域との輝度変化に差が現れやすい周波数帯域を多く含むことが好ましい。高域画像Hは、細胞画像の中で細胞輪郭上のエッジ・ハロによる高周波成分をできるだけ多く含むことが好ましい。
テクスチャ特徴量算出部102は、ステップS30において、注目画素と、当該注目画素を中心とした所定の大きさの注目領域とを設定する。本実施の形態では、注目領域のサイズを例えば5×5画素領域とする。
テクスチャ特徴量算出部102は、ステップS40において、テクスチャ特徴量を算出する。先ず、テクスチャ特徴量算出部102は、注目領域から抽出する画素対の位置関係δを設定する。
テクスチャ特徴量算出部102は、ステップS40において、テクスチャ特徴量を算出する。先ず、テクスチャ特徴量算出部102は、注目領域から抽出する画素対の位置関係δを設定する。
次に、テクスチャ特徴量算出部102は、注目領域に含まれる全ての隣接した画素対の出現頻度をカウントし、図4Bに示すような同時生起行列Pδ(Li、Lj)に記録する。
次に、テクスチャ特徴量算出部102は、画素対Li、Ljが存在する全ての頻度を記録した後、出現頻度の総数でPδ(Li、Lj)を正規化する。テクスチャ特徴量算出部102は、算出した同時生起行列Cからテクスチャ特徴量を算出する。例えば、テクスチャ特徴量として上記式(1)により定義されるテクスチャ特徴量エントロピー(Entropy)を適用する。高域画像Hの画素毎に算出したテクスチャ特徴量エントロピーは、フィルタ係数設定部103に転送される。
次に、テクスチャ特徴量算出部102は、画素対Li、Ljが存在する全ての頻度を記録した後、出現頻度の総数でPδ(Li、Lj)を正規化する。テクスチャ特徴量算出部102は、算出した同時生起行列Cからテクスチャ特徴量を算出する。例えば、テクスチャ特徴量として上記式(1)により定義されるテクスチャ特徴量エントロピー(Entropy)を適用する。高域画像Hの画素毎に算出したテクスチャ特徴量エントロピーは、フィルタ係数設定部103に転送される。
フィルタ係数設定部103は、ステップS50において、フィルタ処理部104における高域画像Hに対するフィルタ処理の際のフィルタ係数を、テクスチャ特徴量及び低域画像Lの画素値に基づき設定する。本実施の形態では、フィルタ処理として例えばバイラテラルフィルタのフィルタ係数をベースとし、テクスチャ特徴量エントロピー、低域画素値による重み付けを行うことで、フィルタ平滑化効果の制御を行う。
本実施の形態では、標準偏差σ1をテクスチャ特徴量F(k,l)で制御し、標準偏差σ2を低域画像Lの画素値(明るさ)B(k,l)で制御する。この制御により、テクスチャ特徴量が大きく画素値分布のランダム性が高く、低域画像Lの明るさが低い場合にフィルタ平滑化効果が大きくなるよう調整される。標準偏差σ1を上記式(5)により定義し、標準偏差σ2を上記式(6)により定義する。
本実施の形態では、標準偏差σ1をテクスチャ特徴量F(k,l)で制御し、標準偏差σ2を低域画像Lの画素値(明るさ)B(k,l)で制御する。この制御により、テクスチャ特徴量が大きく画素値分布のランダム性が高く、低域画像Lの明るさが低い場合にフィルタ平滑化効果が大きくなるよう調整される。標準偏差σ1を上記式(5)により定義し、標準偏差σ2を上記式(6)により定義する。
フィルタ処理部104は、ステップS60において、帯域分割部101から出力される高域画像Hに対してフィルタ処理、すなわちフィルタ係数設定部103で設定されたフィルタ係数に従うフィルタ処理(畳み込み処理)を行う。
フィルタ処理部104は、フィルタ係数によるフィルタ処理を行った後、画像の平均的な明るさが変わらない様に、フィルタ処理後の画像を注目領域内のフィルタ係数の合計値で除算することで正規化し、最終的なフィルタ出力を得る。このフィルタ処理を行うことにより、高域成分に含まれる細胞輪郭線を残しながら細胞内部の微細構造(テクスチャ)に基づく高域成分を抑制することができる。フィルタ処理部104によるフィルタ処理後の高域画像H’は、境界線形成部105に転送される。
フィルタ処理部104は、フィルタ係数によるフィルタ処理を行った後、画像の平均的な明るさが変わらない様に、フィルタ処理後の画像を注目領域内のフィルタ係数の合計値で除算することで正規化し、最終的なフィルタ出力を得る。このフィルタ処理を行うことにより、高域成分に含まれる細胞輪郭線を残しながら細胞内部の微細構造(テクスチャ)に基づく高域成分を抑制することができる。フィルタ処理部104によるフィルタ処理後の高域画像H’は、境界線形成部105に転送される。
フィルタ処理部104は、ステップS70において、高域画像Hの全画素についてフィルタ処理を実施したか否かをチェックし、未処理の画素がある場合上記ステップS30に戻る。全ての画素について処理が実施された場合、フィルタ処理部104は、ステップS80に進む。
境界線形成部105は、ステップS80において、フィルタ係数設定部103及びフィルタ処理部104による補正処理後の高域画像H’に対して閾値処理を行うことで細胞の輪郭線を形成する。
具体的に、境界線形成部105は、フィルタ処理部104によるフィルタ処理後の高域画像H’に対する閾値処理により2値化を行い、所定の閾値以上の高域成分を含む画素を細胞輪郭線として細胞輪郭線画像H’’を形成する。境界線形成部105は、細胞輪郭線画像H’’を出力部106に転送する。
出力部106は、細胞輪郭線画像H’’を例えばTIFF式等の所定の画像形式に変換した後、フラッシュメモリ等の記録媒体に保存する。
具体的に、境界線形成部105は、フィルタ処理部104によるフィルタ処理後の高域画像H’に対する閾値処理により2値化を行い、所定の閾値以上の高域成分を含む画素を細胞輪郭線として細胞輪郭線画像H’’を形成する。境界線形成部105は、細胞輪郭線画像H’’を出力部106に転送する。
出力部106は、細胞輪郭線画像H’’を例えばTIFF式等の所定の画像形式に変換した後、フラッシュメモリ等の記録媒体に保存する。
このように上記第1の実施の形態によれば、観察対象の細胞群を撮像して細胞画像を取得し、細胞画像から低域画像Lと高域画像Hとを作成し、高域画像Hから局所的なテクスチャ特徴量を算出し、低域画像Lの画素値とテクスチャ特徴量とに基づいて高域画像Hに対して補正処理を行い、この補正処理された高域画像H’に基づいて細胞群に含まれる細胞の輪郭線を形成する。すなわち、モノクロ原画像信号Fから分離した高域成分に基づき輪郭線を形成し、低域成分の影響が除外されることにより、明るさムラ等の影響を抑制した安定した輪郭線形成を行うことができる。
高域画像Hから算出したテクスチャ特徴量及び低域画像Lから抽出した輝度値に基づくフィルタ処理により高域画像Hから不要な高周波成分を抑制することで、高精度な輪郭線を得ることができる。
細胞内部領域は、背景領域と比べ相対的に輝度が低いので、低域画像Lから求めた平均的な輝度値に基づき、細胞内部の微細構造による高周波成分を抑制するので、高精度な輪郭線を得ることができる。
帯域分割部101は、細胞画像に対して平滑化処理を行って低域画像Lを生成する低域生成部110と、細胞画像から低域画像Lを減算して高域画像Hを生成する高域生成部111とを含むので、モノクロ原画像信号Fに基づく低域画像Lと高域画像Hへの分離処理を単純な処理により高速に行うことができる。
テクスチャ特徴量は、画素値分布のランダム性に基づく特徴量であるので、細胞輪郭線と、それ以外における高周波成分を画素値分布のランダム性に基づき精度良く区別することができる。
テクスチャ特徴量は、画素値分布の複雑度に基づく特徴量であるので、細胞輪郭線と、それ以外における高周波成分を画素値分布の複雑度に基づき精度良く区別することができる。
テクスチャ特徴量は、同時生起行列に基づく特徴量であるので、細胞輪郭線と、それ以外における高周波成分を同時生起行列に基づく特徴量により精度良く区別することができる。
テクスチャ特徴量は、画素値分布の複雑度に基づく特徴量であるので、細胞輪郭線と、それ以外における高周波成分を画素値分布の複雑度に基づき精度良く区別することができる。
テクスチャ特徴量は、同時生起行列に基づく特徴量であるので、細胞輪郭線と、それ以外における高周波成分を同時生起行列に基づく特徴量により精度良く区別することができる。
フィルタ係数設定部103及びフィルタ処理部104から成る補正手段では、低域画像Lの画素値及びテクスチャ特徴量に基づいて高域画像Hに対してフィルタ処理を行うので、低域画像Lの画素値及びテクスチャ特徴量に基づく高域画像Hに対する補正処理を効率的に行うことができる。
フィルタ処理部104は、低域画像Lの画素値、テクスチャ特徴量に基づいてフィルタ係数を設定するので、細胞輪郭線抽出に不要な高周波成分を効果的に抑制するようフィルタ度合いを制御することができる。フィルタ処理は、非線形フィルタ処理であるので、線形フィルタでは実現不可能な複雑なフィルタ制御を行うことができる。
境界線形成部105は、フィルタ処理後の高域画像Hに対して閾値処理を行うことで細胞輪郭線を形成するので、細胞輪郭線を単純な閾値処理により、簡単かつ高速に形成することができる。
細胞画像は、明視野顕微鏡により取得される画像を対象としており、位相差顕微鏡・DIC等の明視野顕微鏡画像全般に対して、細胞輪郭線抽出を行うことができる。
[第2の実施の形態]
次に、本発明の第2の実施の形態について図面を参照して説明する。なお、図1及び図2と同一部分には同一符号を付してその詳しい説明は省略する。
図7は細胞輪郭線形成装置の構成図を示す。本装置は、上記図1に示す装置と対比してテクスチャ特徴量算出部200と、境界線形成部201とが相違する。
テクスチャ特徴量算出部200と境界線形成部201とは、例えばCPU(中央演算処理装置)と演算プログラムを格納するRAM、ROM等の記憶装置などから構成してもよい。この場合、ROMには、演算プログラムとしての細胞輪郭線形成プログラムが格納されている。
フィルタ処理部104は、低域画像Lの画素値、テクスチャ特徴量に基づいてフィルタ係数を設定するので、細胞輪郭線抽出に不要な高周波成分を効果的に抑制するようフィルタ度合いを制御することができる。フィルタ処理は、非線形フィルタ処理であるので、線形フィルタでは実現不可能な複雑なフィルタ制御を行うことができる。
境界線形成部105は、フィルタ処理後の高域画像Hに対して閾値処理を行うことで細胞輪郭線を形成するので、細胞輪郭線を単純な閾値処理により、簡単かつ高速に形成することができる。
細胞画像は、明視野顕微鏡により取得される画像を対象としており、位相差顕微鏡・DIC等の明視野顕微鏡画像全般に対して、細胞輪郭線抽出を行うことができる。
[第2の実施の形態]
次に、本発明の第2の実施の形態について図面を参照して説明する。なお、図1及び図2と同一部分には同一符号を付してその詳しい説明は省略する。
図7は細胞輪郭線形成装置の構成図を示す。本装置は、上記図1に示す装置と対比してテクスチャ特徴量算出部200と、境界線形成部201とが相違する。
テクスチャ特徴量算出部200と境界線形成部201とは、例えばCPU(中央演算処理装置)と演算プログラムを格納するRAM、ROM等の記憶装置などから構成してもよい。この場合、ROMには、演算プログラムとしての細胞輪郭線形成プログラムが格納されている。
細胞輪郭線形成プログラムは、コンピュータとしてのCPUに、帯域分割部101により生成された高域画像Hから当該高域画像Hにおける輝度(画素値)のヒストグラムに基づく局所的なテクスチャ特徴量を算出させる機能と、帯域分割部101からの高域画像Hに対して細胞-非細胞領域の境界を示す概形輪郭線を抽出し、かつフィルタ処理部104からの高域画像H’に対する閾値処理により2値化を行わさせ、所定の閾値以上の高域成分を含む画素を細胞輪郭線とした細胞輪郭線画像H’’を形成させ、上記概形輪郭線と細胞輪郭線画像H’’とを合成することにより更に精度の高い輪郭線を抽出させる機能とを実現する。
帯域分割部101は、テクスチャ特徴量算出部200と、フィルタ係数設定部103と、フィルタ処理部104と、境界線形成部201とに接続されている。テクスチャ特徴量算出部200は、フィルタ係数設定部103に接続されている。フィルタ処理部104は境界線形成部201に接続されている。境界線形成部201は出力部106に接続されている。
テクスチャ特徴量算出部200は、帯域分割部101により生成された高域画像Hから局所的なテクスチャ特徴量を算出する。テクスチャ特徴量は、高域画像Hにおける輝度(画素値)のヒストグラムに基づく特徴量である。テクスチャ特徴量算出部200は、上記第1の実施の形態におけるテクスチャ特徴量と相違し、高域画像Hの輝度ヒストグラムに基づくテクスチャ特徴量を算出する。
テクスチャ特徴量算出部200は、テクスチャの複雑さを示す尺度として、輝度ヒストグラムの分散を算出する。テクスチャ特徴量算出部200は、初めに、高域画像H上の注目画素を中心とした所定の大きさの注目領域を設定し、次に注目領域に対して輝度ヒストグラムHist[Lv]を算出する。Lvは、輝度値(高域画像の画素値)を表し「0-255」の範囲で値をとる。
続いて、テクスチャ特徴量算出部200は、注目領域内の画素値平均Aveを算出し、式(7)に従って輝度ヒストグラムの分散(Complexity)を算出する。
テクスチャ特徴量算出部200は、テクスチャの複雑さを示す尺度として、輝度ヒストグラムの分散を算出する。テクスチャ特徴量算出部200は、初めに、高域画像H上の注目画素を中心とした所定の大きさの注目領域を設定し、次に注目領域に対して輝度ヒストグラムHist[Lv]を算出する。Lvは、輝度値(高域画像の画素値)を表し「0-255」の範囲で値をとる。
続いて、テクスチャ特徴量算出部200は、注目領域内の画素値平均Aveを算出し、式(7)に従って輝度ヒストグラムの分散(Complexity)を算出する。
PCallは、注目領域内の画素数を表す。輝度ヒストグラムの分散(Complexity)が大きい程、注目領域内に含まれるテクスチャの複雑度が高いので、テクスチャ特徴量算出部200は、輝度ヒストグラムの分散(Complexity)の逆数(=1/輝度ヒストグラムの分散(Complexity))を算出してフィルタ係数設定部103へ転送する。
境界線形成部201は、帯域分割部101から出力された高域画像Hに対して細胞-非細胞領域の境界を示す概形輪郭線を抽出し、かつ上記第1の実施の形態と同様の手法によりフィルタ処理部104から出力された高域画像H’に対して所定の閾値による閾値処理を行って2値化を行う。境界線形成部201は、所定の閾値以上の高域成分を含む画素を細胞輪郭線とした細胞輪郭線画像H’’を形成し、上記概形輪郭線と細胞輪郭線画像H’’とを合成し、更に精度の高い輪郭線を抽出する。
図8は境界線形成部201の具体的な構成図を示す。境界線形成部201は、閾値処理部202と、概形形成部203と、境界線合成部204とを含む。帯域分割部101は、概形形成部203に接続されている。閾値処理部202には、フィルタ処理部104が接続されている。閾値処理部202と概形形成部203とは、共に境界線合成部204に接続されている。境界線合成部204は、出力部106に接続されている。
閾値処理部202は、フィルタ処理部104から転送されたフィルタ処理後の高域画像H’に対する閾値処理により2値化を行い、所定の閾値以上の高域成分を含む画素を細胞輪郭線とした細胞輪郭線画像H’’を形成する。細胞輪郭線画像H’’は、境界線合成部204に転送される。
概形形成部203は、高域画像Hに対して、式(8)に示すように隣接画素間で定義される勾配Gを算出し、所定の閾値による2値化を行う。
G(k,l)=(Lk,l-Lk+l,l)2+(Lk,l-Lk,l+1)2 …(8)
ここで、k、lは、X,Y座標値であり、Lk,lは、座標k,lにおける画素値を表わす。
概形形成部203は、高域画像Hに対して、式(8)に示すように隣接画素間で定義される勾配Gを算出し、所定の閾値による2値化を行う。
G(k,l)=(Lk,l-Lk+l,l)2+(Lk,l-Lk,l+1)2 …(8)
ここで、k、lは、X,Y座標値であり、Lk,lは、座標k,lにおける画素値を表わす。
勾配Gに対する所定の閾値処理により大きい画素は細胞領域に含まれる画素、小さい画素は非細胞領域(背景領域)に含まれる画素として比較的精度良く分離することができる。
概形形成部203は、2値化後の画像に対して収縮・膨張・穴埋め等の簡単なモフォロジー処理を行い領域の形を整える。この後、概形形成部203は、細胞領域と非細胞領域とを分ける境界線(以降、概形輪郭線Aと称する)を、2値が隣接する画素を抽出することにより形成する。概形輪郭線Aは、細胞領域と非細胞領域とを分ける境界を精度良く表すが、隣接し密着する細胞間に存在する境界線(細胞輪郭線)を含まない。概形輪郭線Aは、境界線合成部204に転送される。
概形形成部203は、2値化後の画像に対して収縮・膨張・穴埋め等の簡単なモフォロジー処理を行い領域の形を整える。この後、概形形成部203は、細胞領域と非細胞領域とを分ける境界線(以降、概形輪郭線Aと称する)を、2値が隣接する画素を抽出することにより形成する。概形輪郭線Aは、細胞領域と非細胞領域とを分ける境界を精度良く表すが、隣接し密着する細胞間に存在する境界線(細胞輪郭線)を含まない。概形輪郭線Aは、境界線合成部204に転送される。
境界線合成部204は、細胞輪郭線画像H’’と概形輪郭線Aとを合成した後、膨張・収縮などの所定のモフォロジー処理を行い形を整えることで、細胞輪郭線H’’’を得る。細胞輪郭線H’’’は、出力部106に転送される。
図9A、図9B及び図9Cは2つの細胞が密着して存在する際の合成処理の模式図を示す。図9Aは概形輪郭線Aを示し、図9Bは細胞輪郭線H’’を示す。概形輪郭線Aは、隣接細胞間の輪郭線を含まないが、非細胞領域との境界線を精度良く形成することができる。図9Cは合成後、モフォロジー処理を行い形を整えた結果得られる細胞輪郭線H’’’を示す。
図9A、図9B及び図9Cは2つの細胞が密着して存在する際の合成処理の模式図を示す。図9Aは概形輪郭線Aを示し、図9Bは細胞輪郭線H’’を示す。概形輪郭線Aは、隣接細胞間の輪郭線を含まないが、非細胞領域との境界線を精度良く形成することができる。図9Cは合成後、モフォロジー処理を行い形を整えた結果得られる細胞輪郭線H’’’を示す。
次に、上記の如く構成された装置の動作について図10に示す細胞輪郭線形成フローチャートに従って説明する。なお、図6と同一のステップには同一のステップの符号を付してその詳しい説明は省略する。
帯域分割部101は、ステップS10において、上記の通り、撮像部100から出力されるモノクロ原画像信号Fを入力する。帯域分割部101は、ステップS20において、所定の多重解像度分解処理により、入力したモノクロ原画像信号Fを異なる周波数帯域成分を含む複数の帯域画像、例えば低域画像Lと高域画像Hとの2つの成分画像に分解する。
帯域分割部101は、ステップS10において、上記の通り、撮像部100から出力されるモノクロ原画像信号Fを入力する。帯域分割部101は、ステップS20において、所定の多重解像度分解処理により、入力したモノクロ原画像信号Fを異なる周波数帯域成分を含む複数の帯域画像、例えば低域画像Lと高域画像Hとの2つの成分画像に分解する。
テクスチャ特徴量算出部200は、ステップS30において、注目画素と、当該注目画素を中心とした所定の大きさの注目領域とを設定する。テクスチャ特徴量算出部200は、ステップS90において、注目領域に対して輝度ヒストグラムHist[Lv]を算出する。上記の通りLvは、輝度値(高域画像の画素値)を表し「0-255」の範囲で値をとる。
テクスチャ特徴量算出部200は、注目領域内の画素値平均Aveを算出し、上記式(7)に従って輝度ヒストグラムの分散(Complexity)を算出する。輝度ヒストグラムの分散(Complexity)が大きい程、注目領域内に含まれるテクスチャの複雑度が高いので、テクスチャ特徴量算出部200は、輝度ヒストグラムの分散(Complexity)の逆数(=1/輝度ヒストグラムの分散(Complexity))を算出してフィルタ係数設定部103へ転送する。
フィルタ係数設定部103は、ステップS50において、上記の通り、フィルタ処理部104における高域画像Hに対するフィルタ処理の際のフィルタ係数を、テクスチャ特徴量及び低域画像Lの画素値に基づき設定する。
フィルタ処理部104は、ステップS60において、上記の通り、帯域分割部101からの高域画像Hに対し、フィルタ係数設定部103で設定されたフィルタ係数に従ってフィルタ処理を行う。
フィルタ処理部104は、ステップS60において、上記の通り、帯域分割部101からの高域画像Hに対し、フィルタ係数設定部103で設定されたフィルタ係数に従ってフィルタ処理を行う。
フィルタ処理部104は、ステップS70において、上記の通り、高域画像Hの全画素についてフィルタ処理を実施したか否かをチェックし、未処理の画素がある場合上記ステップS30に戻る。全ての画素について処理が実施された場合、フィルタ処理部104は、ステップS80に進む。
閾値処理部202は、ステップS80において、フィルタ処理部104から転送されたフィルタ処理後の高域画像H’に対する閾値処理により2値化を行い、所定の閾値以上の高域成分を含む画素を細胞輪郭線とした細胞輪郭線画像H’’を形成する。細胞輪郭線画像H’’は、境界線合成部204に転送される。
概形形成部203は、ステップS100において、高域画像Hに対して、上記式(8)に示すように隣接画素間で定義される勾配Gを算出し、所定の閾値による2値化を行うことにより、当該閾値より大きい画素は細胞領域に含まれる画素、小さい画素は非細胞領域(背景領域)に含まれる画素として比較的精度良く分離することができる。
続いて2値化後の画像に対して収縮・膨張・穴埋め等の簡単なモフォロジー処理を行い領域の形を整える。この後、概形形成部203は、細胞領域と非細胞領域とを分ける概形輪郭線Aを、2値が隣接する画素を抽出することにより形成する。概形輪郭線Aは、例えば図9Aに示すように細胞領域と非細胞領域とを分ける境界を精度良く表すが、隣接し密着する細胞間に存在する境界線(細胞輪郭線)は含まれない。概形輪郭線Aは、境界線合成部204に転送される。
続いて2値化後の画像に対して収縮・膨張・穴埋め等の簡単なモフォロジー処理を行い領域の形を整える。この後、概形形成部203は、細胞領域と非細胞領域とを分ける概形輪郭線Aを、2値が隣接する画素を抽出することにより形成する。概形輪郭線Aは、例えば図9Aに示すように細胞領域と非細胞領域とを分ける境界を精度良く表すが、隣接し密着する細胞間に存在する境界線(細胞輪郭線)は含まれない。概形輪郭線Aは、境界線合成部204に転送される。
境界線合成部204は、ステップS110において、図9Bに示すような細胞輪郭線画像H’’と概形輪郭線Aとを合成した後、膨張・収縮などの所定のモフォロジー処理を行い形を整えることで、図9Cに示すような細胞輪郭線H’’’を得る。細胞輪郭線H’’’は、出力部106に転送される。
このように上記第2の実施の形態によれば、帯域分割部101により生成された高域画像Hから輝度(画素値)のヒストグラムに基づく局所的なテクスチャ特徴量を算出することで、細胞輪郭線に基づく高周波成分と、それ以外の要因による高周波成分とを画素値ヒストグラムに基づく特徴量により精度良く区別することができる。境界線形成部201は、上記第1の実施の形態の効果に加えて、帯域分割部101からの高域画像Hに対して細胞-非細胞領域の境界を示す概形輪郭線を抽出し、かつフィルタ処理部104からの高域画像H’に対する閾値処理により2値化を行い、所定の閾値以上の高域成分を含む画素を細胞輪郭線とした細胞輪郭線画像H’’を形成し、上記概形輪郭線と細胞輪郭線画像H’’とを合成するので、更に精度の高い輪郭線を抽出することができる。
[第3の実施の形態]
次に、本発明の第3の実施の形態について図面を参照して説明する。なお、図1と同一部分には同一符号を付してその詳しい説明は省略する。
図11は細胞輪郭線形成装置の構成図を示す。本装置は、上記図7に示す装置と対比してフィルタ係数設定部103と、フィルタ処理部104と、境界線形成部201とを無くし、補正処理部300と、境界線形成部105とを追加している。
帯域分割部101とテクスチャ特徴量算出部200とは、共に補正処理部300に接続されている。補正処理部300は、境界線形成部105に接続されている。
[第3の実施の形態]
次に、本発明の第3の実施の形態について図面を参照して説明する。なお、図1と同一部分には同一符号を付してその詳しい説明は省略する。
図11は細胞輪郭線形成装置の構成図を示す。本装置は、上記図7に示す装置と対比してフィルタ係数設定部103と、フィルタ処理部104と、境界線形成部201とを無くし、補正処理部300と、境界線形成部105とを追加している。
帯域分割部101とテクスチャ特徴量算出部200とは、共に補正処理部300に接続されている。補正処理部300は、境界線形成部105に接続されている。
補正処理部300は、例えばCPU(中央演算処理装置)と演算プログラムを格納するRAM、ROM等の記憶装置などから構成してもよく、この場合、ROMには、演算プログラムとしての細胞輪郭線形成プログラムが格納されている。細胞輪郭線形成プログラムは、コンピュータとしてのCPUに、低域画像の画素値とテクスチャ特徴量とに基づいて高域画像に対する判別分析に基づく補正処理を行わせる機能を実現する。
補正処理部300は、低域画像の画素値とテクスチャ特徴量とに基づいて高域画像に対する判別分析に基づく補正処理を行う判別分析部301を有する。
判別分析部301は、高域画像Hに対して線形判別による補正を行って不要な高周波の除去を行う。
判別分析部301は、高域画像Hに対して線形判別による補正を行って不要な高周波の除去を行う。
補正処理部300は、テクスチャ特徴量と、低域画像画素値とに基づいて帯域分割部101からの高域画像Hに対して不要な高周波の除去、すなわち判別分析に基づく判別関数である線形判別関数による不要な高周波の除去を行う。不要な高周波の除去は、フィルタ処理よりも簡潔かつ高速に処理を行うことができる。
補正処理部300には、帯域分割部101により生成された低域画像Lと高域画像Hとが転送される。
補正処理部300は、上記第1及び第2の実施の形態と相違し、フィルタ処理ではなく、線形判別の処理に基づく高域画像Hの補正、すなわち不要な高周波成分の除去を行う。
補正処理部300には、帯域分割部101により生成された低域画像Lと高域画像Hとが転送される。
補正処理部300は、上記第1及び第2の実施の形態と相違し、フィルタ処理ではなく、線形判別の処理に基づく高域画像Hの補正、すなわち不要な高周波成分の除去を行う。
補正処理部300は、線形判別の処理により、細胞内部の微細構造、又はノイズによる不要な高周波成分を有すると思われる画素の特定を行う。
線形判別は、高域画像Hから求めたテクスチャ特徴量F(k,l)、及び低域画像Lの画素値B(k,l)をパラメータとした式(9)の演算、図12に示す線形判別関数の値D(k,l)に基づいて行う。
D(k,l)=a1×F(k,l)+a2×B(k,l)+a3 …(9)
k、lは、判別対象画素のX,Y座標を表す。a1、a2、a3は、所定の定数であり予め実験により求めた固定値を設定する。本実施例では(a1、a2、a3)=(-1.25、-0.15、+1.15)と定めている。
D(k,l)=a1×F(k,l)+a2×B(k,l)+a3 …(9)
k、lは、判別対象画素のX,Y座標を表す。a1、a2、a3は、所定の定数であり予め実験により求めた固定値を設定する。本実施例では(a1、a2、a3)=(-1.25、-0.15、+1.15)と定めている。
線形判別関数の値D(k,l)が0以上の場合、テクスチャ特徴量Fが小さく、低域画素値Bが小さいことから輪郭線上に無い画素と推測されるので、補正処理部300は、判別対象画素の座標に対応する高域画像H上の画素値を0に置き換える。
補正処理部300は、以上の処理を全画素に対して行う。
補正処理部300は、以上の処理を全画素に対して行う。
次に、上記の如く構成された装置の動作について図13に示す細胞輪郭線形成フローチャートに従って説明する。なお、図6及び図10と同一のステップには同一のステップの符号を付してその詳しい説明は省略する。
帯域分割部101は、ステップS10において、上記の通り、撮像部100から出力されるモノクロ原画像信号Fを入力する。帯域分割部101は、ステップS20において、所定の多重解像度分解処理により、入力したモノクロ原画像信号Fを異なる周波数帯域成分を含む複数の帯域画像、例えば低域画像Lと高域画像Hとの2つの成分画像に分解する。
帯域分割部101は、ステップS10において、上記の通り、撮像部100から出力されるモノクロ原画像信号Fを入力する。帯域分割部101は、ステップS20において、所定の多重解像度分解処理により、入力したモノクロ原画像信号Fを異なる周波数帯域成分を含む複数の帯域画像、例えば低域画像Lと高域画像Hとの2つの成分画像に分解する。
テクスチャ特徴量算出部200は、ステップS30において、注目画素を中心とした所定の大きさの注目領域を設定すると、ステップS90において、注目領域に対して輝度ヒストグラムHist[Lv]を算出する。テクスチャ特徴量算出部200は、注目領域内の画素値平均Aveを算出し、上記式(7)に従って輝度ヒストグラムの分散(Complexity)を算出する。輝度ヒストグラムの分散(Complexity)が大きい程、注目領域内に含まれるテクスチャの複雑度が高いので、テクスチャ特徴量算出部200は、輝度ヒストグラムの分散(Complexity)の逆数(=1/輝度ヒストグラムの分散(Complexity))を算出してフィルタ係数設定部103へ転送する。
補正処理部300は、ステップS120において、低域画像の画素値とテクスチャ特徴量とに基づいて高域画像に対する判別分析に基づく補正処理を行う判別分析部301を有する。判別分析部301は、高域画像Hに対して線形判別による補正を行って不要な高周波の除去を行う。
補正処理部300は、線形判別の処理により、細胞内部の微細構造、又はノイズによる不要な高周波成分を有すると思われる画素の特定を行う。線形判別は、高域画像Hから求めたテクスチャ特徴量F(k,l)、及び低域画像Lの画素値B(k,l)をパラメータとした上記式(9)の演算、図12に示す線形判別関数の値D(k,l)に基づいて行う。
線形判別関数の値D(k,l)が0以上の場合、テクスチャ特徴量Fが小さく、低域画素値Bが小さいことから輪郭線上に無い画素と推測されるので、補正処理部300は、判別対象画素の座標に対応する高域画像H上の画素値を0に置き換える。補正処理部300は、以上の処理を全画素に対して行う。
補正処理部300は、線形判別の処理により、細胞内部の微細構造、又はノイズによる不要な高周波成分を有すると思われる画素の特定を行う。線形判別は、高域画像Hから求めたテクスチャ特徴量F(k,l)、及び低域画像Lの画素値B(k,l)をパラメータとした上記式(9)の演算、図12に示す線形判別関数の値D(k,l)に基づいて行う。
線形判別関数の値D(k,l)が0以上の場合、テクスチャ特徴量Fが小さく、低域画素値Bが小さいことから輪郭線上に無い画素と推測されるので、補正処理部300は、判別対象画素の座標に対応する高域画像H上の画素値を0に置き換える。補正処理部300は、以上の処理を全画素に対して行う。
補正処理部300は、ステップS70において、上記の通り、高域画像Hの全画素について処理を実施したか否かをチェックし、未処理の画素がある場合上記ステップS30に戻る。全ての画素について処理が実施された場合、補正処理部300は、ステップS80に進む。
閾値処理部202は、ステップS80において、補正処理部300から転送された補正処理後の高域画像H’に対する閾値処理により2値化を行い、所定の閾値以上の高域成分を含む画素を細胞輪郭線として細胞輪郭線画像H’’を形成する。細胞輪郭線画像H’’は、境界線合成部204に転送される。
このように上記第3の実施の形態によれば、低域画像Lの画素値とテクスチャ特徴量とに基づいて高域画像Hに対する判別分析、例えば高域画像Hに対して線形判別による補正を行って不要な高周波の除去を行うので、フィルタ処理等による補正処理と比べ、簡潔かつ高速な処理により補正することができる。
Claims (16)
- 観察対象の細胞群を撮像して細胞画像を取得する細胞画像取得部と、
前記細胞画像から低周波成分により成る低域画像と高周波成分により成る高域画像とを含む複数の帯域画像を作成する帯域画像作成部と、
前記高域画像から局所的なテクスチャ特徴量を算出する特徴量算出部と、
前記低域画像の画素値と前記テクスチャ特徴量とに基づいて前記高域画像に対して補正処理を行う補正部と、
前記補正処理後の前記高域画像に基づいて前記細胞群に含まれる細胞の輪郭線を形成する輪郭線形成部と、
を具備することを特徴とする細胞輪郭線形成装置。 - 前記帯域画像作成部は、前記細胞画像に対して平滑化処理を行って前記低域画像を生成する低域画像生成部と、
前記細胞画像から前記低域画像を減算して前記高域画像を生成する高域画像生成部と、
を含むことを特徴とする請求項1に記載の細胞輪郭線形成装置。 - 前記テクスチャ特徴量は、前記高域画像における画素値分布のランダム性に基づく特徴量であることを特徴とする請求項1又は2に記載の細胞輪郭線形成装置。
- 前記テクスチャ特徴量は、前記画素値分布の複雑度に基づく特徴量であることを特徴とする請求項3に記載の細胞輪郭線形成装置。
- 前記テクスチャ特徴量は、前記高域画像における画素の同時生起行列に基づく特徴量であることを特徴とする請求項1乃至4のうちいずれか1項に記載の細胞輪郭線形成装置。
- 前記テクスチャ特徴量は、前記高域画像における画素値のヒストグラムに基づく特徴量であることを特徴とする請求項1乃至4のうちいずれか1項に記載の細胞輪郭線形成装置。
- 前記補正手段は、前記低域画像の画素値と前記テクスチャ特徴量とに基づいて前記高域画像に対してフィルタ処理を行うフィルタ部を含むことを特徴とする請求項1乃至6のうちいずれか1項に記載の細胞輪郭線形成装置。
- 前記フィルタ部は、前記低域画像の画素値と前記テクスチャ特徴量とに基づいてフィルタ係数を設定するフィルタ係数設定部と、
前記フィルタ係数設定手段により設定された前記フィルタ係数に基づいて前記フィルタ処理を行うフィルタ処理部と、
を含むことを特徴とする請求項7に記載の細胞輪郭線形成装置。 - 前記フィルタ処理は、非線形フィルタ処理であることを特徴とする請求項7又は8に記載の細胞輪郭線形成装置。
- 前記補正部は、前記低域画像の画素値と前記テクスチャ特徴量とに基づいて前記高域画像に対する判別分析に基づく補正処理を行う判別分析部を含むことを特徴とする請求項1乃至6のうちいずれか1項に記載の細胞輪郭線形成装置。
- 前記判別分析部は、前記高域画像に対して線形判別による補正を行って不要な高周波の除去を行うことを特徴とする請求項10に記載の細胞輪郭線形成装置。
- 前記輪郭線形成部は、前記補正処理後の前記高域画像に対して閾値処理を行うことで前記細胞の輪郭線を形成することを特徴とする請求項1乃至11のうちいずれか1項に記載の細胞輪郭線形成装置。
- 前記輪郭線形成部は、前記高域画像を閾値処理することにより細胞領域と非細胞領域との間の前記輪郭線を表す細胞概形を抽出する概形形成部と、
前記概形形成部により抽出された前記細胞概形と前記輪郭線とを合成する合成部と、
を含むことを特徴とする請求項1乃至12のうちいずれか1項に記載の細胞輪郭線形成装置。 - 前記細胞画像は、明視野顕微鏡により取得された画像であることを特徴とする請求項1乃至13のうちいずれか1項に記載の細胞輪郭線形成装置。
- 観察対象の細胞群を撮像して細胞画像を取得し、
前記細胞画像から低周波成分により成る低域画像と高周波成分により成る高域画像とを含む複数の帯域画像を作成し、
前記高域画像から局所的なテクスチャ特徴量を算出し、
前記低域画像の画素値と前記テクスチャ特徴量とに基づいて前記高域画像に対して補正処理を行い、
前記補正処理された前記高域画像に基づいて前記細胞群に含まれる細胞の輪郭線を形成する、
ことを特徴とする細胞輪郭線形成方法。 - 観察対象の細胞群を撮像して細胞画像を取得させ、
前記細胞画像から低周波成分により成る低域画像と高周波成分により成る高域画像とを含む複数の帯域画像を作成させ、
前記高域画像から局所的なテクスチャ特徴量を算出させ、
前記低域画像の画素値と前記テクスチャ特徴量とに基づいて前記高域画像に対して補正処理を行わさせ、
前記補正処理された前記高域画像に基づいて前記細胞群に含まれる細胞の輪郭線を形成させる、
ことを実現させる細胞輪郭線形成プログラムを記憶するコンピュータにより処理可能な記憶媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US14/317,856 US10168526B2 (en) | 2011-12-28 | 2014-06-27 | Cell contour formation apparatus and method of the same, and non-transitory computer readable storage medium storing a cell contour formation program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011-287899 | 2011-12-28 | ||
| JP2011287899A JP5941674B2 (ja) | 2011-12-28 | 2011-12-28 | 細胞輪郭線形成装置及びその方法、細胞輪郭線形成プログラム |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US14/317,856 Continuation US10168526B2 (en) | 2011-12-28 | 2014-06-27 | Cell contour formation apparatus and method of the same, and non-transitory computer readable storage medium storing a cell contour formation program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2013099772A1 true WO2013099772A1 (ja) | 2013-07-04 |
Family
ID=48697261
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2012/083134 Ceased WO2013099772A1 (ja) | 2011-12-28 | 2012-12-20 | 細胞輪郭線形成装置及びその方法、コンピュータにより処理可能な細胞輪郭線形成プログラムを記憶する記憶媒体 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US10168526B2 (ja) |
| JP (1) | JP5941674B2 (ja) |
| WO (1) | WO2013099772A1 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017120229A (ja) * | 2015-12-28 | 2017-07-06 | シスメックス株式会社 | 細胞領域決定方法、細胞撮像システム、細胞画像の処理装置及びコンピュータプログラム |
| US11609537B2 (en) | 2017-03-02 | 2023-03-21 | Shimadzu Corporation | Cell analysis method and cell analysis system using a holographic microscope |
Families Citing this family (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5984559B2 (ja) * | 2012-07-31 | 2016-09-06 | オリンパス株式会社 | 壊死細胞領域検出装置及びその方法、壊死細胞領域検出プログラム |
| JP6299504B2 (ja) * | 2014-07-23 | 2018-03-28 | 株式会社島津製作所 | 画像解析装置 |
| US9256942B1 (en) * | 2014-10-17 | 2016-02-09 | Lite-Med Inc. | Method for determining variations among multiple three-dimensional stone images extracorporeally and computer program using the same |
| CN104463814B (zh) * | 2014-12-08 | 2017-04-19 | 西安交通大学 | 基于局部纹理方向性的图像增强方法 |
| WO2017150194A1 (ja) * | 2016-03-04 | 2017-09-08 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法及びプログラム |
| US10890576B2 (en) | 2016-06-23 | 2021-01-12 | Konica Minolta, Inc. | Image processing device, image processing method, and recording medium |
| CN118918812A (zh) * | 2017-06-27 | 2024-11-08 | 株式会社半导体能源研究所 | 显示系统及数据处理方法 |
| US11004178B2 (en) | 2018-03-01 | 2021-05-11 | Nvidia Corporation | Enhancing high-resolution images with data from low-resolution images |
| WO2020188813A1 (ja) * | 2019-03-20 | 2020-09-24 | 株式会社島津製作所 | 細胞解析装置 |
| WO2020188814A1 (ja) * | 2019-03-20 | 2020-09-24 | 株式会社島津製作所 | 細胞解析装置 |
| US10887589B2 (en) * | 2019-04-12 | 2021-01-05 | Realnetworks, Inc. | Block size determination for video coding systems and methods |
| JP7280107B2 (ja) * | 2019-05-10 | 2023-05-23 | 株式会社エビデント | 画像処理方法、プログラム、画像処理装置、画像処理システム、及び、顕微鏡システム |
| CN110186865B (zh) * | 2019-06-14 | 2023-09-19 | 利卓创新(北京)科技有限公司 | 一种智能网络型红外气体识别设备及工作方法 |
| US12326391B2 (en) * | 2019-07-29 | 2025-06-10 | Hitachi High-Tech Corporation | Particle quantifying device |
| KR102327304B1 (ko) * | 2020-02-25 | 2021-11-17 | 광운대학교 산학협력단 | 깊이영상 카메라로부터 획득된 3d 영상의 품질 향상 방법 |
| CN113673270B (zh) * | 2020-04-30 | 2024-01-26 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
| CN111951323B (zh) * | 2020-07-21 | 2023-07-18 | 汕头大学 | 一种可用于网格排序并计算裂纹数量及其对应面积的方法 |
| JP7508416B2 (ja) * | 2021-07-05 | 2024-07-01 | 株式会社神戸製鋼所 | 領域境界線検出装置、該方法および該プログラムならびに領域分割処理装置 |
| US20240233089A1 (en) * | 2021-07-29 | 2024-07-11 | Shimadzu Corporation | Image processing method and image processing apparatus |
| CN118710668B (zh) * | 2024-08-29 | 2024-11-01 | 南京高商机电科技有限公司 | 一种红外成像模拟动态增强方法及系统 |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002171411A (ja) * | 2000-11-30 | 2002-06-14 | Canon Inc | 画像処理方法、画像処理装置および記録媒体 |
| JP2005117549A (ja) * | 2003-10-10 | 2005-04-28 | Fuji Photo Film Co Ltd | 画像処理方法および装置ならびに画像処理プログラム |
| JP2006338191A (ja) * | 2005-05-31 | 2006-12-14 | Olympus Corp | 画像処理装置及び領域分割プログラム |
| WO2008010375A1 (en) * | 2006-07-20 | 2008-01-24 | Hitachi Medical Corporation | Ultrasonographic device |
| JP2010513902A (ja) * | 2006-12-21 | 2010-04-30 | オックスフォード・ジーン・テクノロジー・アイピー・リミテッド | 試料アナライザー本明細書に引用されたすべての文書はそのまま参照として援用される。 |
| JP2010213658A (ja) * | 2009-03-18 | 2010-09-30 | Olympus Corp | 細胞内プロテアーゼ活性の解析方法及びキメラタンパク質 |
| WO2011010475A1 (en) * | 2009-07-21 | 2011-01-27 | Sharp Kabushiki Kaisha | Multi-frame approach method and system for image upscaling |
| WO2011024370A1 (ja) * | 2009-08-24 | 2011-03-03 | 日本電気株式会社 | 画像ダイナミックレンジ圧縮システム、方法及びプログラム |
| JP2011255033A (ja) * | 2010-06-10 | 2011-12-22 | Shimadzu Corp | 放射線画像領域抽出装置、放射線画像領域抽出プログラムおよび放射線撮影装置 |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6785411B1 (en) * | 1999-08-05 | 2004-08-31 | Matsushita Electric Industrial Co., Ltd. | Image analyzing apparatus and image analyzing method |
| JP3946590B2 (ja) | 2002-07-16 | 2007-07-18 | 富士通株式会社 | 画像処理方法、画像処理プログラムおよび画像処理装置 |
| JP2004127064A (ja) * | 2002-10-04 | 2004-04-22 | Konica Minolta Holdings Inc | 画像処理方法、画像処理装置、画像処理プログラム及び画像記録装置 |
| US9077882B2 (en) * | 2005-04-05 | 2015-07-07 | Honeywell International Inc. | Relevant image detection in a camera, recorder, or video streaming device |
| US7639849B2 (en) * | 2005-05-17 | 2009-12-29 | Barco N.V. | Methods, apparatus, and devices for noise reduction |
| US20070059680A1 (en) * | 2005-09-15 | 2007-03-15 | Ravi Kapur | System for cell enrichment |
| WO2007121454A1 (en) | 2006-04-18 | 2007-10-25 | Ge Healthcare Bio-Sciences Corp. | System for preparing an image for segmentation |
| WO2008099580A1 (ja) * | 2007-02-13 | 2008-08-21 | Nec Corporation | 細胞特徴量算出装置および細胞特徴量算出方法 |
| US8411910B2 (en) * | 2008-04-17 | 2013-04-02 | Biometricore, Inc. | Computationally efficient feature extraction and matching iris recognition |
| JP2013541767A (ja) * | 2010-09-16 | 2013-11-14 | ユニバーシティ・オブ・カンザス | セルブロック調製物のデジタル評価のためのシステム及び方法 |
| US8699769B2 (en) * | 2011-07-12 | 2014-04-15 | Definiens Ag | Generating artificial hyperspectral images using correlated analysis of co-registered images |
| US9292916B2 (en) * | 2011-08-09 | 2016-03-22 | Hid Global Corporation | Methods and systems for estimating genetic characteristics from biometric measurements |
-
2011
- 2011-12-28 JP JP2011287899A patent/JP5941674B2/ja not_active Expired - Fee Related
-
2012
- 2012-12-20 WO PCT/JP2012/083134 patent/WO2013099772A1/ja not_active Ceased
-
2014
- 2014-06-27 US US14/317,856 patent/US10168526B2/en active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002171411A (ja) * | 2000-11-30 | 2002-06-14 | Canon Inc | 画像処理方法、画像処理装置および記録媒体 |
| JP2005117549A (ja) * | 2003-10-10 | 2005-04-28 | Fuji Photo Film Co Ltd | 画像処理方法および装置ならびに画像処理プログラム |
| JP2006338191A (ja) * | 2005-05-31 | 2006-12-14 | Olympus Corp | 画像処理装置及び領域分割プログラム |
| WO2008010375A1 (en) * | 2006-07-20 | 2008-01-24 | Hitachi Medical Corporation | Ultrasonographic device |
| JP2010513902A (ja) * | 2006-12-21 | 2010-04-30 | オックスフォード・ジーン・テクノロジー・アイピー・リミテッド | 試料アナライザー本明細書に引用されたすべての文書はそのまま参照として援用される。 |
| JP2010213658A (ja) * | 2009-03-18 | 2010-09-30 | Olympus Corp | 細胞内プロテアーゼ活性の解析方法及びキメラタンパク質 |
| WO2011010475A1 (en) * | 2009-07-21 | 2011-01-27 | Sharp Kabushiki Kaisha | Multi-frame approach method and system for image upscaling |
| WO2011024370A1 (ja) * | 2009-08-24 | 2011-03-03 | 日本電気株式会社 | 画像ダイナミックレンジ圧縮システム、方法及びプログラム |
| JP2011255033A (ja) * | 2010-06-10 | 2011-12-22 | Shimadzu Corp | 放射線画像領域抽出装置、放射線画像領域抽出プログラムおよび放射線撮影装置 |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017120229A (ja) * | 2015-12-28 | 2017-07-06 | シスメックス株式会社 | 細胞領域決定方法、細胞撮像システム、細胞画像の処理装置及びコンピュータプログラム |
| US10482605B2 (en) | 2015-12-28 | 2019-11-19 | Sysmex Corporation | Cell area determination method, cell imaging system, and cell image processing apparatus |
| US11609537B2 (en) | 2017-03-02 | 2023-03-21 | Shimadzu Corporation | Cell analysis method and cell analysis system using a holographic microscope |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5941674B2 (ja) | 2016-06-29 |
| JP2013137627A (ja) | 2013-07-11 |
| US20140307079A1 (en) | 2014-10-16 |
| US10168526B2 (en) | 2019-01-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5941674B2 (ja) | 細胞輪郭線形成装置及びその方法、細胞輪郭線形成プログラム | |
| Miri et al. | Retinal image analysis using curvelet transform and multistructure elements morphology by reconstruction | |
| CN115205194B (zh) | 基于图像处理的粘虫板覆盖率检测方法、系统及装置 | |
| WO2014021175A1 (ja) | 壊死細胞領域検出装置及びその方法、コンピュータにより処理可能な壊死細胞領域検出プログラムを記憶する記憶媒体 | |
| Devi et al. | Analysis & evaluation of Image filtering Noise reduction technique for Microscopic Images | |
| CN111882561A (zh) | 一种癌细胞识别诊断系统 | |
| CN103177244B (zh) | 水下显微图像中快速检测目标生物的方法 | |
| CN116630198A (zh) | 一种结合自适应伽马校正的多尺度融合水下图像增强方法 | |
| CN110176020A (zh) | 一种融合2d和3d图像的燕窝杂质分拣方法 | |
| CN118761988A (zh) | 一种对组织病理图像进行分析的方法和系统 | |
| CN115147613A (zh) | 一种基于多向融合的红外小目标检测方法 | |
| Kwok et al. | Design of unsharp masking filter kernel and gain using particle swarm optimization | |
| CN116228574B (zh) | 一种灰度图像处理方法及装置 | |
| Kadhim et al. | Enhancement of Microscopy Images by Using a Hybrid Technique Based on Adaptive Histogram Equalisation and Fuzzy Logic. | |
| CN114638958B (zh) | 一种多特征融合的三元正极材料粗糙度提取方法及装置 | |
| CN108921171B (zh) | 一种骨关节x线片自动识别分级方法 | |
| CN114022539A (zh) | 一种显微镜图像细胞位置判断方法 | |
| CN106023105B (zh) | 一种植物叶片的二值图像生成方法及系统 | |
| JP5203159B2 (ja) | 画像処理方法、画像処理システムおよび画像処理プログラム | |
| CN108960285B (zh) | 一种分类模型生成方法、舌体图像分类方法及装置 | |
| CN118333895A (zh) | 一种路面质量检测用图像去噪方法 | |
| RU2552195C1 (ru) | Способ организации ядра пространственной фильтрации изображений и устройство для его реализации | |
| CN109934215B (zh) | 一种身份证识别方法 | |
| Muchtar et al. | Performance Evaluation of Binary Classification of Tuberculosis through Unsharp Masking and Deep Learning Technique | |
| Reddy et al. | Guided image filtering for image enhancement |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12863235 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 12863235 Country of ref document: EP Kind code of ref document: A1 |