[go: up one dir, main page]

WO2018181458A1 - 学習結果出力装置及び学習結果出力プログラム - Google Patents

学習結果出力装置及び学習結果出力プログラム Download PDF

Info

Publication number
WO2018181458A1
WO2018181458A1 PCT/JP2018/012708 JP2018012708W WO2018181458A1 WO 2018181458 A1 WO2018181458 A1 WO 2018181458A1 JP 2018012708 W JP2018012708 W JP 2018012708W WO 2018181458 A1 WO2018181458 A1 WO 2018181458A1
Authority
WO
WIPO (PCT)
Prior art keywords
learning
unit
result output
graph
learning result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2018/012708
Other languages
English (en)
French (fr)
Inventor
諒亮 亀澤
禎生 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thinkcyte Inc
University of Tokyo NUC
Original Assignee
Thinkcyte Inc
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thinkcyte Inc, University of Tokyo NUC filed Critical Thinkcyte Inc
Priority to EP18775495.7A priority Critical patent/EP3605406A4/en
Priority to CN201880021362.5A priority patent/CN110520876B/zh
Priority to JP2019509964A priority patent/JP7173494B2/ja
Publication of WO2018181458A1 publication Critical patent/WO2018181458A1/ja
Priority to US16/584,535 priority patent/US20200027020A1/en
Anticipated expiration legal-status Critical
Priority to JP2022170844A priority patent/JP7428994B2/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1456Optical investigation techniques, e.g. flow cytometry without spatial resolution of the texture or inner structure of the particle, e.g. processing of pulse signals
    • G01N15/1459Optical investigation techniques, e.g. flow cytometry without spatial resolution of the texture or inner structure of the particle, e.g. processing of pulse signals the analysis being performed on a sample stream
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/149Optical investigation techniques, e.g. flow cytometry specially adapted for sorting particles, e.g. by their size or optical properties
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N2015/1006Investigating individual particles for cytology
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N2015/1402Data analysis by thresholding or gating operations performed on the acquired signals or stored data

Definitions

  • the present invention relates to a learning result output device and a learning result output program.
  • Patent Document 1 a flow cytometry method in which a measurement target is fluorescently stained and the characteristics of the measurement target are evaluated based on the total amount of fluorescence luminance, and a flow cytometer using this flow cytometry method are known (for example, Patent Document 1). ). Also known are fluorescence microscopes and imaging cytometers that evaluate images of fine particles of cells, bacteria, and the like to be measured. In addition, an imaging flow cytometer that captures high-speed morphological information of fine particles with a throughput equivalent to that of a flow cytometer is known (for example, Patent Document 2).
  • the characteristics of the measurement target are indicated by a predetermined evaluation axis such as the fluorescence luminance and the total amount of scattered light.
  • the predetermined evaluation axis is determined by a measurer who measures the measurement target.
  • the characteristics of the measurement target include not only the fluorescence intensity and the total amount of scattered light, but also the conventionally used histograms and scatter charts such as cell shape information and molecular localization features such as molecular localization.
  • One aspect of the present invention is a machine learning unit that performs machine learning on the basis of morphological information indicating the shape of a learning object, using at least one attribute of the learning object as an evaluation axis.
  • a learning result output device comprising: a graph information generating unit that generates graph information indicating a graph representing the learning result with the evaluation axis as an axis based on a learning model indicating the learning result machine-learned by the machine learning unit It is.
  • one mode of the present invention further includes an operation detection unit that detects an operation of selecting the evaluation axis based on the learning model in the learning result output device, wherein the graph information generation unit includes the operation detection unit.
  • the graph information is generated with the evaluation axis selected by the detected operation as the axis.
  • the operation detection unit further performs learning for detecting an operation for visualizing the learning object based on the graph information generated by the graph information generation unit. It is a result output device.
  • a control signal generation unit that generates a control signal used for allocating the learning object based on the visualization operation detected by the operation detection unit Is a learning result output device.
  • the learning result output device includes an optical system having a structured illumination pattern or a structured detection system having a plurality of regions having different light characteristics.
  • the learning detected by one or a small number of pixel detection elements while changing the relative position between any one of the learning object, the optical system, and the detection system. It is the time series signal of the optical signal which shows a target object.
  • machine learning is performed on at least one of the attributes of the learning object based on the form information indicating the shape of the learning object on a computer with the degree of the attribute as an evaluation axis.
  • This is a learning result output program for execution.
  • the present invention it is possible to provide a learning result output device and a learning result output program for classifying particle groups based on morphological information to be measured.
  • FIG. 1 is a diagram showing an external configuration of the cell measurement system 1.
  • the cell measurement system 1 includes a flow cytometer 20, a learning result output device 10, a display unit 11, and an operation unit 12.
  • the learning result output device 10 performs machine learning on a signal including information on a measurement target measured by the flow cytometer 20.
  • the learning result output device 10 analyzes the characteristics of the measurement target by this machine learning.
  • the flow cytometer 20 detects an optical signal to be measured such as a cell.
  • a measurement object is an example of a learning object. Specifically, the measurement object is a cell. In the following description, the measurement target is also referred to as a fine particle group.
  • the flow cytometer 20 includes a flow path (not shown). The flow cytometer 20 generates a time-series signal of the optical signal to be measured that flows through this flow path.
  • the optical signal uses either or both of an optical system having a structured illumination pattern and a structured detection system having a plurality of regions having different optical characteristics, and includes a measurement object, an optical system, and a detection system.
  • the optical signal is information indicating the intensity of light detected by a sensor (not shown) included in the flow cytometer 20.
  • a sensor is an example of one or a small number of pixel detection elements.
  • the one or a few pixel detection element is a PMT (photomultiplier tube), a line type PMT element, an APD (Avalanche Photo-diode, avalanche photodiode), A single light receiving element and a small number of light receiving elements such as a photo-detector (PD: photodetector), a CCD camera, and a CMOS sensor.
  • the light detected by the sensor is light modulated by an object to be measured and a light spatial modulator (not shown) from an irradiation unit (not shown) provided in the flow cytometer 20.
  • the spatial light modulator is an example of a structured illumination pattern.
  • the flow cytometer 20 detects an optical signal by one or a small number of pixel detection elements while changing a relative position among any one of the measurement target, the optical system, and the detection system.
  • the relative position between the optical system and the detection system changes as the measurement object flows through the flow path.
  • the optical system will be described.
  • the detection system includes the above-described sensor. This configuration is also referred to as structured illumination configuration.
  • the detection system includes an optical spatial modulator and a sensor. This configuration is also referred to as a structured detection configuration.
  • the flow cytometer 20 may have either a structured illumination configuration or a structured detection configuration.
  • the time-series signal of the optical signal is a signal in which the time when the plurality of optical signals are acquired and the information on the light intensity are associated with each other. The flow cytometer 20 can reconstruct an image to be measured from this time series signal.
  • This time-series signal includes information on the attribute to be measured.
  • the attribute includes the shape of the measurement target, the constituent elements constituting the measurement target, and the like.
  • information such as the degree of fluorescence brightness from the measurement target is included. Note that the learning result output device 10 analyzes the characteristics of the measurement target without reconstructing the image of the measurement target.
  • the learning result output device 10 acquires a time-series signal of the optical signal detected by the flow cytometer 20.
  • the learning result output device 10 performs machine learning on the time-series signal acquired from the flow cytometer 20.
  • the learning result output device 10 analyzes the attribute of the measurement target by this machine learning.
  • the display unit 11 displays the result analyzed by the learning result output device 10.
  • the operation unit 12 receives an input from an operator who operates the learning result output device 10.
  • the operation unit 12 is specifically a keyboard, a mouse, a touch panel, or the like.
  • FIG. 2 is a diagram illustrating an example of a functional configuration of the learning result output device 10.
  • the learning result output device 10 includes a signal acquisition unit 101, a machine learning unit 102, a storage unit ST, an operation detection unit 103, a display data generation unit 104, a display unit 11, and a control signal generation unit 105.
  • the display data generation unit 104 is an example of a graph information generation unit.
  • the signal acquisition unit 101 acquires signal information indicating a time-series signal from the flow cytometer 20 described above.
  • the signal information is an example of morphological information indicating the shape of the learning object.
  • the signal acquisition unit 101 supplies the signal information acquired from the flow cytometer 20 to the machine learning unit 102.
  • the machine learning unit 102 performs machine learning for at least one of the attributes of the learning object using the degree of the attribute as an evaluation axis. Specifically, the machine learning unit 102 acquires signal information from the signal acquisition unit 101.
  • the machine learning unit 102 forms a determiner by machine learning of the signal information acquired from the signal acquisition unit 101.
  • a determiner is formed by a machine learning algorithm such as a support vector machine.
  • This determination unit is configured by a logic circuit of an FPGA (field-programmable gate array). Note that the determination unit may be configured by a programmable logic device (PLD), an ASIC (application specific integrated circuit), or the like.
  • a determiner is an example of a learning model.
  • the machine learning unit 102 forms a determination device in advance by supervised machine learning.
  • the machine learning unit 102 determines the acquired signal information using a determiner.
  • the machine learning unit 102 supplies the determination result obtained by determining the signal information to the display data generation unit 104.
  • This determination result includes information about the degree of this attribute as an evaluation axis for at least one of the attributes to be measured.
  • the operation detection unit 103 detects an operation for selecting an evaluation axis based on the determination result of the determiner. Specifically, the operation detection unit 103 detects an operation in which the operator selects an evaluation axis from among evaluation axes having a plurality of attribute levels. The operation detection unit 103 supplies information indicating the evaluation axis selected by the operator to the display data generation unit 104 based on the detected operation. The operation detection unit 103 further detects an operation for visualizing the measurement target based on the graph information generated by the display data generation unit 104. Specifically, the operation detection unit 103 detects an operation of the user gating the measurement target based on graph information generated by the display data generation unit 104 described later. The gating will be described later.
  • the display data generation unit 104 generates graph information indicating a graph representing the determination result with the evaluation axis as an axis, based on the determination result obtained by the machine learning unit 102 determining the signal information by the determiner. Specifically, the display data generation unit 104 acquires a determination result from the machine learning unit 102. The display data generation unit 104 acquires information indicating the evaluation axis selected by the operator from the operation detection unit 103.
  • the determination result LI is information in which an evaluation axis indicating an attribute to be measured is associated with a value indicating the degree of the attribute.
  • the determination result LI includes “SVM-based Scores1” as evaluation axis information and “VAL1” as a value indicating the degree of attribute.
  • the determination result LI includes “SVM-based Scores2” as evaluation axis information and “VAL2” as a value indicating the degree of the attribute.
  • the display data generation unit 104 generates graph information about the evaluation axis selected by the operator.
  • the graph information is information indicating a graph representing the determination result of the measurement target.
  • the graph information is information including information about the evaluation axis of the determination result LI as at least one axis.
  • the display data generation unit 104 supplies the generated graph information to the display unit 11.
  • the display unit 11 displays the graph information as a display image.
  • the display data generation unit 104 acquires from the operation detection unit 103 a gating operation indicating an operation gated by the user.
  • the display data generation unit 104 supplies information indicating the measurement object selected by the gating operation to the control signal generation unit 105.
  • the measurement target selected by the gating operation is also referred to as a selected measurement target.
  • the selected measurement target is determined by gating a measurement target in which the user who operates the learning result output apparatus 10 is interested.
  • gating is also described as selectively visualizing. By this gating, the learning result output device 10 can perform analysis excluding dust contained in the measurement target and particles other than the target cell.
  • the sorting means that the flow cytometer 20 sorts the fine particle group gated by the user who operates the learning result output device 10.
  • the gating is performed by a user who operates the learning result output device 10.
  • the user performs an operation for gating based on the graph information generated by the display data generation unit 104.
  • the operation detection unit 103 detects this user operation.
  • the control signal generation unit 105 generates a control signal used for allocating the learning object based on the visualization operation.
  • the control signal generation unit 105 acquires information indicating the selected measurement target from the display data generation unit 104.
  • the control signal generation unit 105 generates a control signal used for sorting based on the information indicating the selected measurement target acquired from the display data generation unit 104. Sorting is to selectively sort the measurement target. In this example, sorting refers to selectively sorting according to the evaluation axis. Sorting is an example of sorting.
  • the control signal is a signal for controlling the sorting unit 21 provided in the flow cytometer 20.
  • the control signal generation unit 105 supplies the generated control signal to the sorting unit 21.
  • the sorting unit 21 acquires a control signal from the control signal generation unit 105. Based on the control signal acquired from the control signal generation unit 105, the sorting unit 21 sorts the selected measurement target from among the measurement targets flowing through the flow path.
  • FIG. 4 is a diagram illustrating an example of the graph information generated by the display data generation unit 104.
  • the graph shown in FIG. 4 is a graph generated based on the determination result LI. This graph shows the number of corresponding measurement objects for each degree of the attribute shown on the evaluation axis.
  • the horizontal axis of the graph shown in FIG. 4 is an evaluation axis “SVM-based Scores of Green Waves”. As described above, this evaluation axis is an axis included in the determination result LI that is a result of machine learning by the machine learning unit 102.
  • the vertical axis of this graph is the number of measurement objects.
  • FIG. 5 is a diagram illustrating an example of a graph displayed by a conventional flow cytometer and graph information generated by the display data generation unit 104.
  • the measurement target shown in FIG. 5 is a plurality of cells that are fluorescently stained with DAPI (4 ′, 6-diamidino-2-phenyllinole) and FG (fixable green).
  • the machine learning unit 102 performs machine learning on signal information for each cell.
  • DAPI is a blue fluorescent stain.
  • FG is a green fluorescent stain.
  • FIG. 5 (a) is a graph generated by a conventional flow cytometer.
  • the horizontal axis in FIG. 5A is “Total Intensity of FG” which is a predetermined axis.
  • shaft of Fig.5 (a) is the number of measuring objects.
  • FIG. 5B is a graph generated by the display data generation unit 104 of the present embodiment.
  • the horizontal axis of FIG. 5B is “Total Intensity of DAPI” which is an evaluation axis included in the determination result LI.
  • the evaluation axis “Total Intensity of DAPI” is an evaluation axis for the intensity of the intensity of blue fluorescence by DAPI of two types of cells.
  • the vertical axis in FIG. 5B is the number of measurement objects.
  • “MIA PaCa-2” and “MCF-7” shown in this graph are the above-described measurement objects.
  • the machine learning unit 102 generates a determination result LI including the degree of intensity of blue fluorescent luminance from the two types of cells.
  • the display data generation unit 104 generates a graph including the degree of intensity of blue fluorescence intensity of two types of cells.
  • FIG. 5C is a graph generated by the display data generation unit 104 of the present embodiment.
  • the horizontal axis of FIG. 5C is “SVM-based scores of FG” which is an evaluation axis included in the determination result LI.
  • the evaluation axis “SVM-based scores of FG” is an evaluation axis centered on a score based on the morphological information of the cells stained with FG determined by the determiner.
  • the vertical axis in FIG. 5C is the number of measurement objects. “MIA PaCa-2” and “MIA PaCa-2” that could not be represented by the histogram of the total amount of fluorescence intensity of FG by using “SVM-based scores of FG”, which contains information on the form of the measurement object. Two peaks with MCF-7 ′′ can be expressed.
  • FIG. 6 is a diagram illustrating an example of graph information generated by the display data generation unit 104.
  • a point PT1 in the graph shown in FIG. 6 represents the determination result LI shown in FIGS. 5B and 5C described above.
  • This graph is a graph showing the ratio of the number of measurement objects.
  • the horizontal axis of this graph shows the rate at which only “MCF-7” is stained with DAPI from 600 cells and this “MCF-7” is contained in 600 cells.
  • the vertical axis of this graph shows the entire cytoplasm of “MCF-7” and “MIA PaCa-2” stained with FG from 600 cells, and the Blue point is based on the total amount of fluorescence luminance of FG.
  • FIG. 7 is a flowchart illustrating an example of the operation of the learning result output device 10.
  • the signal acquisition unit 101 acquires signal information from the flow cytometer 20 (step S10).
  • the signal acquisition unit 101 supplies the signal information acquired from the flow cytometer 20 to the machine learning unit 102.
  • the machine learning unit 102 acquires signal information from the signal acquisition unit 101.
  • the machine learning unit 102 performs machine learning on the signal information acquired from the signal acquisition unit 101 (step S20).
  • the machine learning unit 102 supplies a determination result LI that is a result of machine learning to the display data generation unit 104.
  • the machine learning unit 102 supplies the determination result LI to the control signal generation unit 105.
  • the display data generation unit 104 acquires the determination result LI from the machine learning unit 102.
  • the display data generation unit 104 causes the display unit 11 to display the determination result LI acquired from the machine learning unit 102.
  • the operator selects an evaluation axis included in the determination result LI displayed on the display unit 11 (step S30).
  • the operation detection unit 103 detects the operation of the operator.
  • the operation detection unit 103 supplies information indicating the evaluation axis selected by the operator to the display data generation unit 104.
  • the display data generation unit 104 acquires information indicating the evaluation axis selected by the operator from the operation detection unit 103.
  • the display data generation unit 104 generates graph information about the evaluation axis selected by the operator acquired from the operation detection unit 103 (step S40).
  • the display data generation unit 104 supplies the generated graph information to the display unit 11.
  • the display unit 11 acquires graph information from the display data generation unit 104.
  • the display unit 11 generates a display image based on the graph information (step S50).
  • the display unit 11 displays the generated display image (step S60).
  • the operation detection unit 103 detects this gating operation as a gating operation (step S70).
  • the operation detection unit 103 supplies the detected gating operation to the display data generation unit 104.
  • the display data generation unit 104 acquires a gating operation from the operation detection unit 103.
  • the display data generation unit 104 generates graph information of the gated cell group based on the gating operation acquired from the operation detection unit 103 (step S80).
  • the display data generation unit 104 supplies the control signal generation unit 105 with selection measurement target information indicating the selection measurement target selected by the gating operation.
  • the control signal generation unit 105 acquires the selection measurement target information from the display data generation unit 104. Based on the selected measurement target information acquired from the display data generation unit 104, the control signal generation unit 105 generates a control signal indicating a signal used for sorting the selected measurement target (step S90).
  • the control signal generation unit 105 supplies the generated control signal to the sorting unit 21 (step S95).
  • the sorting unit 21 acquires a control signal from the control signal generation unit 105. Based on this control signal, the sorting unit 21 sorts selected measurement objects from among the measurement objects flowing through the flow path.
  • FIG. 8 is an example of a graph in which two axes are used as evaluation axes based on the determination result LI.
  • the graph shown in FIG. 8 is a graph showing determination results of measurement signals having “SVM-based Scores 1” on the horizontal axis and “SVM-based Scores 2” on the vertical axis.
  • a point included in the area AR1 is a point indicating a measurement target having both the attribute indicated by “SVM-based Scores1” and the attribute indicated by “SVM-based Scores2”.
  • the point included in the area AR2 is a point indicating a measurement target having only the attribute indicated by “SVM-based Scores1”.
  • a point included in the area AR3 is a point indicating a measurement target having only the attribute indicated by “SVM-based Scores2”.
  • the point included in the area AR4 is a point indicating a measurement target that does not have both the attribute indicated by “SVM-based Scores1” and the attribute indicated by “SVM-based Scores2”.
  • a user who operates the learning result output apparatus 10 selects an area that is considered to be a point of the target cell group from the points indicating the measurement target, and sets the boundary GL. Setting this boundary GL is gating. Note that the user estimates the intensity of the total amount of scattered light or fluorescence from past data and the like, and sets the boundary by enclosing an area that seems to be the target cell group.
  • the operation detection unit 103 detects this gating operation.
  • the operation detection unit 103 supplies the detected gating operation to the display data generation unit 104.
  • the display data generation unit 104 draws the boundary GL based on the gating operation. Further, the display data generation unit 104 may generate graph information of the cell group included in the boundary GL.
  • the graph information of the cell group included in the boundary GL is, for example, a graph such as a histogram or a scatter diagram shown in FIGS. 5 and 6 described above.
  • the learning result output device 10 includes the signal acquisition unit 101, the machine learning unit 102, and the display data generation unit 104.
  • the signal acquisition unit 101 acquires signal information from the flow cytometer 20. This signal information includes various information on the measurement object.
  • the machine learning unit 102 makes a determination based on this signal information.
  • the machine learning unit 102 generates a determination result LI.
  • the determination result LI generated by the machine learning unit 102 includes an evaluation axis whose axis is the attribute of the measurement target.
  • the display data generation unit 104 generates graph information representing the determination result LI about the evaluation axis of the degree of attribute based on the determination result LI machine-learned by the machine learning unit 102.
  • the learning result output device 10 can generate a graph having the evaluation axis included in the determination result LI as an axis.
  • the learning result output device 10 can generate a graph that combines evaluation axes included in the determination result LI.
  • the learning result output device 10 can generate information centered on the degree of various attributes of the measurement target. Based on this information, the learning result output device 10 can classify the particle group based on the form information of the measurement target.
  • the signal acquisition unit 101 has been described with respect to the configuration for acquiring signal information from the flow cytometer 20, but the present invention is not limited thereto.
  • the signal acquisition unit 101 may acquire signal information from another device.
  • the learning result output device 10 may generate graph information representing a machine learning result with the evaluation axis as an axis.
  • the learning result output device 10 can detect the operator's selection by including the operation detection unit 103. An operator who operates the learning result output device 10 can know features that he / she has not noticed by selecting an evaluation axis included in the determination result LI.
  • the learning result output apparatus 10 can generate a graph based on features that the operator is not aware of, the measurement target can be analyzed in more detail. Further, the learning result output device 10 classifies the feature amount based on the cell shape information that could not be classified conventionally by the machine learning unit 102. Thereby, the learning result output apparatus 10 can display the feature quantity of the measurement target that could not be displayed conventionally.
  • the learning result output apparatus 10 can detect the gating operation described above by including the operation detection unit 103.
  • the learning result output device 10 includes a control signal generation unit 105.
  • the control signal generation unit 105 generates a control signal based on the gating operation detected by the operation detection unit 103.
  • the cell group selected by this gating operation is based on the graph of the evaluation axis based on the learning result LI.
  • this evaluation axis is an evaluation axis of morphological information indicating the cell morphology
  • the user can gate the target cell based on the cell morphology.
  • the flow cytometer 20 can sort the target cells.
  • the learning result output device 10 can detect a gating operation based on a graph with the evaluation axis included in the learning result LI as an axis as well as the conventional scattered light or fluorescence intensity from the cell group. In addition, the learning result output device 10 can generate a control signal for sorting the selected cell group by detecting the gating operation.
  • the machine learning unit 102 includes a determiner configured by a logic circuit. Thereby, the machine learning unit 102 can machine-learn the measurement target in a short time. That is, the learning result output device 10 can generate the determination result LI including various attributes of the measurement target in a short time.
  • the machine learning unit 102 has been described with respect to a configuration in which machine learning is performed by a support vector machine, but is not limited thereto.
  • the machine learning unit 102 only needs to supply the display data generation unit 104 with the degree of the attribute to be measured as the machine learning result.
  • the machine learning unit 102 may be configured to perform machine learning using a random forest, a neural network, or the like.
  • the machine learning unit 102 may be unsupervised as long as it is a machine learning model that outputs attributes related to a target. Examples of the machine learning model that outputs attributes related to the object include principal component analysis and auto encoder.
  • the learning result output apparatus 10 has been described with the configuration including the control signal generation unit 105, but the control signal generation unit 105 is not essential.
  • the learning result output device 10 includes the control signal generation unit 105, and can control the sorting for the flow cytometer 20 based on the evaluation axis included in the determination result LI.
  • the flow cytometer 20 mentioned above demonstrated the structure from which a measurement object changes a relative position with respect to an optical system or a detection system, it is not restricted to this.
  • the stationary measurement object may be moved by the optical system or the detection system.
  • the flow cytometer 20 may be an imaging flow cytometer.
  • the imaging flow cytometer refers to an image to be measured by an image sensor such as a CCD (Charge Coupled Device), CMOS (Complementary MOS), or PMT (Photomultiplier Tube).
  • a flow cytometer for imaging The imaging flow cytometer generates a captured image that indicates a captured image.
  • the flow cytometer 20 supplies this captured image as signal information to the learning result output device 10.
  • the learning result output device 10 generates a determination result LI by determining an image of a measurement target included in the captured image with a determiner included in the machine learning unit 102.
  • the display data generation unit 104 may generate graph information with the two axes as the evaluation axes based on the determination result LI.
  • the learning result output device 10 described above has a computer inside.
  • Each process of the above-described apparatus is stored in a computer-readable recording medium in the form of a program, and the above-described process is performed by the computer reading and executing the program.
  • the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.
  • the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Immunology (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Molecular Biology (AREA)
  • Dispersion Chemistry (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Hematology (AREA)
  • Urology & Nephrology (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Analysis (AREA)

Abstract

学習結果出力装置は、学習対象物の形状を示す形態情報に基づいて、学習対象物の属性のうちの少なくとも一つの属性について当該属性の程度を評価軸にして機械学習する機械学習部と、機械学習部が機械学習した学習結果を示す学習モデルに基づいて、評価軸を軸にして学習結果を表すグラフを示すグラフ情報を生成するグラフ情報生成部とを備える。

Description

学習結果出力装置及び学習結果出力プログラム
 本発明は、学習結果出力装置及び学習結果出力プログラムに関する。本願は、2017年3月29日に、日本に出願された特願2017-064387号に基づき優先権を主張し、その内容をここに援用する。
 従来、測定対象を蛍光染色し、この蛍光輝度の総量によって測定対象の特徴を評価するフローサイトメトリー法や、このフローサイトメトリー法を用いたフローサイトメーターが知られている(例えば、特許文献1)。また、測定対象となる細胞・細菌等の微粒子を画像によって評価する蛍光顕微鏡やイメージングサイトメーターが知られている。加えて、フローサイトメーターと同等のスループットで微粒子の形態情報を高速に撮影するイメージングフローサイトメーターが知られている(例えば、特許文献2)。
特許第5534214号公報 米国特許第6249341号明細書
 従来の技術では、蛍光輝度や散乱光の総量などの予め定められた評価軸によって測定対象の特徴を示す。この予め定められた評価軸は、測定対象を測定する測定者によって決定される。しかし、測定対象の特徴には、蛍光輝度や散乱光の総量だけではなく、細胞の形態情報や分子局在等の二次元空間上の特徴などの従来から利用されているヒストグラムや散布図等のグラフでは表現できない特徴や測定者が気付いていない特徴も含まれる。この特徴には、従来のグラフ表示法では表示ができない特徴や測定者が気付いていない特徴が含まれるため、従来の予め定められた評価軸やグラフ表示法では測定対象の特徴を表現しきれず、それらの特徴を備えた測定対象の粒子群を選択的に可視化(ゲーティング)し、それらを分取(ソーティング)できないという問題があった。
 本発明の課題は、粒子群を測定対象の形態情報に基づいて分類する学習結果出力装置及び学習結果出力プログラムを提供することにある。
 本発明の一態様は、学習対象物の形状を示す形態情報に基づいて、前記学習対象物の属性のうちの少なくとも一つの属性について当該属性の程度を評価軸にして機械学習する機械学習部と、前記機械学習部が機械学習した学習結果を示す学習モデルに基づいて、前記評価軸を軸にして前記学習結果を表すグラフを示すグラフ情報を生成するグラフ情報生成部とを備える学習結果出力装置である。
 また、本発明の一態様は、上記の学習結果出力装置において、前記学習モデルに基づく前記評価軸を選択する操作を検出する操作検出部を更に備え、前記グラフ情報生成部は、前記操作検出部が検出した操作によって選択された評価軸を軸にして前記グラフ情報を生成する。
 また、本発明の一態様は、上記の学習結果出力装置において、前記操作検出部は、更に、前記グラフ情報生成部が生成する前記グラフ情報に基づく前記学習対象物の可視化の操作を検出する学習結果出力装置である。
 また、本発明の一態様は、上記の学習結果出力装置において、前記操作検出部が検出する前記可視化の操作に基づいて、前記学習対象物の振分に用いる制御信号を生成する制御信号生成部を更に備える学習結果出力装置である。
 また、本発明の一態様は、上記の学習結果出力装置において、前記形態情報とは、構造化された照明パターンを有する光学系又は光特性が互いに異なる複数の領域を有する構造化された検出系のいずれか又は両方を用い、前記学習対象物と、前記光学系と、前記検出系とのうちのいずれかの間の相対位置を変化させつつ、一又は少数画素検出素子によって検出された前記学習対象物を示す光信号の時系列信号である。
 また、本発明の一態様は、コンピュータに学習対象物の形状を示す形態情報に基づいて、前記学習対象物の属性のうちの少なくとも一つの属性について当該属性の程度を評価軸にして機械学習する機械学習ステップと、前記機械学習ステップによって機械学習された学習結果を示す学習モデルに基づいて、前記評価軸を軸にして前記学習結果を表すグラフを示すグラフ情報を生成するグラフ情報生成ステップとを実行させるための学習結果出力プログラムである。
 本発明によれば、粒子群を測定対象の形態情報に基づいて分類する学習結果出力装置及び学習結果出力プログラムを提供することができる。
細胞測定システムの外観構成を示す図である。 学習結果出力装置の機能構成の一例を示す図である。 機械学習部がある信号情報を判定した判定結果の一例を示す図である。 表示データ生成部が生成するグラフ情報の一例を示す図である。 従来のフローサイトメーターが表示するグラフと、表示データ生成部が生成するグラフ情報の一例を示す図である。 表示データ生成部が生成するグラフ情報の一例を示す図である。 学習結果出力装置の動作の一例を示す流れ図である。 2つの軸をそれぞれ学習結果に基づく評価軸を軸にしたグラフの一例である。
[実施形態]
 以下、図面を参照して学習結果出力装置の実施形態について説明する。
 図1は、細胞測定システム1の外観構成を示す図である。
 細胞測定システム1は、フローサイトメーター20と、学習結果出力装置10と、表示部11と、操作部12とを備える。学習結果出力装置10は、フローサイトメーター20が測定した測定対象の情報が含まれる信号を機械学習する。学習結果出力装置10は、この機械学習によって測定対象の特徴を解析する。
[フローサイトメーターについて]
 フローサイトメーター20は、細胞などの測定対象の光信号を検出する。測定対象とは、学習対象物の一例である。具体的には、測定対象とは、細胞である。以下の説明では、測定対象のことを、微粒子群とも記載する。フローサイトメーター20は、不図示の流路を備える。フローサイトメーター20は、この流路を流される測定対象の光信号の時系列信号を生成する。
[光信号について]
 光信号は、構造化された照明パターンを有する光学系又は光特性が互いに異なる複数の領域を有する構造化された検出系のいずれか又は両方を用い、測定対象と、光学系と、検出系とのうちのいずれかの間の相対位置を変化させつつ、一又は少数画素検出素子によって検出された測定対象を示す光信号の時系列信号である。
 具体的には、光信号とは、フローサイトメーター20が備える不図示のセンサが検出した光の強度を示す情報である。センサとは、一又は少数画素検出素子の一例である。一又は少数画素検出素子とは、具体的には、一又は少数画素検出素子とは、PMT(photomultiplier tube;光電子倍増管)、ライン型PMT素子、APD(Avalanche Photo-diode、アバランシェフォトダイオード)、Photo-detector(PD:光検出器)などの単一受光素子及び少数受光素子、CCDカメラ及び、CMOSセンサなどである。センサが検出する光とは、フローサイトメーター20が備える不図示の照射部から、測定対象と、不図示の光空間変調器とによって変調された光である。ここで、光空間変調器とは、構造化された照明パターンの一例である。
 フローサイトメーター20は、測定対象と、光学系と、検出系とのうちのいずれかの間の相対位置を変化させつつ、一又は少数画素検出素子によって光信号を検出する。この一例では、測定対象が流路を流されることにより、光学系と検出系との相対位置が変化する。
[光学系と検出系とについて]
 ここで、光学系について説明する。光学系が照射部と光空間変調器とを備える場合には、検出系は上述したセンサを備える。この構成のことを、構造化照明の構成とも記載する。
 光学系が照射部を備える場合には、検出系は光空間変調器とセンサとを備える。この構成のことを、構造化検出の構成とも記載する。
 フローサイトメーター20は、構造化照明の構成と、構造化検出の構成とのいずれの構成であってもよい。
[光信号の時系列信号について]
 光信号の時系列信号とは、複数の光信号が取得された時刻と、光の強度の情報とがそれぞれ対応付けられた信号である。
 フローサイトメーター20は、この時系列信号から測定対象の像を再構成することができる。この時系列信号には、測定対象の属性の情報が含まれる。属性とは、具体的には、測定対象の形状や、測定対象を構成する構成要素などが含まれる。測定対象が蛍光染色されている場合には、測定対象からの蛍光の輝度の程度などの情報が含まれる。なお、学習結果出力装置10は、測定対象の像を再構成することなく、測定対象の特徴を解析する。
[学習結果出力装置10について]
 学習結果出力装置10は、フローサイトメーター20が検出した光信号の時系列信号を取得する。学習結果出力装置10は、フローサイトメーター20から取得した時系列信号を機械学習する。学習結果出力装置10は、この機械学習により測定対象の属性を解析する。
 表示部11は、学習結果出力装置10が解析した結果を表示する。
 操作部12は、学習結果出力装置10を操作する操作者からの入力を受け付ける。操作部12とは、具体的には、キーボード、マウス、タッチパネルなどである。
 ここで、図2を参照して、学習結果出力装置10の機能構成について説明する。
 図2は、学習結果出力装置10の機能構成の一例を示す図である。
 学習結果出力装置10は、信号取得部101と、機械学習部102と、記憶部STと、操作検出部103と、表示データ生成部104と、表示部11と、制御信号生成部105とを備える。ここで、表示データ生成部104とは、グラフ情報生成部の一例である。
 信号取得部101は、上述したフローサイトメーター20から、時系列信号を示す信号情報を取得する。ここで、信号情報とは、学習対象物の形状を示す形態情報の一例である。信号取得部101は、フローサイトメーター20から取得した信号情報を、機械学習部102に対して供給する。
 機械学習部102は、学習対象物の属性のうちの少なくとも一つの属性について、この属性の程度を評価軸にして機械学習する。具体的には、機械学習部102は、信号取得部101から信号情報を取得する。機械学習部102は、信号取得部101から取得した信号情報を機械学習することにより判定器を形成する。ここで、機械学習部102は、サポートベクターマシン等の機械学習アルゴリズムによって判定器が形成される。この判定器は、FPGA(field-programmable gate array)の論理回路によって構成される。なお、判定器は、などのプログラマブルロジックデバイス(programmable logic device;PLD)や、ASIC(application specific integrated circuit)などによって構成されてもよい。判定器とは、学習モデルの一例である。
 また、本実施形態では、機械学習部102は、予め教師ありの機械学習によって判定器が形成される。
 機械学習部102は、取得した信号情報を判定器によって判定する。
 機械学習部102は、この信号情報を判定した判定結果を、表示データ生成部104に対して供給する。この判定結果には、測定対象の属性のうちの少なくとも一つの属性について、この属性の程度を評価軸にする情報が含まれる。
 操作検出部103は、判定器の判定結果に基づく評価軸を選択する操作を検出する。具体的には、操作検出部103は、操作者が複数の属性の程度の評価軸のうちから、評価軸を選択する操作を検出する。操作検出部103は、検出した操作に基づいて、操作者が選択した評価軸を示す情報を表示データ生成部104に対して供給する。また、操作検出部103は、更に、表示データ生成部104が生成するグラフ情報に基づく測定対象の可視化の操作を検出する。具体的には、操作検出部103は、後述する表示データ生成部104が生成するグラフ情報に基づいて、ユーザーが測定対象をゲーティングする操作を検出する。ゲーティングについては、後述する。
 表示データ生成部104は、機械学習部102が信号情報を判定器によって判定した判定結果に基づいて、評価軸を軸にして判定結果を表すグラフを示すグラフ情報を生成する。具体的には、表示データ生成部104は、機械学習部102から判定結果を取得する。
表示データ生成部104は、操作検出部103から操作者が選択した評価軸を示す情報を取得する。
[判定結果について]
 ここで、図3を参照して、判定結果LIについて説明する。
 図3は、機械学習部102がある信号情報を判定した判定結果の一例を示す図である。
 判定結果LIとは、測定対象の属性を示す評価軸と、その属性の程度を示す値とが対応付けられた情報である。具体的には、判定結果LIには、評価軸の情報として“SVM-based Scores1”と、属性の程度を示す値として“VAL1”とが対応付けられた状態で含まれる。また、判定結果LIには、評価軸の情報として“SVM-based Scores2”と、属性の程度を示す値として“VAL2”とが対応付けられた状態で含まれる。
 図2に戻り、表示データ生成部104は、操作者が選択した評価軸を軸とするグラフ情報を生成する。グラフ情報とは、測定対象の判定結果を表すグラフを示す情報である。具体的には、グラフ情報とは、少なくとも1軸に判定結果LIの評価軸を軸にした情報を含む情報である。
 表示データ生成部104は、生成したグラフ情報を、表示部11に供給する。表示部11は、グラフ情報を表示画像として表示させる。
 表示データ生成部104は、操作検出部103から、ユーザーがゲーティングした操作を示すゲーティング操作を取得する。表示データ生成部104は、このゲーティング操作によって選択された測定対象を示す情報を、制御信号生成部105に対して供給する。以下の説明では、ゲーティング操作によって選択された測定対象のことを、選択測定対象とも記載する。具体的には、選択測定対象は、学習結果出力装置10を操作するユーザーが関心のある測定対象をゲーティングすることにより決定される。以下の説明では、ゲーティングすることを、選択的に可視化するとも記載する。このゲーティングにより、学習結果出力装置10は、測定対象の中に含まれるゴミや、目的の細胞以外の粒子を除いた解析を行うことができる。
 より具体的には、ソーティングとは、学習結果出力装置10を操作するユーザーによってゲーティングされた微粒子群を、フローサイトメーター20が振り分けることである。
 ゲーティングは、学習結果出力装置10を操作するユーザーによって行われる。ユーザーは、表示データ生成部104によって生成されたグラフ情報に基づいて、ゲーティングする操作を行う。操作検出部103は、このユーザーの操作を検出する。
 制御信号生成部105は可視化の操作に基づいて、学習対象物の振分に用いる制御信号を生成する。制御信号生成部105は、表示データ生成部104から、選択測定対象を示す情報を取得する。制御信号生成部105は、表示データ生成部104から取得した選択測定対象を示す情報に基づいて、ソーティングに用いる制御信号を生成する。ソーティングとは、測定対象を選択的に分取することである。分取とは、この一例では、評価軸に応じて選択的に振り分けることである。ソーティングは、振分の一例である。制御信号とは、フローサイトメーター20が備えるソーティング部21を制御する信号である。制御信号生成部105は、生成した制御信号をソーティング部21に対して供給する。
 ソーティング部21は、制御信号生成部105から制御信号を取得する。ソーティング部21は、制御信号生成部105から取得した制御信号に基づいて、流路を流される測定対象のうちから、選択測定対象をソーティングする。
[グラフ情報]
 ここで、図4から図6を参照して、表示データ生成部104が生成するグラフ情報について説明する。
 図4は、表示データ生成部104が生成するグラフ情報の一例を示す図である。
 図4に示すグラフは、判定結果LIに基づいて生成されるグラフである。このグラフは、評価軸に示す属性の程度毎に、該当する測定対象の数を示す。
 図4に示すグラフの横軸は、評価軸“SVM-based Scores of Green Waveforms”である。上述したように、この評価軸は、機械学習部102によって機械学習された結果である判定結果LIに含まれる軸である。このグラフの縦軸は、測定対象の数である。
 図5は、従来のフローサイトメーターが表示するグラフと、表示データ生成部104が生成するグラフ情報の一例を示す図である。図5に示す測定対象は、DAPI(4’,6-diamidino-2-phenylindole)と、FG(fixable green)とによって蛍光染色された、複数の細胞である。機械学習部102は、細胞毎に信号情報を機械学習する。DAPIとは、青色蛍光の染色剤である。FGとは、緑色蛍光の染色剤である。
 図5(a)は、従来のフローサイトメーターが生成するグラフである。図5(a)の横軸は、予め定められた軸である“Total Intensity of FG”である。図5(a)の縦軸は、測定対象の数である。
 図5(b)は、本実施形態の表示データ生成部104が生成するグラフである。図5(b)の横軸は、判定結果LIに含まれる評価軸である“Total Intensity of DAPI”である。この評価軸“Total Intensity of DAPI”とは、2種類の細胞のDAPIによる青色の蛍光輝度の強さの程度の評価軸である。図5(b)の縦軸は、測定対象の数である。ここで、このグラフ中に示す、“MIA PaCa-2”と、“MCF-7”とは、上述した測定対象である。機械学習部102は、この2種類の細胞からの青色の蛍光輝度の強さの程度が含まれる判定結果LIを生成する。表示データ生成部104は、2種類の細胞の青色の蛍光輝度の強さの程度が含まれるグラフを生成する。
 図5(c)は、本実施形態の表示データ生成部104が生成するグラフである。図5(c)の横軸は、判定結果LIに含まれる評価軸である“SVM-based scores of FG”である。この評価軸“SVM-based scores of FG”とは、判定器によって判定されたFGで染色した細胞の形態情報を元にしたスコアを軸とする評価軸である。図5(c)の縦軸は、測定対象の数である。測定対象の形態の情報が含まれる“SVM-based scores of FG”を軸とすることにより、従来のFGの蛍光輝度の総量のヒストグラムでは表現することができなかった”MIA PaCa-2”と”MCF-7”との2つのピークを表現することができる。
 図6は、表示データ生成部104が生成するグラフ情報の一例を示す図である。
 図6に示すグラフの点PT1は、上述した図5(b)及び図5(c)に示す判定結果LIを表す。このグラフは、複数の測定対象の数の比を示すグラフである。このグラフの横軸は、600個の細胞から“MCF-7”のみをDAPIによって染色し、この“MCF-7”が600個の細胞中に含まれる率を示す。
 このグラフの縦軸は、600個の細胞から“MCF-7”と”MIA PaCa-2”との細胞質全体をFGによって染色したものであり、Blueの点はFGの蛍光輝度の総量に基づいて、600個の細胞の中から“MCF-7”の含まれる割合を判別した場合を示し、Redの点はFGによって染色された細胞質の形態情報をもとに、機械学習によって“MCF-7”が含まれると判定した率を示す。すなわち、このBlueの点は、横軸に正解データ、縦軸に細胞の形態情報を元に判別した結果をプロットしたものである。このように、学習結果出力装置10は、Blueの点が示すように従来の蛍光輝度の総量のみで判別する手法では正しく判別することができなかった細胞群に対し、Redの点が示すように、細胞形態に対して機械学習を用いることによって、より正確に細胞群を判別できることを示している。
[学習結果出力装置10の動作の概要]
 次に、図7を参照して学習結果出力装置10の動作の概要について説明する。
 図7は、学習結果出力装置10の動作の一例を示す流れ図である。
 信号取得部101は、フローサイトメーター20から信号情報を取得する(ステップS10)。信号取得部101は、フローサイトメーター20から取得した信号情報を機械学習部102に対して供給する。
 機械学習部102は、信号取得部101から信号情報を取得する。機械学習部102は、信号取得部101から取得した信号情報を機械学習する(ステップS20)。機械学習部102は、機械学習した結果である判定結果LIを、表示データ生成部104に対して供給する。機械学習部102は、判定結果LIを、制御信号生成部105に対して供給する。
 表示データ生成部104は、機械学習部102から判定結果LIを取得する。表示データ生成部104は、機械学習部102から取得した判定結果LIを、表示部11に表示させる。操作者は、表示部11に表示された判定結果LIに含まれる評価軸を選択する(ステップS30)。操作検出部103は、この操作者の操作を検出する。操作検出部103は、操作者が選択した評価軸を示す情報を、表示データ生成部104に対して供給する。
 表示データ生成部104は、操作検出部103から、操作者が選択した評価軸を示す情報を取得する。表示データ生成部104は、操作検出部103から取得した操作者が選択した評価軸を軸にするグラフ情報を生成する(ステップS40)。表示データ生成部104は、生成したグラフ情報を表示部11に対して供給する。
 表示部11は、表示データ生成部104からグラフ情報を取得する。表示部11は、グラフ情報に基づいて、表示画像を生成する(ステップS50)。表示部11は、生成した表示画像を表示する(ステップS60)。
 学習結果出力装置10を操作するユーザーは、表示画像に基づいて、ゲーティングする。操作検出部103は、このゲーティングの操作を、ゲーティング操作として検出する(ステップS70)。操作検出部103は、検出したゲーティング操作を、表示データ生成部104に対して供給する。表示データ生成部104は、操作検出部103からゲーティング操作を取得する。表示データ生成部104は、操作検出部103から取得したゲーティング操作に基づいて、ゲーティングされた細胞群のグラフ情報を生成する(ステップS80)。
 表示データ生成部104は、制御信号生成部105に対して、ゲーティング操作によって選択された選択測定対象を示す選択測定対象情報を供給する。制御信号生成部105は、表示データ生成部104から選択測定対象情報を取得する。制御信号生成部105は、表示データ生成部104から取得した選択測定対象情報に基づいて、この選択測定対象のソーティングに用いる信号を示す制御信号を生成する(ステップS90)。
 制御信号生成部105は、生成した制御信号を、ソーティング部21に対して供給する(ステップS95)。
 ソーティング部21は、制御信号生成部105から制御信号を取得する。ソーティング部21は、この制御信号に基づいて、流路を流される測定対象のうちから選択測定対象を、ソーティングする。
 ここで、図8を参照して、操作検出部103が検出するゲーティングの操作の一例について説明する。
 図8は、2つの軸をそれぞれ判定結果LIに基づく評価軸を軸にしたグラフの一例である。
 図8に示すグラフは、横軸に“SVM-based Scores1”、縦軸に“SVM-based Scores2”を軸にした測定信号の判定結果を示すグラフである。
 領域AR1に含まれる点は、“SVM-based Scores1”が示す属性と、“SVM-based Scores2”が示す属性とを両方もつ測定対象を示す点である。領域AR2に含まれる点は、“SVM-based Scores1”が示す属性のみをもつ測定対象を示す点である。領域AR3に含まれる点は、“SVM-based Scores2”が示す属性のみをもつ測定対象を示す点である。領域AR4に含まれる点は、“SVM-based Scores1”が示す属性と、“SVM-based Scores2”が示す属性とを両方もたない測定対象を示す点である。
 学習結果出力装置10を操作するユーザーは、測定対象を示す点のうちから、目的の細胞群の点だと思われるエリアを選択して、境界GLを設定する。この境界GLを設定することが、ゲーティングすることである。なお、ユーザーは、過去のデータ等から散乱光又は蛍光の総量の強さ、形態情報を推測して、目的の細胞群だと思われるエリアを囲い込むことにより、境界を設定する。
 操作検出部103は、このゲーティング操作を検出する。操作検出部103は、検出したゲーティング操作を、表示データ生成部104に対して供給する。表示データ生成部104は、ゲーティング操作に基づいて、境界GLを描画する。
 また、表示データ生成部104は、この境界GLに含まれる細胞群のグラフ情報を生成してもよい。この境界GLに含まれる細胞群のグラフ情報とは、例えば、上述した図5及び図6に示すヒストグラムや散布図などのグラフである。
[まとめ]
 以上説明したように、学習結果出力装置10は、信号取得部101と、機械学習部102と、表示データ生成部104とを備える。信号取得部101は、フローサイトメーター20から信号情報を取得する。この信号情報には、測定対象の様々な情報が含まれる。機械学習部102は、この信号情報に基づいて判定する。機械学習部102は、判定結果LIを生成する。機械学習部102が生成する判定結果LIには、測定対象の属性を軸とする評価軸が含まれる。表示データ生成部104は、機械学習部102が機械学習した判定結果LIに基づいて、属性の程度の評価軸を軸にして判定結果LIを表すグラフ情報を生成する。これにより、学習結果出力装置10は、判定結果LIに含まれる評価軸を軸にもつグラフを生成することができる。また、学習結果出力装置10は、判定結果LIに含まれる評価軸を組み合わせたグラフを生成することができる。これにより、学習結果出力装置10は、測定対象の様々な属性の程度を軸にした情報を生成することができる。学習結果出力装置10は、この情報に基づいて、粒子群を測定対象の形態情報に基づいて分類することができる。
 なお、上述した説明では、信号取得部101は、フローサイトメーター20から信号情報を取得する構成について説明したが、これに限られない。信号取得部101は、信号情報を他の装置から取得してもよい。
 なお、上述した説明では、学習結果出力装置10が操作検出部103を備える構成について説明したが、必須ではない。学習結果出力装置10は、評価軸を軸にした機械学習結果を表すグラフ情報を生成すればよい。学習結果出力装置10は、操作検出部103を備えることにより、操作者の選択を検出することができる。学習結果出力装置10を操作する操作者は、判定結果LIに含まれる評価軸を選択することにより、気付いていない特徴を知ることができる。また、学習結果出力装置10は、操作者が気付いていない特徴に基づくグラフを生成することができるため、測定対象をより詳しく解析することができる。
 また、学習結果出力装置10は、従来は分類することができなかった細胞の形態情報に基づく特徴量を、機械学習部102によって分類する。これにより、学習結果出力装置10は、従来は表示させることができなかった測定対象の特徴量を表示させることができる。
 また、学習結果出力装置10は、操作検出部103を備えることにより、上述したゲーティング操作を検出することができる。
 学習結果出力装置10は、制御信号生成部105を備える。制御信号生成部105は、操作検出部103が検出するゲーティング操作に基づいて、制御信号を生成する。このゲーティング操作により選択される細胞群は、学習結果LIに基づく評価軸のグラフに基づくものである。この評価軸が細胞の形態を示す形態情報の評価軸である場合には、細胞の形態に基づいて、ユーザーは、目的の細胞をゲーティングすることができる。制御信号生成部105によって生成される制御信号に基づいて、フローサイトメーター20は、目的の細胞をソーティングすることができる。
 つまり、学習結果出力装置10は、従来の細胞群からの散乱光又は蛍光強度だけではなく、学習結果LIに含まれる評価軸を軸にしたグラフに基づく、ゲーティング操作を検出することができる。また、学習結果出力装置10は、このゲーティング操作を検出することにより、選択された細胞群を分取する制御信号を生成することができる。
 また、機械学習部102は、論理回路によって構成される判定器を備える。これにより、機械学習部102は、短い時間で測定対象を機械学習することができる。つまり、学習結果出力装置10は、短い時間で測定対象の様々な属性が含まれる判定結果LIを生成することができる。
 なお、上述した説明では、機械学習部102は、サポートベクターマシンによって機械学習する構成について説明したが、これに限られない。機械学習部102は、機械学習結果として測定対象の属性の程度を表示データ生成部104に対して供給する構成であればよい。例えば、機械学習部102は、ランダムフォレストやニューラルネットワークなどによって機械学習する構成が挙げられる。また、機械学習部102は、対象に関する属性を出力する機械学習モデルであれば教師なしでも構わない。対象に関する属性を出力する機械学習モデルとは、例えば、主成分分析やオートエンコーダーなどが挙げられる。
 なお、上述した説明では、学習結果出力装置10は、制御信号生成部105を備える構成について説明したが、制御信号生成部105は必須では無い。学習結果出力装置10は、制御信号生成部105を備えることにより、判定結果LIに含まれる評価軸に基づいて、フローサイトメーター20に対してソーティングの制御をすることができる。
 なお、上述したフローサイトメーター20は、測定対象が光学系又は検出系に対して相対位置が変化する構成について説明したが、これに限られない。静止した測定対象を光学系又は検出系を移動させてもよい。
 また、上述したフローサイトメーター20は、光信号の時系列信号を取得する構成について説明したが、これに限られない。フローサイトメーター20は、イメージングフローサイトメーターであってもよい。この場合には、イメージングフローサイトメーターとは、測定対象の像を、CCD(Charge Coupled Device)やCMOS(Complementary MOS;相補型MOS)、PMT(photomultiplier tube;光電子増倍管)などの撮像素子によって撮像するフローサイトメーターである。イメージングフローサイトメーターは、撮像した像を示す撮像画像を生成する。フローサイトメーター20は、この撮像画像を、学習結果出力装置10に対して信号情報として供給する。学習結果出力装置10は、この撮像画像に含まれる測定対象の像を機械学習部102が備える判定器によって判定することにより、判定結果LIを生成する。
 なお、上述した図8に示すグラフの表現は一例であって、これに限られない。表示データ生成部104は、2つの軸をそれぞれ判定結果LIに基づく評価軸を軸にしたグラフ情報を生成すればよい。
 以上、本発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。
 なお、上述の学習結果出力装置10は内部にコンピュータを有している。そして、上述した装置の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
 また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。
 さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
 1…細胞測定システム、10…学習結果出力装置、20…フローサイトメーター、21…ソーティング部、11…表示部、12…操作部、101…信号取得部、102…機械学習部、103…操作検出部、104…表示データ生成部、105…制御信号生成部

Claims (6)

  1.  学習対象物の形状を示す形態情報に基づいて、前記学習対象物の属性のうちの少なくとも一つの属性について当該属性の程度を評価軸にして機械学習する機械学習部と、
     前記機械学習部が機械学習した学習結果を示す学習モデルに基づいて、前記評価軸を軸にして前記学習結果を表すグラフを示すグラフ情報を生成するグラフ情報生成部と
     を備える学習結果出力装置。
  2.  前記学習モデルに基づく前記評価軸を選択する操作を検出する操作検出部を更に備え、
     前記グラフ情報生成部は、
     前記操作検出部が検出した操作によって選択された評価軸を軸にして前記グラフ情報を生成する
     請求項1に記載の学習結果出力装置。
  3.  前記操作検出部は、更に、
      前記グラフ情報生成部が生成する前記グラフ情報に基づく前記学習対象物の可視化の操作を検出する
     請求項2に記載の学習結果出力装置。
  4.  前記操作検出部が検出する前記可視化の操作に基づいて、前記学習対象物の振分に用いる制御信号を生成する制御信号生成部を更に備える
     請求項3に記載の学習結果出力装置。
  5.  前記形態情報とは、構造化された照明パターンを有する光学系又は光特性が互いに異なる複数の領域を有する構造化された検出系のいずれか又は両方を用い、前記学習対象物と、前記光学系と、前記検出系とのうちのいずれかの間の相対位置を変化させつつ、一又は少数画素検出素子によって検出された前記学習対象物を示す光信号の時系列信号である
     請求項1から請求項4のいずれか一項に記載の学習結果出力装置。
  6.  コンピュータに
     学習対象物の形状を示す形態情報に基づいて、前記学習対象物の属性のうちの少なくとも一つの属性について当該属性の程度を評価軸にして機械学習する機械学習ステップと、
     前記機械学習ステップによって機械学習された学習結果を示す学習モデルに基づいて、前記評価軸を軸にして前記学習結果を表すグラフを示すグラフ情報を生成するグラフ情報生成ステップと
     を実行させるための学習結果出力プログラム。
PCT/JP2018/012708 2017-03-29 2018-03-28 学習結果出力装置及び学習結果出力プログラム Ceased WO2018181458A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP18775495.7A EP3605406A4 (en) 2017-03-29 2018-03-28 LEARNING RESULTS OUTPUT DEVICE AND LEARNING OUTCOMES OUTPUT PROGRAM
CN201880021362.5A CN110520876B (zh) 2017-03-29 2018-03-28 学习结果输出装置及学习结果输出程序
JP2019509964A JP7173494B2 (ja) 2017-03-29 2018-03-28 学習結果出力装置及び学習結果出力プログラム
US16/584,535 US20200027020A1 (en) 2017-03-29 2019-09-26 Learning result output apparatus and learning result output program
JP2022170844A JP7428994B2 (ja) 2017-03-29 2022-10-25 測定システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-064387 2017-03-29
JP2017064387 2017-03-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/584,535 Continuation US20200027020A1 (en) 2017-03-29 2019-09-26 Learning result output apparatus and learning result output program

Publications (1)

Publication Number Publication Date
WO2018181458A1 true WO2018181458A1 (ja) 2018-10-04

Family

ID=63676280

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/012708 Ceased WO2018181458A1 (ja) 2017-03-29 2018-03-28 学習結果出力装置及び学習結果出力プログラム

Country Status (5)

Country Link
US (1) US20200027020A1 (ja)
EP (1) EP3605406A4 (ja)
JP (2) JP7173494B2 (ja)
CN (1) CN110520876B (ja)
WO (1) WO2018181458A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021045024A1 (ja) * 2019-09-02 2021-03-11
WO2021141138A1 (ja) 2020-01-10 2021-07-15 シンクサイト株式会社 新規細胞表現型スクリーニング方法
WO2021193673A1 (ja) * 2020-03-25 2021-09-30 合同会社H.U.グループ中央研究所 ゲート領域推定プログラム、ゲート領域推定方法、及びゲート領域推定装置
WO2021245779A1 (ja) * 2020-06-02 2021-12-09 日本電信電話株式会社 粒子選別装置、方法、プログラム、粒子選別データのデータ構造および学習済みモデル生成方法
JP2022014213A (ja) * 2020-07-06 2022-01-19 シンクサイト株式会社 フローサイトメータ、イメージング装置、位置検出方法、及びプログラム
WO2022024389A1 (ja) * 2020-07-31 2022-02-03 株式会社日立ハイテク 学習済みモデルを生成する方法、生体分子の塩基配列を決定する方法、および生体分子計測装置
WO2022034830A1 (ja) * 2020-08-13 2022-02-17 ソニーグループ株式会社 情報処理装置、フローサイトメータシステム、分取システム、及び情報処理方法
KR20220086964A (ko) * 2020-12-17 2022-06-24 가톨릭대학교 산학협력단 Dapi 염색 기반 세포 영상 분류를 위한 머신러닝 시스템
WO2025206192A1 (ja) * 2024-03-27 2025-10-02 シンクサイト株式会社 状態予測装置、分類モデル作成装置、状態予測方法、分類モデル作成方法、及びプログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4589550A3 (en) 2015-10-28 2025-10-15 The University of Tokyo Analysis device
JP6781987B2 (ja) 2017-02-17 2020-11-11 国立大学法人大阪大学 電磁波検出装置、フローサイトメーター、電磁波検出方法及び電磁波検出プログラム
EP3807005B1 (en) 2018-06-13 2023-10-25 ThinkCyte K.K. Methods and systems for cytometry
US11307863B1 (en) * 2018-10-08 2022-04-19 Nvidia Corporation Graphics processing unit systems for performing data analytics operations in data science
JP7556557B2 (ja) 2019-12-27 2024-09-26 シンクサイト株式会社 フローサイトメータ性能評価方法
JPWO2021200960A1 (ja) 2020-04-01 2021-10-07
JP7656837B2 (ja) 2020-04-01 2025-04-04 シンクサイト株式会社 フローサイトメーター
CN116888606A (zh) * 2021-02-05 2023-10-13 大金工业株式会社 学习装置以及评价信息输出装置
JP7552452B2 (ja) 2021-03-11 2024-09-18 富士通オプティカルコンポーネンツ株式会社 光デバイスおよび光送受信装置
WO2024224366A1 (en) 2023-04-28 2024-10-31 Thinkcyte K.K. Systems and methods of machine learning-based sample classifiers for physical samples
WO2024224369A1 (en) 2023-04-28 2024-10-31 Thinkcyte K.K. Systems and methods of machine learning-based physical sample classification with sample variation control
US12148157B1 (en) 2023-05-01 2024-11-19 Stately Bio, Inc. Platforms, systems, and methods for identifying and monitoring cell states

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5534214B2 (ja) 1978-03-24 1980-09-05
US6249341B1 (en) 1999-01-25 2001-06-19 Amnis Corporation Imaging and analyzing parameters of small moving objects such as cells
WO2006080314A1 (ja) * 2005-01-26 2006-08-03 Osaka University 白血病浸潤精巣に由来する細胞集団から白血病細胞を除去する方法、及びそれに用いられる試薬キット
WO2016136801A1 (ja) * 2015-02-24 2016-09-01 国立大学法人東京大学 動的高速高感度イメージング装置及びイメージング方法
JP2017064387A (ja) 2015-09-30 2017-04-06 パナソニックIpマネジメント株式会社 制御方法及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007048172A (ja) * 2005-08-12 2007-02-22 Fuji Xerox Co Ltd 情報分類装置
JP4427074B2 (ja) * 2007-06-07 2010-03-03 株式会社日立製作所 プラントの制御装置
JP4985480B2 (ja) * 2008-03-05 2012-07-25 国立大学法人山口大学 がん細胞を分類する方法、がん細胞を分類するための装置及びがん細胞を分類するためのプログラム
JP2010092199A (ja) * 2008-10-07 2010-04-22 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
US20160069919A1 (en) * 2011-09-25 2016-03-10 Theranos, Inc. Systems and methods for multi-analysis
US20150170053A1 (en) * 2013-12-13 2015-06-18 Microsoft Corporation Personalized machine learning models
CN103942415B (zh) * 2014-03-31 2017-10-31 中国人民解放军军事医学科学院卫生装备研究所 一种流式细胞仪数据自动分析方法
CN104200114B (zh) * 2014-09-10 2017-08-04 中国人民解放军军事医学科学院卫生装备研究所 流式细胞仪数据快速分析方法
JP6090286B2 (ja) * 2014-10-31 2017-03-08 カシオ計算機株式会社 機械学習装置、機械学習方法、分類装置、分類方法、プログラム
JP6321529B2 (ja) * 2014-11-19 2018-05-09 日本電信電話株式会社 情報信憑性判定システム、情報信憑性判定方法、情報信憑性判定プログラム
WO2016094720A1 (en) * 2014-12-10 2016-06-16 Neogenomics Laboratories, Inc. Automated flow cytometry analysis method and system
JP6492880B2 (ja) * 2015-03-31 2019-04-03 日本電気株式会社 機械学習装置、機械学習方法、および機械学習プログラム
CN106295251A (zh) * 2015-05-25 2017-01-04 中国科学院青岛生物能源与过程研究所 基于单细胞表现型数据库的表型数据分析处理方法
CN106267241B (zh) * 2015-06-26 2019-10-22 重庆医科大学 一种多功能多模态肿瘤特异性靶向相变型纳米微球光声造影剂及其应用
CN105181649B (zh) * 2015-10-09 2018-03-30 山东大学 一种新型免标记模式识别细胞仪方法
CN106097437B (zh) * 2016-06-14 2019-03-15 中国科学院自动化研究所 基于纯光学系统的生物自发光三维成像方法
CN106520535B (zh) * 2016-10-12 2019-01-01 山东大学 一种基于光片照明的免标记细胞检测装置及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5534214B2 (ja) 1978-03-24 1980-09-05
US6249341B1 (en) 1999-01-25 2001-06-19 Amnis Corporation Imaging and analyzing parameters of small moving objects such as cells
WO2006080314A1 (ja) * 2005-01-26 2006-08-03 Osaka University 白血病浸潤精巣に由来する細胞集団から白血病細胞を除去する方法、及びそれに用いられる試薬キット
WO2016136801A1 (ja) * 2015-02-24 2016-09-01 国立大学法人東京大学 動的高速高感度イメージング装置及びイメージング方法
JP2017064387A (ja) 2015-09-30 2017-04-06 パナソニックIpマネジメント株式会社 制御方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RAJWA, BARTEK ET AL.: "Automated Classification of Bacterial Particles in Flow by Multiangle Scatter Measurement and Support Vector Machine Classifier", INTERNATIONAL SOCIETY FOR ANALYTICAL CYTOLOGY, vol. 73A, no. 4, 28 December 2007 (2007-12-28), pages 369 - 379, XP002648550, Retrieved from the Internet <URL:https://onlinelibrary.wiley.com/doi/abs/10.1002/cyto.a.20515>,<DOI:10.1002/cyto.a.20515> [retrieved on 20180620] *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021045024A1 (ja) * 2019-09-02 2021-03-11 合同会社H.U.グループ中央研究所 ゲート領域推定プログラム、ゲート領域推定装置、学習モデルの生成方法
JPWO2021045024A1 (ja) * 2019-09-02 2021-03-11
JP7445672B2 (ja) 2019-09-02 2024-03-07 合同会社H.U.グループ中央研究所 ゲート領域推定プログラム、ゲート領域推定装置、学習モデルの生成方法
JP7107535B2 (ja) 2020-01-10 2022-07-27 シンクサイト株式会社 新規細胞表現型スクリーニング方法
WO2021141138A1 (ja) 2020-01-10 2021-07-15 シンクサイト株式会社 新規細胞表現型スクリーニング方法
JPWO2021141138A1 (ja) * 2020-01-10 2021-07-15
JP7493725B2 (ja) 2020-01-10 2024-06-03 シンクサイト株式会社 新規細胞表現型スクリーニング方法
US11643649B2 (en) 2020-01-10 2023-05-09 Thinkcyte, Inc. Cellular phenotype screening method
JP2022130706A (ja) * 2020-01-10 2022-09-06 シンクサイト株式会社 新規細胞表現型スクリーニング方法
WO2021193673A1 (ja) * 2020-03-25 2021-09-30 合同会社H.U.グループ中央研究所 ゲート領域推定プログラム、ゲート領域推定方法、及びゲート領域推定装置
JPWO2021245779A1 (ja) * 2020-06-02 2021-12-09
WO2021245779A1 (ja) * 2020-06-02 2021-12-09 日本電信電話株式会社 粒子選別装置、方法、プログラム、粒子選別データのデータ構造および学習済みモデル生成方法
JP7435766B2 (ja) 2020-06-02 2024-02-21 日本電信電話株式会社 粒子選別装置、方法、プログラム、粒子選別データのデータ構造および学習済みモデル生成方法
JP2022014213A (ja) * 2020-07-06 2022-01-19 シンクサイト株式会社 フローサイトメータ、イメージング装置、位置検出方法、及びプログラム
JP7473185B2 (ja) 2020-07-06 2024-04-23 シンクサイト株式会社 フローサイトメータ、イメージング装置、位置検出方法、及びプログラム
JP2024088702A (ja) * 2020-07-06 2024-07-02 シンクサイト株式会社 フローサイトメータ、及び位置検出方法
JP7697722B2 (ja) 2020-07-06 2025-06-24 シンクサイト株式会社 フローサイトメータ、及び位置検出方法
JPWO2022024389A1 (ja) * 2020-07-31 2022-02-03
WO2022024389A1 (ja) * 2020-07-31 2022-02-03 株式会社日立ハイテク 学習済みモデルを生成する方法、生体分子の塩基配列を決定する方法、および生体分子計測装置
WO2022034830A1 (ja) * 2020-08-13 2022-02-17 ソニーグループ株式会社 情報処理装置、フローサイトメータシステム、分取システム、及び情報処理方法
JPWO2022034830A1 (ja) * 2020-08-13 2022-02-17
US12517033B2 (en) 2020-08-13 2026-01-06 Sony Group Corporation Information processing apparatus, flow cytometer system, sorting system, and information processing method
KR102589666B1 (ko) * 2020-12-17 2023-10-13 가톨릭대학교 산학협력단 Dapi 염색 기반 세포 영상 분류를 위한 머신러닝 시스템
KR20220086964A (ko) * 2020-12-17 2022-06-24 가톨릭대학교 산학협력단 Dapi 염색 기반 세포 영상 분류를 위한 머신러닝 시스템
WO2025206192A1 (ja) * 2024-03-27 2025-10-02 シンクサイト株式会社 状態予測装置、分類モデル作成装置、状態予測方法、分類モデル作成方法、及びプログラム

Also Published As

Publication number Publication date
JP2023001164A (ja) 2023-01-04
JPWO2018181458A1 (ja) 2020-02-06
CN110520876A (zh) 2019-11-29
CN110520876B (zh) 2024-05-14
EP3605406A1 (en) 2020-02-05
JP7428994B2 (ja) 2024-02-07
JP7173494B2 (ja) 2022-11-16
EP3605406A4 (en) 2021-01-20
US20200027020A1 (en) 2020-01-23

Similar Documents

Publication Publication Date Title
JP7428994B2 (ja) 測定システム
Li et al. Segmentation of white blood cell from acute lymphoblastic leukemia images using dual‐threshold method
JP6959614B2 (ja) 分析装置,及びフローサイトメータ
Dima et al. Comparison of segmentation algorithms for fluorescence microscopy images of cells
JP6580117B2 (ja) 血球の撮像
JP7361395B2 (ja) 表示制御装置、表示制御方法及び表示制御プログラム
US10007834B2 (en) Detection control device, detection system, non-transitory storage medium, and detection control method
US9177222B2 (en) Edge measurement video tool and interface including automatic parameter set alternatives
CN103518224A (zh) 用于分析微生物生长的方法和软件
KR102084535B1 (ko) 결함 검사 장치, 결함 검사 방법
EP3859304B1 (en) Method for generating data for particle analysis, program for generating data for particle analysis, and device for generating data for particle analysis
JP6911915B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US11321585B2 (en) Imaging device and morphological feature data display method
WO2019229912A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び顕微鏡
JPH10318904A (ja) 粒子画像分析装置およびその分析用プログラムを記録した記録媒体
JP2018512567A (ja) 検査室自動化のためのサイドビューサンプルチューブ画像におけるバーコードタグ検出
JP2005242488A (ja) 物体検出装置、物体検出方法、プログラム
CN102227624A (zh) 用于显示三维物体散点图的系统和方法
US12511878B2 (en) Method and system for training a neural network-implemented sensor system to classify objects in a bulk flow
Zhang et al. Neuromorphic cytometry: implementation on cell counting and size estimation
TWI767229B (zh) 外觀檢查管理系統、外觀檢查管理裝置、外觀檢查管理方法以及程式
US20240280467A1 (en) Data Generation Method, Trained Model Generation Method, and Particle Classification Method
CN113933248B (zh) 一种高光谱在线检测系统及方法
WO2023008526A1 (ja) 細胞画像解析方法
JP2014186710A (ja) 画像処理技術を用いたしいたけの等級判別装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18775495

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019509964

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018775495

Country of ref document: EP

Effective date: 20191029

WWW Wipo information: withdrawn in national office

Ref document number: 2018775495

Country of ref document: EP