JP2014238344A - Image processing system, image processor and program - Google Patents
Image processing system, image processor and program Download PDFInfo
- Publication number
- JP2014238344A JP2014238344A JP2013121331A JP2013121331A JP2014238344A JP 2014238344 A JP2014238344 A JP 2014238344A JP 2013121331 A JP2013121331 A JP 2013121331A JP 2013121331 A JP2013121331 A JP 2013121331A JP 2014238344 A JP2014238344 A JP 2014238344A
- Authority
- JP
- Japan
- Prior art keywords
- image
- cell
- region
- captured
- candidate region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像処理システム、画像処理装置及びプログラムに関する。 The present invention relates to an image processing system, an image processing apparatus, and a program.
出生前の胎児の診断を行う場合に、母体血中に極微量に含まれる胎児由来の有核赤血球(NRBCs、以下標的細胞)を検出し、利用することが行われている。母体血中に存在するNRBCsの数は極めて少ないため、NRBCsを目視により検出するのは負担が大きい。そこで、下記の特許文献1に記載されているように、NRBCsの色、形状、位置関係、面積比等の条件に合致する細胞を対象画像から探索することにより、NRBCsを機械的に検出する技術が提案されている。
When diagnosing a prenatal fetus, fetal nucleated red blood cells (NRBCs, hereinafter referred to as target cells) contained in a very small amount in the maternal blood are detected and used. Since the number of NRBCs present in maternal blood is extremely small, it is a heavy burden to detect NRBCs by visual inspection. Therefore, as described in
本発明の目的は、細胞候補領域内の物体が標的細胞であるか否かを、撮像画像における細胞候補領域の像の参照のみでユーザが判断できるように図ることである。 An object of the present invention is to enable a user to determine whether or not an object in a cell candidate region is a target cell by only referring to an image of the cell candidate region in a captured image.
上記課題を解決するための請求項1に記載の発明は、標的細胞を含む試料を複数の焦点距離のそれぞれで撮像する撮像手段と、前記撮像手段が撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得する取得手段と、前記取得手段により取得された複数の前記画像を表示する表示手段と、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段と、を含む画像処理システムである。
The invention according to
また、請求項2に記載の画像処理システムは、請求項1に記載の画像処理システムにおいて、前記表示手段が、前記複数の画像を、各撮像画像が撮像されたときの焦点距離に応じた整列順で一覧表示すること、を特徴とする。
The image processing system according to
また、請求項3に記載の画像処理システムは、請求項1に記載の画像処理システムにおいて、前記表示手段が、前記複数の画像の一つ一つを、各撮像画像が撮像されたときの焦点距離に応じた表示順序で順番に表示すること、を特徴とする。
The image processing system according to claim 3 is the image processing system according to
また、請求項4に記載の画像処理システムは、求項1乃至3のいずれかに記載の画像処理システムにおいて、前記表示手段が、前記複数の画像を、いずれかの撮像画像における、前記細胞候補領域を含む周辺領域の画像とともに、表示すること、を特徴とする。
The image processing system according to claim 4 is the image processing system according to any one of
また、請求項5に記載の画像処理システムは、求項1乃至4のいずれかに記載の画像処理システムにおいて、前記表示手段が、前記複数の画像を、各撮像画像が撮像されたときの焦点距離を示す情報とともに表示すること、を特徴とする。
The image processing system according to claim 5 is the image processing system according to any one of
また、上記課題を解決するための請求項6に記載の発明は、撮像手段が標的細胞を含む試料を複数の焦点距離のそれぞれで撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得する取得手段と、前記取得手段により取得された複数の前記画像を表示する表示手段と、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段と、を含む画像処理装置である。 Moreover, the invention according to claim 6 for solving the above-described problem is that the imaging unit captures a region in which the target cell is captured in each of the captured images obtained by imaging the sample including the target cell at each of a plurality of focal lengths. Acquisition means for acquiring images of candidate cell candidate areas, display means for displaying the plurality of images acquired by the acquisition means, and user judgment regarding whether or not the target cells are shown in the cell candidate areas And an image processing apparatus including means for receiving an input of a result.
また、上記課題を解決するための請求項6に記載の発明は、撮像手段が標的細胞を含む試料を複数の焦点距離のそれぞれで撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得する取得手段、前記取得手段により取得された複数の前記画像を表示する表示手段、前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段、としてコンピュータを機能させるためのプログラムである。 Moreover, the invention according to claim 6 for solving the above-described problem is that the imaging unit captures a region in which the target cell is captured in each of the captured images obtained by imaging the sample including the target cell at each of a plurality of focal lengths. Acquisition means for acquiring an image of a candidate cell candidate area, display means for displaying a plurality of the images acquired by the acquisition means, and determination result of a user regarding whether or not the target cell is shown in the cell candidate area It is a program for causing a computer to function as means for receiving input.
請求項1、6、7の発明によれば、細胞候補領域内の物体が標的細胞であるか否かを、撮像画像における細胞候補領域の像の参照のみでユーザが判断できるように図ることができる。 According to the first, sixth, and seventh aspects of the invention, the user can determine whether or not the object in the cell candidate region is a target cell only by referring to the image of the cell candidate region in the captured image. it can.
請求項2〜5の発明によれば、本構成を有しない場合と比較して、細胞候補領域内の物体が標的細胞であるか否かをより判断し易くできる。 According to the second to fifth aspects of the present invention, it is easier to determine whether or not the object in the cell candidate region is a target cell, as compared with the case where this configuration is not provided.
以下、本発明の実施形態の例について図面に基づき詳細に説明する。 Hereinafter, examples of embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本実施形態に係る画像処理システム1のシステム構成図を示す。図1に示すように、画像処理システム1は、光学顕微鏡2、画像処理装置4、表示装置6を含む。画像処理装置4は、光学顕微鏡2と表示装置6の各々とデータ通信可能に接続されている。
FIG. 1 is a system configuration diagram of an
光学顕微鏡2は、試料台に配置されたスライドグラス上の試料を、対物レンズ等の光学系を介してCCDカメラで撮像する。本実施形態では、試料には、母体血をスライドグラスに塗布し、メイ・ギムザ染色を施したものを用いる。これにより、母体血中の胎児由来有核赤血球が青紫色に染色される。以下、有核赤血球を標的細胞と称する。
The
画像処理装置4は、例えばパーソナルコンピュータであり、光学顕微鏡2で撮像された撮像画像を取得する。撮像画像は、母体血中に含まれる各種細胞の画像を含む。標的細胞(有核赤血球)の核は、メイ・ギムザ染色により他の細胞の核よりわずかに濃く染色される。
The image processing device 4 is, for example, a personal computer, and acquires a captured image captured by the
また、画像処理装置4は、標的細胞が写っている領域の候補となる細胞候補領域を特定し、特定した細胞候補領域それぞれの画像の一覧を表示装置6に表示する。 Further, the image processing device 4 identifies a cell candidate region that is a candidate for a region in which the target cell is shown, and displays a list of images of each identified cell candidate region on the display device 6.
表示装置6は、画像処理装置4により特定された細胞候補領域それぞれの画像の一覧を表示する。図2Aは、表示装置6に表示される画面の一例を示す図である。同図に示すように、画面には、特定された細胞候補領域の画像の一覧が表示される。 The display device 6 displays a list of images of each cell candidate region specified by the image processing device 4. FIG. 2A is a diagram illustrating an example of a screen displayed on the display device 6. As shown in the figure, a list of images of the specified cell candidate regions is displayed on the screen.
ユーザは、出生前診断にあたり、画面に表示される各画像を参照する。各細胞候補領域の画像の右上には目視結果入力ボタン11が設けられており、ユーザは、標的細胞が写っているか否かを判断した細胞候補領域に係る目視結果入力ボタン11をクリックし、判断結果を入力する。
The user refers to each image displayed on the screen in the prenatal diagnosis. A visual
ところで、画像を参照するだけでは、標的細胞の有無の判断がつかない場合がある。そこで、画像を参照するだけでは判断がつかない場合、焦点距離を変えながら、画像に写っている細胞の核部分の大きさの変化を光学顕微鏡2で観察する作業を行うことが考えられる。標的細胞以外の細胞(リンパ球、サイズの大きな白血球、ゴミが付着した赤血球など)の核は平坦であるため、焦点距離によらず核部分の像の大きさはほぼ一定となるが、標的細胞たる有核赤血球の核は平坦でないため、焦点距離に応じて核部分の像の大きさが変わるからである。図3に、各種細胞の各焦点距離における像の例を示した。各像の下に記載の数値は、焦点距離を表している。ここでは、焦点距離を、焦点位置のオートフォーカス位置からの下方向の距離として表している。符号「+」は、焦点位置がオートフォーカス位置より下にあることを示し、符号「−」は、焦点位置がオートフォーカス位置より上にあることを示す。図3に示すように、焦点距離に応じて標的細胞たる有核赤血球の核の像の大きさが変化している。
By the way, it may not be possible to determine the presence or absence of a target cell simply by referring to an image. Therefore, when it is not possible to make a judgment only by referring to the image, it is conceivable to perform an operation of observing the change in the size of the nucleus of the cell in the image with the
しかし、核部分の像の大きさの変化を光学顕微鏡2で観察する作業を行うのは手間である。
However, it is troublesome to perform the operation of observing the change in the size of the image of the nucleus portion with the
この点、この画像処理システム1では、この手間の省略が図られている。すなわち、この画像処理システム1では、光学顕微鏡2に焦準機構が備えられている。また、光学顕微鏡2が、複数の焦点距離のそれぞれで試料を撮像するようになっている。
In this respect, in this
それだけでなく、図2Aに示す画面に、画像の表示形態を選択するためのボタン7a、7bが設けられる。そして、ボタン7bが選択されているとき、図2Bに示すように、一つ一つの細胞候補領域につき、各焦点距離での画像が一覧表示されるようになっている。画像の下の数値は、焦点距離を示す。よって、以上の作業を行わずとも、ユーザが、細胞候補領域内の物体が標的細胞であるか否かを、各撮像画像における細胞候補領域の像を参照することで、判断できるようになっている。
In addition,
また、図2Aに示す画面において、ユーザがクリックして選択した細胞候補領域に関し詳細な表示が行われるようになっている。ここでは、詳細な表示の表示態様を選択するためのボタン10a、10b、10cが設けられている。そして、ボタン10aが選択されているとき、表示態様(1)で詳細な表示が行われる。図4Aは、表示態様(1)を説明するための図である。表示態様(1)では、図4Aに示されるように、ユーザが選択した細胞候補領域につき、各焦点距離での画像が一覧表示される。ここでも、画像の下の数値は、焦点距離を示す。よって、ボタン10aを選択することによっても、ユーザが、各撮像画像における細胞候補領域の像を参照することで細胞候補領域内の物体が標的細胞であるか否かを判断できるようになっている。
Further, on the screen shown in FIG. 2A, detailed display is performed regarding the cell candidate region selected by the user by clicking. Here,
なお、ボタン10bが選択されているとき、表示態様(2)で詳細な表示が行われる。図4Bは、表示態様(2)を説明するための図である。表示態様(2)では、図4Bに示されるように、ユーザが選択した細胞候補領域を含む周辺領域の画像が表示される。また、ボタン10cが選択されているとき、表示態様(3)で詳細な表示が行われる。図4Cは、表示態様(3)を説明するための図である。表示態様(3)では、図4Cに示されるように、ユーザが選択した細胞候補領域につき、各焦点距離での画像と、周辺領域の画像と、が表示される。ユーザは、ボタン10a、10b、10cのうちで選択するボタンを切り替えることで、詳細な表示の表示態様を、表示態様(1)〜(3)のうちで切り替えることができる。図5に、表示態様が切り替わる様子を示した。
When the
以下、撮像画像における細胞候補領域の像を参照することで細胞候補領域内の物体が標的細胞であるか否かをユーザが判断できるようにするための技術について説明する。 Hereinafter, a technique for allowing a user to determine whether an object in a cell candidate region is a target cell by referring to an image of the cell candidate region in a captured image will be described.
図6は、画像処理システム1で実現される機能群を示す機能ブロック図である。画像処理システム1では、撮像部12、検体画像取得部14、検体画像記憶部16、細胞候補領域決定部18、領域候補データベース20(以下、領域候補DB20と称する)、候補領域画像取得部22、目視確認用情報生成部24、目視確認用情報記憶部26、及び目視確認用情報表示部28が実現される。撮像部12は、光学顕微鏡2により実現される。
FIG. 6 is a functional block diagram showing a functional group realized by the
また、撮像部12以外の機能は、画像処理装置4により実現される。撮像部12以外の機能は、マイクロプロセッサ等の制御手段、メモリ等の記憶手段、ユーザの操作を受け付ける操作受付手段等の外部デバイスとデータを送受信する入出力手段等を備えたコンピュータである画像処理装置4が、コンピュータ読み取り可能な情報記憶媒体(例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等)に格納されるプログラムを読み込み実行することで実現される。なお、プログラムは、インターネット等のデータ通信網を介してコンピュータたる画像処理装置4に供給されてもよい。
Functions other than the
以下、各機能について説明する。撮像部12は、スライドグラス面上の試料を予め定められた複数の焦点距離のそれぞれで撮像し、撮像した複数の撮像画像(以下、検体画像と表記する)を検体画像取得部14に出力する。検体画像は、画像データであり、それが撮像されたときの焦点距離がヘッダー情報として含まれる。
Each function will be described below. The
検体画像取得部14は、上記複数の検体画像それぞれのデータを撮像部12から取得し、取得した検体画像それぞれを、検体画像記憶部16に保存する。焦点距離は、焦点位置のオートフォーカス位置からの下方向の距離として表される。
The sample
また、細胞候補領域決定部18は、上述した細胞候補領域を決定する。具体的に、細胞候補領域決定部18は、上記複数の検体画像のうちの1つを基準検体画像として検体画像記憶部16から読み出し、基準検体画像のうちで、標的細胞の核に対応する核候補領域を抽出する。より詳しくは、細胞候補領域決定部18は、基準検体画像のうちで、有意な画素の画素塊を抽出し、各画素塊の外接矩形領域を核候補領域として抽出する。ここで、有意な画素とは、画素値(RGB値)が予め定めた範囲内にある画素のことである。そして、細胞候補領域決定部18は、核候補領域ごとに、その核候補領域に基づいて細胞候補領域を決定する。例えば、細胞候補領域決定部18は、核候補領域ごとに、その核候補領域を含む所与のサイズの矩形領域を細胞候補領域として決定する。図7に、画素塊30、核候補領域32、及び細胞候補領域34の例を示した。図7では、左上の核候補領域32を含む細胞候補領域34が示されている。
Moreover, the cell candidate area |
また、細胞候補領域決定部18は、決定した細胞候補領域34を領域候補DB20に登録する。すなわち、細胞候補領域決定部18は、決定した細胞候補領域34のレコードを領域候補DB20に格納する。レコードには、細胞候補領域34の領域IDが含まれる。また、レコードには、細胞候補領域34を示す座標データが含まれる。また、レコードには、細胞候補領域34に標的細胞が写っている確度を示す数値(以下、スコアと表記する)が含まれる。また、レコードには、細胞候補領域34に標的細胞が写っているか否かに関するユーザの判断結果を示す目視フラグの値(ここでは「0」)が含まれる。ここで、細胞候補領域決定部18は、基準検体画像から細胞候補領域34内の画像を切り出し、切り出した画像の画像特徴量を予め学習された識別器に入力したときの出力値を、細胞候補領域34のスコアとして得る。画像特徴量の例としては、例えば、HOG(Histograms of Oriented Gradients)特徴量が上げられる。スコアの値が大きいほど、細胞候補領域34に標的細胞が写っている確度が高くなる。
Further, the cell candidate
図8は、領域候補DB20の記憶内容を示す図である。同図に示すように、領域候補DB20は、領域IDフィールド、座標データフィールド、スコアフィールド、及び目視結果フィールドを含む。領域IDフィールドには、細胞候補領域34の領域IDが格納される。座標データフィールドには、細胞候補領域34を示す座標データが、その細胞候補領域34の領域IDに関連づけて格納される。座標データは、細胞候補領域34の代表点(例えば、中心又は左上頂点)の位置座標と、細胞候補領域34のサイズ(幅W及び高さH)と、を含む。座標データは、ピクセル表記されたデータであってもよいし、ミリメートル表記されたデータであってもよい。
FIG. 8 is a diagram showing the stored contents of the
また、スコアフィールドには、細胞候補領域34のスコアが、その細胞候補領域34の領域IDに関連づけて格納される。また、目視結果フィールドには、目視フラグの値が、その細胞候補領域34の領域IDに関連づけて格納される。値「2」は、細胞候補領域34に標的細胞が写っているとユーザが判断したことを示し、値「1」は、細胞候補領域34に標的細胞が写っているかどうかが不明確であるとユーザが判断したことを示し、値「0」は、細胞候補領域34をユーザがまだ目視していないか又は細胞候補領域34に標的細胞が写っていないとユーザが判断したことを示す。目視フラグだけでなく細胞候補領域34に関するユーザのコメントが、目視結果フィールドに格納されてもよい。
In the score field, the score of the
なお、細胞候補領域決定部18は、決定した細胞候補領域34全部を領域候補DB20に登録してもよいし、決定した細胞候補領域34のうち標的細胞が写っていると上記識別器により識別された細胞候補領域34のみを領域候補DB20に登録してもよい。ここで、標的細胞が写っていると識別された細胞候補領域34とは、例えば、スコアが閾値以上である細胞候補領域34や、スコアが「1」〜「N」(「N」は例えば「200」)番目に大きい細胞候補領域34のことである。
Note that the cell candidate
以下、領域候補DB20に登録されている細胞候補領域34それぞれを、細胞候補領域Xと称して、説明を続ける。
Hereinafter, each
候補領域画像取得部22は、撮像部12が撮像した複数の検体画像それぞれにおける、細胞候補領域Xの画像を候補領域画像として取得する。具体的に、候補領域画像取得部22は、検体画像記憶部16に記憶される検体画像それぞれから、細胞候補領域Xの画像を候補領域画像として切り出す。候補領域画像は、画像データであり、それを含む検体画像が撮像されたときの焦点距離がヘッダー情報として含まれる。
The candidate area
目視確認用情報生成部24は、候補領域画像取得部22が取得した複数の候補領域画像それぞれに基づいて、目視確認用情報を生成する。具体的に、目視確認用情報生成部24は、候補領域画像取得部22が取得した複数の候補領域画像を含む情報を目視確認用情報として生成し、生成した目視確認用情報を、細胞候補領域Xの領域IDに関連づけて目視確認用情報記憶部26に記憶する。
The visual confirmation
目視確認用情報表示部28は、基準検体画像における細胞候補領域Xの画像を表示装置6に表示する。具体的に、目視確認用情報表示部28は、ボタン7aが選択されているとき、基準検体画像における細胞候補領域Xの画像を表示装置6に表示する(図2A参照)。
The visual confirmation
また、目視確認用情報表示部28は、目視確認用情報に基づいて、候補領域画像取得部22により取得された複数の候補領域画像を表示装置6に表示する。例えば、目視確認用情報表示部28は、ボタン7bが選択されているとき、目視確認用情報に含まれる複数の候補領域画像を表示装置6に表示する(図2B参照)。また、例えば、目視確認用情報表示部28は、ボタン10aが選択され且つ細胞候補領域Xがユーザにより選択されているとき、目視確認用情報に含まれる複数の候補領域画像を表示装置6に表示する(図4A参照)。また、例えば、目視確認用情報表示部28は、ボタン10cが選択され且つ細胞候補領域Xがユーザにより選択されているとき、目視確認用情報に含まれる複数の候補領域画像を、基準検体画像における、細胞候補領域Xを含む周辺領域の画像とともに、表示装置6に表示する(図4C参照)。
The visual confirmation
ここで、目視確認用情報表示部28は、各候補領域画像を、各検体画像が撮像されたときの焦点距離を示す情報とともに、表示する。具体的に、目視確認用情報表示部28は、各候補領域画像を、その候補領域画像に含まれる焦点距離に関連づけて表示する(図2B、図4A、及び図4C参照)。また、目視確認用情報表示部28は、各候補領域画像を、各検体画像が撮像されたときの焦点距離に応じた整列順(例えば、焦点距離の昇順又は降順)で一覧表示する(図2B、図4A、及び図4C参照)。なお、目視確認用情報表示部28は、各候補領域画像一つ一つを、各候補領域画像に含まれる焦点距離に応じた表示順序(例えば、焦点距離の昇順又は降順)で順番に表示してもよい。各候補領域画像一つ一つが順番に表示される様子を示した。矢印は、表示される候補領域画像の遷移を示している。
Here, the
また、目視確認用情報表示部28は、細胞候補領域Xに標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける。ここでは、目視確認用情報表示部28は、細胞候補領域Xに係る目視結果入力ボタン11(図2A及び図2B参照)がクリックされた場合に、細胞候補領域Xに標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける。
Further, the visual confirmation
また、目視確認用情報表示部28は、受け付けたユーザの判断結果を示す情報を、細胞候補領域Xの領域IDに関連づけて目視結果フィールドに格納する。ここでは、目視確認用情報表示部28は、細胞候補領域Xに標的細胞が写っているとの判断結果の入力を受け付けた場合、細胞候補領域Xの領域IDに関連づけて目視結果フィールドに格納される目視フラグの値を「2」に更新し、細胞候補領域Xに標的細胞が写っているか不明確であるとの判断結果の入力を受け付けた場合、目視フラグの値を「1」に更新する。
Further, the visual confirmation
そして、領域候補DB20の記憶内容を基に、標的細胞の抽出が行われることになる。 And extraction of a target cell will be performed based on the memory content of area | region candidate DB20.
このように、この画像処理装置4では、目視確認用情報表示部28により、複数の焦点距離それぞれにつき、その焦点距離で試料を撮像したときの細胞候補領域34の像が表示装置6に表示される。よって、ユーザは、各像を参照することで、細胞候補領域34内の物体が標的細胞であるか否かを判断できる。また、各像が、焦点距離に応じた順序で表示されるので、核部分のサイズの変化が一見して把握し易くなり、上述の判断をし易くなる。
As described above, in the image processing device 4, the visual confirmation
図10は、画像処理装置4において、候補領域画像取得部22、目視確認用情報生成部24、及び目視確認用情報表示部28により実行される処理の一例を示すフロー図である。S101で画像処理装置4は、検体画像記憶部16に記憶される複数の検体画像を読み出す。また、S101で画像処理装置4は、領域候補DB20に登録される複数の細胞候補領域それぞれの座標データを読み出す。
FIG. 10 is a flowchart illustrating an example of processing executed by the candidate area
そして、画像処理装置4は、記憶手段に記憶される目視確認済領域リストを初期化する(S102)。そして、画像処理装置4は、領域候補DB20に登録される細胞候補領域一つ一つを細胞候補領域(i)として、S103〜S106のステップを実行する。
Then, the image processing device 4 initializes the visually confirmed region list stored in the storage unit (S102). Then, the image processing apparatus 4 executes steps S103 to S106 with each cell candidate region registered in the
すなわち、S103で画像処理装置4は、候補領域画像取得部22により、各検体画像における細胞候補領域(i)の画像を、候補領域画像として取得する。また、S103で画像処理装置4は、目視確認用情報生成部24より、取得した複数の候補領域画像を含む目視確認用情報を生成し、目視確認用情報記憶部26に保存する。
That is, in S103, the image processing apparatus 4 acquires the image of the cell candidate region (i) in each specimen image as the candidate region image by the candidate region
そして、例えば細胞候補領域(i)がユーザに選択された場合に、画像処理装置4は、目視確認用情報表示部28により、目視確認用情報記憶部26に記憶される目視確認用情報を読み出し、目視確認用情報に含まれる複数の候補領域画像それぞれを表示装置6に表示する(S104)。例えば、S104で画像処理装置4は、各候補領域画像を、各候補領域画像に含まれる焦点距離に応じた整列順で一覧表示する(図4A参照)。また、例えば、S104で画像処理装置4は、各候補領域画像の一つ一つを、各候補領域画像に含まれる焦点距離に応じた表示順序で順番に表示する(図9参照)。また、例えば、S104で画像処理装置4は、各候補領域画像を、基準検体画像における、細胞候補領域(i)を含む周辺領域の画像とともに表示する(図4C参照)。
For example, when the cell candidate region (i) is selected by the user, the image processing device 4 reads the visual confirmation information stored in the visual confirmation
そして、画像処理装置4は、目視確認用情報表示部28により、細胞候補領域(i)に標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける。また、受け付けた入力に基づいて、細胞候補領域(i)に標的細胞が写っているとユーザが判断したか否かを判定する(S105)。
Then, the image processing apparatus 4 receives an input of a determination result of the user regarding whether or not the target cell is shown in the cell candidate region (i) by the visual confirmation
細胞候補領域(i)に標的細胞が写っているとユーザが判断した場合(S105のY)、細胞候補領域(i)の領域IDに関連づけて目視結果フィールドに格納される目視フラグの値を「2」に更新する。また、細胞候補領域(i)を目視確認済領域リストに登録する(S106)。 When the user determines that the target cell is shown in the cell candidate area (i) (Y in S105), the value of the visual flag stored in the visual result field in association with the area ID of the cell candidate area (i) is set to “ Update to 2 ”. Further, the cell candidate area (i) is registered in the visually confirmed area list (S106).
一方、細胞候補領域(i)に標的細胞が写っていないとユーザが判断した場合(S105のN)、画像処理装置4は、他の細胞候補領域を細胞候補領域(i)としてS103以降のステップを実行する。 On the other hand, when the user determines that the target cell is not shown in the cell candidate region (i) (N in S105), the image processing apparatus 4 sets another cell candidate region as the cell candidate region (i) and the steps after S103. Execute.
最後に、S107で画像処理装置4は、目視確認済領域リストを出力する。 Finally, in S107, the image processing apparatus 4 outputs a visually confirmed region list.
なお、本発明の実施形態は、上記実施形態だけに限らない。 In addition, embodiment of this invention is not restricted only to the said embodiment.
例えば、以上では、有核赤血球が標的細胞である場合について述べたが、有核赤血球以外の細胞が標的細胞であってもよい。すなわち、本発明は、有核赤血球以外の細胞が標的細胞である場合にも適用可能である。 For example, the case where nucleated red blood cells are target cells has been described above, but cells other than nucleated red blood cells may be target cells. That is, the present invention can also be applied when cells other than nucleated red blood cells are target cells.
また、例えば、画像処理装置4は、ボタン10bが選択されているとき表示態様(2)で詳細な表示を行うのではなく(図4B参照)、表示態様(4)で詳細な表示を行ってもよい。図11は、表示態様(4)を説明するための図である。同図に示すように、表示態様(4)では、各焦点距離での周辺領域の画像一つ一つが順番に表示される。
In addition, for example, the image processing apparatus 4 does not perform detailed display in the display mode (2) when the
1 画像処理システム、2 光学顕微鏡、4 画像処理装置、6 表示装置、7a,7b,10a,10b,10c ボタン、11 目視結果入力ボタン、12 撮像部、14 検体画像取得部、16 検体画像記憶部、18 細胞候補領域決定部、20 領域候補DB、22 候補領域画像取得部、24 目視確認用情報生成部、26 目視確認用情報記憶部、28 目視確認用情報表示部、30 画素塊、32 核候補領域、34 細胞候補領域。
DESCRIPTION OF
Claims (7)
前記撮像手段が撮像した撮像画像それぞれにおける、前記標的細胞が写っている領域の候補たる細胞候補領域の画像を取得する取得手段と、
前記取得手段により取得された複数の前記画像を表示する表示手段と、
前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段と、
を含む画像処理システム。 Imaging means for imaging a sample containing target cells at each of a plurality of focal lengths;
An acquisition unit that acquires an image of a cell candidate region that is a candidate for a region in which the target cell is captured in each of the captured images captured by the imaging unit;
Display means for displaying the plurality of images acquired by the acquisition means;
Means for receiving an input of a user's judgment result regarding whether or not the target cell is shown in the cell candidate region;
Including an image processing system.
前記複数の画像を、各撮像画像が撮像されたときの焦点距離に応じた整列順で一覧表示すること、
を特徴とする請求項1に記載の画像処理システム。 The display means includes
Displaying a list of the plurality of images in an order of alignment according to the focal length when each captured image is captured;
The image processing system according to claim 1.
前記複数の画像の一つ一つを、各撮像画像が撮像されたときの焦点距離に応じた表示順序で順番に表示すること、
を特徴とする請求項1に記載の画像処理システム。 The display means includes
Displaying each of the plurality of images sequentially in a display order corresponding to the focal length when each captured image is captured;
The image processing system according to claim 1.
前記複数の画像を、いずれかの撮像画像における、前記細胞候補領域を含む周辺領域の画像とともに、表示すること、
を特徴とする請求項1乃至3のいずれかに記載の画像処理システム。 The display means includes
Displaying the plurality of images together with an image of a peripheral region including the cell candidate region in any captured image;
The image processing system according to any one of claims 1 to 3.
前記複数の画像を、各撮像画像が撮像されたときの焦点距離を示す情報とともに表示すること、
を特徴とする請求項1乃至4のいずれかに記載の画像処理システム。 The display means includes
Displaying the plurality of images together with information indicating a focal length when each captured image is captured;
The image processing system according to claim 1, wherein:
前記取得手段により取得された複数の前記画像を表示する表示手段と、
前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段と、
を含む画像処理装置。 An acquisition unit that acquires an image of a cell candidate region that is a candidate for a region in which the target cell is captured in each of the captured images obtained by imaging the sample including the target cell at each of a plurality of focal lengths;
Display means for displaying the plurality of images acquired by the acquisition means;
Means for receiving an input of a user's judgment result regarding whether or not the target cell is shown in the cell candidate region;
An image processing apparatus.
前記取得手段により取得された複数の前記画像を表示する表示手段、
前記細胞候補領域に前記標的細胞が写っているか否かに関するユーザの判断結果の入力を受け付ける手段、
としてコンピュータを機能させるためのプログラム。 An acquisition unit that acquires an image of a cell candidate region that is a candidate for a region in which the target cell is captured in each of the captured images obtained by imaging the sample including the target cell at each of a plurality of focal lengths,
Display means for displaying the plurality of images acquired by the acquisition means;
Means for receiving an input of a determination result of a user regarding whether or not the target cell is shown in the cell candidate region;
As a program to make the computer function as.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013121331A JP2014238344A (en) | 2013-06-07 | 2013-06-07 | Image processing system, image processor and program |
| PCT/JP2013/081361 WO2014196097A1 (en) | 2013-06-07 | 2013-11-21 | Image processing system, image processing device, program, storage medium, and image processing method |
| CN201380075661.4A CN105122037A (en) | 2013-06-07 | 2013-11-21 | Image processing system, image processing device, program, storage medium, and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013121331A JP2014238344A (en) | 2013-06-07 | 2013-06-07 | Image processing system, image processor and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014238344A true JP2014238344A (en) | 2014-12-18 |
Family
ID=52007764
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013121331A Withdrawn JP2014238344A (en) | 2013-06-07 | 2013-06-07 | Image processing system, image processor and program |
Country Status (3)
| Country | Link |
|---|---|
| JP (1) | JP2014238344A (en) |
| CN (1) | CN105122037A (en) |
| WO (1) | WO2014196097A1 (en) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3470510A4 (en) * | 2016-06-13 | 2019-06-26 | Sony Corporation | DEVICE, INFORMATION PROCESSING DEVICE, PROGRAM, AND INFORMATION PROCESSING METHOD |
| WO2020010634A1 (en) * | 2018-07-13 | 2020-01-16 | 深圳迈瑞生物医疗电子股份有限公司 | Cell image processing system and method, automatic smear reading device, and storage medium |
| JP7311142B2 (en) * | 2019-08-23 | 2023-07-19 | ライトタッチテクノロジー株式会社 | Biological tissue identification device and biological tissue identification program |
| WO2021135393A1 (en) * | 2019-12-31 | 2021-07-08 | 深圳迈瑞生物医疗电子股份有限公司 | Image analysis apparatus and imaging method thereof |
| CN111698423A (en) * | 2020-06-18 | 2020-09-22 | 福建捷联电子有限公司 | Method for displaying photos with various focal lengths |
| WO2022021224A1 (en) * | 2020-07-30 | 2022-02-03 | 深圳迈瑞生物医疗电子股份有限公司 | Sample classification method and apparatus, and storage medium |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6583865B2 (en) * | 2000-08-25 | 2003-06-24 | Amnis Corporation | Alternative detector configuration and mode of operation of a time delay integration particle analyzer |
| JP4046161B2 (en) * | 2002-10-29 | 2008-02-13 | 独立行政法人放射線医学総合研究所 | Sample image data processing method and sample inspection system |
| JP4346923B2 (en) | 2003-02-21 | 2009-10-21 | 晴夫 高林 | Target cell automatic search system |
| JP5703781B2 (en) * | 2010-09-03 | 2015-04-22 | ソニー株式会社 | Image processing apparatus and method |
-
2013
- 2013-06-07 JP JP2013121331A patent/JP2014238344A/en not_active Withdrawn
- 2013-11-21 WO PCT/JP2013/081361 patent/WO2014196097A1/en not_active Ceased
- 2013-11-21 CN CN201380075661.4A patent/CN105122037A/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| CN105122037A (en) | 2015-12-02 |
| WO2014196097A1 (en) | 2014-12-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9934571B2 (en) | Image processing device, program, image processing method, computer-readable medium, and image processing system | |
| CN104471389B (en) | Image processing device, image processing method, and image processing system | |
| JP6194791B2 (en) | Image processing apparatus and program | |
| JP4558047B2 (en) | Microscope system, image generation method, and program | |
| JP2014238344A (en) | Image processing system, image processor and program | |
| JP2014235494A (en) | Image processor, and program | |
| JP4864709B2 (en) | A system for determining the staining quality of slides using a scatter plot distribution | |
| JP4897488B2 (en) | A system for classifying slides using a scatter plot distribution | |
| US20200074628A1 (en) | Image processing apparatus, imaging system, image processing method and computer readable recoding medium | |
| JP2014149381A (en) | Image acquisition apparatus and image acquisition method | |
| JP5530126B2 (en) | Three-dimensional cell image analysis system and three-dimensional cell image analyzer used therefor | |
| JP2015194700A (en) | Focusing determination device, focusing determination method, and imaging device | |
| JP6156137B2 (en) | Image processing apparatus and program | |
| JP4938428B2 (en) | Specimen image creation method and apparatus | |
| US20130215146A1 (en) | Image-drawing-data generation apparatus, method for generating image drawing data, and program | |
| JP5648366B2 (en) | Microscope control apparatus and region determination method | |
| JP2013105087A (en) | Image acquisition device, image acquisition method, and image acquisition program | |
| CN100588941C (en) | A system for classifying slides using a scatterplot distribution | |
| Rupp et al. | Fully automated detection of the counting area in blood smears for computer aided hematology | |
| WO2021166089A1 (en) | Evaluation assistance device, evaluation assistance system, evaluation assistance method, and program | |
| CN119104546A (en) | Film reading device, film reading method and readable storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150819 |
|
| A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20151028 |