JP2016149998A - Identification apparatus, identification method, and program - Google Patents
Identification apparatus, identification method, and program Download PDFInfo
- Publication number
- JP2016149998A JP2016149998A JP2015030704A JP2015030704A JP2016149998A JP 2016149998 A JP2016149998 A JP 2016149998A JP 2015030704 A JP2015030704 A JP 2015030704A JP 2015030704 A JP2015030704 A JP 2015030704A JP 2016149998 A JP2016149998 A JP 2016149998A
- Authority
- JP
- Japan
- Prior art keywords
- image
- condition
- identification
- unit
- microwell
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Apparatus Associated With Microorganisms And Enzymes (AREA)
- Image Analysis (AREA)
Abstract
【課題】撮像条件、照明条件などの条件が変動する場合であっても、画像中の検出対象を好適に特定することが可能な識別装置等の提供。【解決手段】識別装置は、顕微鏡からシャーレに収容されたマイクロウェルを観察して得られた撮像画像(顕微鏡画像)を取得しS101、取得した顕微鏡画像に対して鮮鋭化処理を施すS102。そして、焦点位置(条件)を変えながら撮像した位置決め部のサンプル画像から作成した条件データを用いて、顕微鏡画像の焦点位置(条件)を推定しS103、推定した焦点位置(条件)に係る条件データを用いて、顕微鏡画像の位置決め部を検出し、観察中のマイクロウェルのマイクロウェルを特定するS104識別方法。【選択図】図7An object of the present invention is to provide an identification device or the like that can suitably specify a detection target in an image even when conditions such as imaging conditions and illumination conditions fluctuate. An identification apparatus acquires a captured image (microscope image) obtained by observing a microwell accommodated in a petri dish from a microscope, and performs a sharpening process on the acquired microscope image (S102). Then, using the condition data created from the sample image of the positioning unit imaged while changing the focal position (condition), the focal position (condition) of the microscope image is estimated S103, the condition data relating to the estimated focal position (condition) The S104 identification method which detects the positioning part of a microscope image using this and identifies the microwell of the microwell under observation. [Selection] Figure 7
Description
本発明は、画像中の識別情報を特定する識別装置等に関するものである。 The present invention relates to an identification device for identifying identification information in an image.
従来から、撮像した画像に識別情報を付与することで、画像を識別情報とともに管理することが行われている。例えば、特許文献1には、培養容器内のドロップ領域(細胞の場所)を画像処理によって検出し、ドロップ領域に識別情報を付与し、培養容器の種類と細胞の識別情報を関連付けて管理する培養容器管理等装置等が開示されている。 2. Description of the Related Art Conventionally, images are managed together with identification information by adding identification information to a captured image. For example, Patent Document 1 discloses a culture in which a drop region (cell location) in a culture vessel is detected by image processing, identification information is given to the drop region, and the type of culture vessel and cell identification information are associated and managed. Devices such as container management are disclosed.
ところで、特許文献1の例では、ドロップ領域は、ディッシュの底面に培養液を滴下して成るため、ディッシュの底面に対して凸部を形成する。このように、検出対象が凸部(或いは凹部)で形成されるような場合、撮像条件、照明条件などの条件によって、検出対象の画像特性が大きく変動し、検出対象を正しく検出できない場合がある。 By the way, in the example of patent document 1, since a drop area | region is formed by dripping a culture solution on the bottom face of a dish, a convex part is formed with respect to the bottom face of a dish. As described above, when the detection target is formed of a convex portion (or a concave portion), the image characteristics of the detection target may fluctuate greatly depending on conditions such as imaging conditions and illumination conditions, and the detection target may not be detected correctly. .
本発明は、前述した問題点に鑑みてなされたもので、その目的とすることは、撮像条件、照明条件などの条件が変動する場合であっても、画像中の検出対象を好適に検出することが可能な識別装置等を提供することである。 The present invention has been made in view of the above-described problems, and an object of the present invention is to suitably detect a detection target in an image even when conditions such as imaging conditions and illumination conditions fluctuate. It is to provide an identification device or the like that can be used.
前述の課題を解決するために第1の発明は、検出対象となる凹凸を含む画像を取得する取得手段と、条件の異なる複数のサンプル画像を記憶する記憶手段と、
前記取得手段によって取得した対象画像と、前記記憶手段に記憶された前記サンプル画像とを用いて、前記対象画像の条件を推定する推定手段と、前記推定手段により推定された条件の前記サンプル画像と、前記対象画像を用いて、前記凹凸を検出する検出手段と、を具備することを特徴とする識別装置である。
In order to solve the above-described problem, the first invention includes an acquisition unit that acquires an image including unevenness to be detected, a storage unit that stores a plurality of sample images having different conditions,
Using the target image acquired by the acquisition unit and the sample image stored in the storage unit, an estimation unit for estimating the condition of the target image, and the sample image of the condition estimated by the estimation unit; And a detecting unit that detects the unevenness using the target image.
前記記憶手段は、前記サンプル画像の特徴量を記憶し、前記推定手段は、前記サンプル画像の特徴量と、前記対象画像の特徴量に基づいて、前記対象画像の条件を推定してもよい。 The storage unit may store a feature amount of the sample image, and the estimation unit may estimate the condition of the target image based on the feature amount of the sample image and the feature amount of the target image.
前記推定手段は、前記対象画像および前記サンプル画像から複数の特徴量を算出し、前記サンプル画像の前記複数の特徴量のうち前記対象画像の特徴量との距離が近い当該特徴量の比率を算出する算出手段と、前記比率が大きい前記サンプル画像を選定する選定手段と、を具備し、選定されたサンプル画像の条件を前記対象画像の条件としてもよい。 The estimation unit calculates a plurality of feature amounts from the target image and the sample image, and calculates a ratio of the feature amounts that are close to the feature amount of the target image among the plurality of feature amounts of the sample image. Calculating means for selecting, and selecting means for selecting the sample image having a large ratio, and the condition of the selected sample image may be set as the condition of the target image.
前記推定手段は、前記サンプル画像と前記対象画像を鮮鋭化した画像に基づいて、前記対象画像の条件を推定してもよい。 The estimation unit may estimate a condition of the target image based on an image obtained by sharpening the sample image and the target image.
前述の課題を解決するために第2の発明は、検出対象となる凹凸を含む画像を取得する取得ステップと、条件の異なる複数のサンプル画像を記憶する記憶ステップと、前記取得ステップによって取得した対象画像と、前記記憶ステップに記憶された前記サンプル画像とを用いて、前記対象画像の条件を推定する推定ステップと、前記推定ステップにより推定された条件の前記サンプル画像と、前記対象画像を用いて、前記凹凸を検出する検出ステップと、を含むことを特徴とする識別方法である。 In order to solve the above-mentioned problem, the second invention is an acquisition step for acquiring an image including irregularities to be detected, a storage step for storing a plurality of sample images under different conditions, and an object acquired by the acquisition step. Using the image and the sample image stored in the storage step, the estimation step for estimating the condition of the target image, the sample image of the condition estimated by the estimation step, and the target image And a detecting step for detecting the unevenness.
前述の課題を解決するために第3の発明は、コンピュータを、検出対象となる凹凸を含む画像を取得する取得手段と、条件の異なる複数のサンプル画像を記憶する記憶手段と、前記取得手段によって取得した対象画像と、前記記憶手段に記憶された前記サンプル画像とを用いて、前記対象画像の条件を推定する推定手段と、前記推定手段により推定された条件の前記サンプル画像と、前記対象画像を用いて、前記凹凸を検出する検出手段と、して機能させるためのプログラムである。 In order to solve the above-mentioned problem, the third invention is characterized in that the computer includes an acquisition unit that acquires an image including unevenness to be detected, a storage unit that stores a plurality of sample images under different conditions, and the acquisition unit. Using the acquired target image and the sample image stored in the storage unit, the estimation unit for estimating the condition of the target image, the sample image of the condition estimated by the estimation unit, and the target image Is a program for functioning as detection means for detecting the unevenness.
本発明によって、撮像条件、照明条件などの条件が変動する場合であっても、画像中の検出対象を好適に検出することが可能な識別装置等を提供することができる。 According to the present invention, it is possible to provide an identification device or the like that can suitably detect a detection target in an image even when conditions such as imaging conditions and illumination conditions vary.
以下、図面に基づいて、本発明の好適な実施形態について詳細に説明する。本発明は、後述する識別装置が、マイクロウェルの識別を自動で行う場合に好適であるが、これに限定されるわけではない。本発明は、前述の課題と同様の課題に適用すれば、同様の効果を生ずる。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The present invention is suitable for the case where the identification device described later automatically identifies microwells, but is not limited thereto. The present invention produces the same effect when applied to the same problems as those described above.
<マイクロウェル識別システム200>
図1は、マイクロウェル識別システム200の構成例を示す図である。マイクロウェル識別システム200は、識別装置100と、顕微鏡101と、複数のマイクロウェル11(11a〜11h)が配置された容器であるシャーレ1と、によって構成される。マイクロウェル識別システム200は、シャーレ1が保持するマイクロウェル11を顕微鏡101によって観察し、その撮像画像から観察中のマイクロウェル11の識別情報を自動で特定する。
<Microwell identification system 200>
FIG. 1 is a diagram illustrating a configuration example of a microwell identification system 200. The microwell identification system 200 includes an identification device 100, a microscope 101, and a petri dish 1 that is a container in which a plurality of microwells 11 (11a to 11h) are arranged. The microwell identification system 200 observes the microwell 11 held by the petri dish 1 with the microscope 101, and automatically identifies the identification information of the microwell 11 being observed from the captured image.
(顕微鏡101)
顕微鏡101は、ステージ102に載置されたシャーレ1内のマイクロウェル11とその近傍を観察するために用いられる。顕微鏡101は、レンズにより拡大したステージ102上の対象物の画像を顕微鏡画像Imとして識別装置100に送信する。識別装置100は、顕微鏡画像Imを顕微鏡101から取得し、後述するマイクロウェル識別処理を実行する。なお、本発明において「対象画像」とは、顕微鏡画像Imを意味する。
(Microscope 101)
The microscope 101 is used for observing the microwell 11 in the petri dish 1 placed on the stage 102 and the vicinity thereof. The microscope 101 transmits an image of the object on the stage 102 magnified by the lens to the identification device 100 as a microscope image Im. The identification device 100 acquires the microscope image Im from the microscope 101 and executes a microwell identification process described later. In the present invention, the “target image” means the microscope image Im.
(マイクロウェル11)
図2は、マイクロウェル11の配列について説明する図である。図示されるように、シャーレ1には細胞(本実施形態では受精卵)サイズと同程度の複数のマイクロウェル11(11a〜11h)が配置された細胞収容部2が設けられる。本実施形態では、細胞収容部2に8個のマイクロウェル11が配置される例を示す。各マイクロウェル11は培養液で満たされ、個別管理が必要な受精卵が収容される。
(Microwell 11)
FIG. 2 is a diagram for explaining the arrangement of the microwells 11. As shown in the figure, the petri dish 1 is provided with a cell storage portion 2 in which a plurality of microwells 11 (11a to 11h) having the same size as a cell (fertilized egg in the present embodiment) are arranged. In the present embodiment, an example in which eight microwells 11 are arranged in the cell storage unit 2 is shown. Each microwell 11 is filled with a culture solution and contains a fertilized egg that requires individual management.
図3は、マイクロウェル11及びその近傍を拡大した図であり、図3(a)は平面図、図3(b)は図3(a)のA−Aによる断面図である。各マイクロウェル11の近傍には、マイクロウェル11を識別するための識別部12と、顕微鏡画像Im上で識別部12を検出する際の基準となる位置を示す位置決め部13とが設けられる。 3A and 3B are enlarged views of the microwell 11 and the vicinity thereof. FIG. 3A is a plan view, and FIG. 3B is a cross-sectional view taken along line AA in FIG. In the vicinity of each microwell 11, an identification unit 12 for identifying the microwell 11 and a positioning unit 13 indicating a position serving as a reference when the identification unit 12 is detected on the microscope image Im are provided.
(識別部12)
識別部12は同一の円形状のドット15で構成され、各マイクロウェル11の左側の上段位置と中段位置と下段位置に最大3個まで設けられる。図3(a)には、3個のドット15を上段位置と中段位置と下段位置に配置する識別部12のパターンの一例を示す。対応するマイクロウェル11に対する識別部12の上段位置と中段位置と下段位置の位置関係は、シャーレ1内の全てのマイクロウェル11で等しい。
(Identification part 12)
The identification unit 12 is composed of the same circular dots 15, and a maximum of three are provided at the upper, middle and lower positions on the left side of each microwell 11. FIG. 3A shows an example of a pattern of the identification unit 12 that arranges three dots 15 at the upper position, the middle position, and the lower position. The positional relationship among the upper stage position, the middle stage position, and the lower stage position of the identification unit 12 with respect to the corresponding microwell 11 is the same for all the microwells 11 in the petri dish 1.
各マイクロウェル11には固有の識別情報(以下、「マイクロウェルID」とも表記)が割り当てられ、各マイクロウェル11は対応する識別部12内のドット15の個数及び配置の組み合わせ(パターン)に基づいて識別可能となっている。識別情報については、図4にて後述する。 Each microwell 11 is assigned unique identification information (hereinafter also referred to as “microwell ID”), and each microwell 11 is based on the number and arrangement combination (pattern) of the dots 15 in the corresponding identification section 12. Can be identified. The identification information will be described later with reference to FIG.
(位置決め部13)
位置決め部13の形状は、シャーレ1内の全てのマイクロウェル11で同一の楕円形状である。対応するマイクロウェル11に対する位置決め部13の位置関係、及び、位置決め部13に対する識別部12の位置関係は、シャーレ1内の全てのマイクロウェル11で同一である。図3(a)には、マイクロウェル11の左側の位置に位置決め部13が設けられる例を示す。位置決め部13は、識別装置100が識別部12と区別できるように、識別部12のドット15とは異なる形状(楕円形状)を有する。
(Positioning part 13)
The shape of the positioning part 13 is the same elliptical shape in all the microwells 11 in the petri dish 1. The positional relationship of the positioning unit 13 with respect to the corresponding microwell 11 and the positional relationship of the identification unit 12 with respect to the positioning unit 13 are the same for all the microwells 11 in the petri dish 1. FIG. 3A shows an example in which the positioning portion 13 is provided at the left position of the microwell 11. The positioning unit 13 has a shape (elliptical shape) different from the dot 15 of the identification unit 12 so that the identification device 100 can distinguish from the identification unit 12.
図3(b)には、図3(a)の断面図を示す。図3(b)に示されるように、マイクロウェル11は、受精卵14を個別に収容するために好適な凹部を形成する。識別部12の各ドット15は、図示されるように円形の凸部を形成する。図示しないが、位置決め部13も同様に楕円形の凸部を形成する。マイクロウェル11、識別部12、及び位置決め部13の外郭は、シャーレ1の底面に対して傾斜を有するため、顕微鏡101によって観察する際に光の屈折に起因して暗くなり、顕微鏡画像Im上でそれらを認識することが可能となる。なお、識別部12の各ドット15、位置決め部13は、上記とは異なり凹部を形成してもよい。 FIG. 3B shows a cross-sectional view of FIG. As shown in FIG. 3 (b), the microwell 11 forms a recess suitable for accommodating the fertilized egg 14 individually. Each dot 15 of the identification part 12 forms a circular convex part as shown in the figure. Although not shown, the positioning portion 13 similarly forms an elliptical convex portion. Since the outline of the microwell 11, the identification unit 12, and the positioning unit 13 has an inclination with respect to the bottom surface of the petri dish 1, it becomes dark due to light refraction when observed with the microscope 101, and on the microscope image Im. It becomes possible to recognize them. In addition, each dot 15 of the identification part 12 and the positioning part 13 may form a recessed part unlike the above.
図4は、マイクロウェル11の識別情報について説明する図である。図4のA〜Hは、図2のマイクロウェル11a〜11hに対応し、各マイクロウェル11の識別部12のドット15を黒丸印で表す。即ち、識別部12の上段位置、中段位置、下段位置に配置されるドット15のパターンに対応する。 FIG. 4 is a diagram for explaining the identification information of the microwell 11. 4A to 4H correspond to the microwells 11a to 11h in FIG. 2, and the dots 15 of the identification part 12 of each microwell 11 are represented by black circles. That is, it corresponds to the pattern of dots 15 arranged at the upper position, the middle position, and the lower position of the identification unit 12.
図に示すように、識別部12は対応するマイクロウェル11ごとに異なる個数及び配置のドット15の組み合わせによって構成される。従って、識別装置100は、顕微鏡画像Imから識別部12内のドット15の個数及び配置を検出することで、対応するマイクロウェル11の識別情報(マイクロウェルID)を特定することが可能となる。 As shown in the figure, the identification unit 12 is configured by a combination of a different number and arrangement of dots 15 for each corresponding microwell 11. Therefore, the identification device 100 can identify the identification information (microwell ID) of the corresponding microwell 11 by detecting the number and arrangement of the dots 15 in the identification unit 12 from the microscope image Im.
(識別装置100)
図5は、識別装置100のハードウエアの構成例を示すブロック図である。識別装置100は、図5に示すように、例えば、制御部21、記憶部22、メディア入出力部23、通信制御部24、入力部25、表示部26、周辺機器I/F部27等が、バス28を介して接続されて構成される。
(Identification device 100)
FIG. 5 is a block diagram illustrating a hardware configuration example of the identification device 100. As shown in FIG. 5, the identification device 100 includes, for example, a control unit 21, a storage unit 22, a media input / output unit 23, a communication control unit 24, an input unit 25, a display unit 26, a peripheral device I / F unit 27, and the like. Are connected via a bus 28.
制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。CPUは、記憶部22、ROM、記憶媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス28を介して接続された各装置を駆動制御し、識別装置100が行う後述する処理を実現する。ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、揮発性メモリであり、ロードしたプログラムや、データ等を一時的に保持すると共に、制御部21が各処理を行うために使用するワークエリアを備える。 The control unit 21 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU calls a program stored in the storage unit 22, ROM, storage medium, or the like to a work memory area on the RAM and executes it, drives and controls each device connected via the bus 28, and is performed by the identification device 100. The processing described later is realized. The ROM is a non-volatile memory and permanently holds a computer boot program, a program such as BIOS, data, and the like. The RAM is a volatile memory, and temporarily stores a loaded program, data, and the like, and includes a work area used by the control unit 21 to perform each process.
記憶部22は、HDD(Hard Disk Drive)等であり、制御部21が実行するプログラムや、プログラム実行に必要なデータ、OS(Operating System)等が格納されている。これらのプログラムコードは、制御部21により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。記憶部22は、マイクロウェルIDに対応する識別部12内のドット15の組み合わせパターン(図4参照)に関する情報等が予め記憶される。 The storage unit 22 is an HDD (Hard Disk Drive) or the like, and stores a program executed by the control unit 21, data necessary for program execution, an OS (Operating System), and the like. These program codes are read by the control unit 21 as necessary, transferred to the RAM, and read and executed by the CPU. The storage unit 22 stores in advance information relating to the combination pattern (see FIG. 4) of the dots 15 in the identification unit 12 corresponding to the microwell ID.
メディア入出力部23は、例えば、CDドライブ、DVDドライブ、MOドライブ、フロッピー(登録商標)ディスクドライブ、等のメディア入出力装置であり、データの入出力を行う。
通信制御部24は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インターフェースであり、ネットワークを介して、他の装置間との通信制御を行う。
The media input / output unit 23 is a media input / output device such as a CD drive, a DVD drive, an MO drive, and a floppy (registered trademark) disk drive, and performs data input / output.
The communication control unit 24 includes a communication control device, a communication port, and the like, and is a communication interface that mediates communication between the computer and the network, and controls communication with other devices via the network.
入力部25は、各種パラメータの設定値の入力、ユーザからの指示の入力等を行い、例えば、キーボード、マウスなどのポインティングデバイス、テンキーなどの入力装置を有する。入力されたデータを制御部21へ出力する。 The input unit 25 inputs setting values of various parameters, inputs instructions from the user, and has an input device such as a keyboard, a pointing device such as a mouse, and a numeric keypad. The input data is output to the control unit 21.
表示部26は、例えば、CRTモニタ、液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路(ビデオアダプタ等)で構成され、制御部21の制御により入力された表示情報、取得した顕微鏡画像Im等をディスプレイ装置上に表示させる。 The display unit 26 includes, for example, a display device such as a CRT monitor or a liquid crystal panel, and a logic circuit (video adapter or the like) for executing display processing in cooperation with the display device, and is input by the control of the control unit 21. Display information, the acquired microscope image Im, and the like are displayed on the display device.
周辺機器I/F部(インターフェース)27は、コンピュータに顕微鏡101を接続させるためのポートであり、周辺機器I/F部27を介してコンピュータは顕微鏡101から顕微鏡画像Imを取得する。周辺機器I/F部17は、USBやIEEE1394やRS−232C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は、有線、無線を問わない。
バス28は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The peripheral device I / F unit (interface) 27 is a port for connecting the microscope 101 to a computer, and the computer acquires the microscope image Im from the microscope 101 via the peripheral device I / F unit 27. The peripheral device I / F unit 17 is configured by USB, IEEE 1394, RS-232C, or the like, and usually includes a plurality of peripheral devices I / F. The connection form with the peripheral device may be wired or wireless.
The bus 28 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.
[条件データ30]
識別装置100の記憶部22には、予め、条件の異なる複数の条件データ30が保持されている。ここで、「条件」とは、顕微鏡101の撮像画像の画像特性に影響を与える、撮像条件、照明条件、顕微鏡設定条件などのことをいう。記憶部22には、条件の異なる複数の条件データ30が、条件の情報と紐づいて保持される。
[Condition data 30]
A plurality of condition data 30 having different conditions is stored in advance in the storage unit 22 of the identification device 100. Here, the “condition” refers to an imaging condition, an illumination condition, a microscope setting condition, or the like that affects the image characteristics of the captured image of the microscope 101. The storage unit 22 holds a plurality of condition data 30 having different conditions in association with condition information.
本発明の要旨は、条件の異なる複数の条件データ30を用いて、顕微鏡画像Imの条件を推定し、推定した条件に係る条件データ30を用いて、顕微鏡画像Imの位置決め部13、識別部12を高精度に検出することである。これにより、例えば、顕微鏡画像Imを撮像条件、照明条件、顕微鏡設定条件などの条件が観察の度に変動するような場合であっても、好適に位置決め部13、識別部12を検出することができる。 The gist of the present invention is to estimate the condition of the microscope image Im using a plurality of condition data 30 having different conditions, and to use the condition data 30 related to the estimated condition to determine the positioning unit 13 and the identification unit 12 of the microscope image Im. Is detected with high accuracy. Thereby, for example, even when the conditions such as the imaging conditions, illumination conditions, and microscope setting conditions fluctuate every time the microscope image Im is observed, the positioning unit 13 and the identification unit 12 can be suitably detected. it can.
特に、本実施形態では、「条件」として、顕微鏡101の「焦点位置」を例に説明をする。焦点位置の異なる条件データ30を保持する趣旨は次の通りである。通常、顕微鏡101で受精卵14を観察する場合、顕微鏡101の焦点位置は、マイクロウェル11に収容される受精卵14の赤道付近に合わせる。しかしながら、マイクロウェル11は、シャーレ1内の細胞収容部2の水平面に対して、凹部を形成する一方で、位置決め部13と識別部12は凸部を形成するため、マイクロウェル11に収容される受精卵14に焦点位置を合わせて観察すると、位置決め部13と識別部12に焦点位置が合わなくなる。また、受精卵14は成長によりサイズが変化するため、顕微鏡101の焦点位置は観察の都度、変動する。 In particular, in the present embodiment, the “focus position” of the microscope 101 will be described as an example of the “condition”. The purpose of holding the condition data 30 with different focal positions is as follows. Usually, when the fertilized egg 14 is observed with the microscope 101, the focal position of the microscope 101 is adjusted to the vicinity of the equator of the fertilized egg 14 accommodated in the microwell 11. However, the microwell 11 forms a recess with respect to the horizontal plane of the cell storage unit 2 in the petri dish 1, while the positioning unit 13 and the identification unit 12 form a projection, and thus are accommodated in the microwell 11. When the fertilized egg 14 is observed with the focal position aligned, the focal position is not aligned with the positioning unit 13 and the identification unit 12. In addition, since the size of the fertilized egg 14 changes as a result of growth, the focal position of the microscope 101 varies with each observation.
このため、位置決め部13の輪郭がぼやけ、また、そのぼやけ度合も一定ではないため、位置決め部13の検出精度が低下し、位置決め部13に基づいて検出する識別部12の検出精度も低下するという問題が起こる。ここで、焦点位置がマイクロウェル11の凹部の比較的浅い位置であれば、位置決め部13の輪郭は鮮明であり、例えばRobinson Compass Masksを使用したエッジ検出等により、位置決め部13を検出することは可能である。しかしながら、焦点位置がマイクロウェル11の凹部の深い位置になると、細胞収容部2の水平面から焦点位置が遠ざかるため、位置決め部13の輪郭がぼやけ、エッジ検出等だけでは、位置決め部13を精度良く検出することは困難となる。 For this reason, the contour of the positioning unit 13 is blurred and the degree of blur is not constant, so that the detection accuracy of the positioning unit 13 is reduced, and the detection accuracy of the identification unit 12 that is detected based on the positioning unit 13 is also reduced. Problems arise. Here, if the focus position is a relatively shallow position of the concave portion of the microwell 11, the outline of the positioning unit 13 is clear, and for example, the positioning unit 13 can be detected by edge detection using Robinson Compass Masks. Is possible. However, when the focal position becomes deep in the concave portion of the microwell 11, the focal position moves away from the horizontal plane of the cell storage unit 2, so that the outline of the positioning unit 13 is blurred, and the positioning unit 13 can be detected with high accuracy only by edge detection or the like. It will be difficult to do.
本実施形態では、どのような焦点位置(条件)であっても良好な検出結果を得るために、異なる焦点位置毎のデータ、すなわち、焦点位置を変えながら位置決め部13、識別部12を撮影したサンプル画像から作成した条件データ30を用意しておき、この条件データ30を用いて、顕微鏡画像Imの焦点位置(条件)を推定する。そして、推定した焦点位置(条件)に係る条件データ30を用いて、顕微鏡画像Imから位置決め部13及び識別部12を高精度に検出する。これにより、顕微鏡画像Imの焦点位置の影響による誤検知を防ぎ、マイクロウェル11の識別情報を良好に特定することが可能となる。 In this embodiment, in order to obtain a good detection result at any focal position (condition), the data for each different focal position, that is, the positioning unit 13 and the identification unit 12 are photographed while changing the focal position. Condition data 30 created from the sample image is prepared, and the focal position (condition) of the microscope image Im is estimated using the condition data 30. And the positioning part 13 and the identification part 12 are detected with high precision from the microscope image Im using the condition data 30 concerning the estimated focal position (condition). Thereby, erroneous detection due to the influence of the focal position of the microscope image Im can be prevented, and the identification information of the microwell 11 can be well specified.
ここで、本実施形態の条件データ30には、焦点位置をN段階(P1、P2、・・・、PN)に変えて撮像した各サンプル画像の特徴量(特徴ベクトル)が含まれる。また、条件データ30として、条件データ30Aと条件データ30Bを用意する。条件データ30Aは、検出対象である「位置決め部13」を、顕微鏡101の焦点位置をN段階に変えて撮像した各サンプル画像の特徴量を含んでおり、焦点位置(P1、P2、・・・、PN)の情報と紐づいて記憶部22に格納されている。また、条件データ30Bは、検出対象である「識別部12のドット15」を、顕微鏡101の焦点位置をN段階に変えて撮像した各サンプル画像の特徴量を含んでおり、焦点位置(P1、P2、・・・、PN)と紐づいて記憶部22に格納されている。 Here, the condition data 30 of the present embodiment includes the feature amount (feature vector) of each sample image picked up by changing the focal position to N stages (P 1 , P 2 ,..., P N ). . In addition, as the condition data 30, condition data 30A and condition data 30B are prepared. The condition data 30A includes the feature amount of each sample image obtained by imaging the “positioning unit 13” to be detected with the focus position of the microscope 101 changed to N stages, and the focus position (P 1 , P 2 ,. .., P N ) and stored in the storage unit 22. Further, the condition data 30B includes the feature amount of each sample image obtained by imaging the “dot 15 of the identification unit 12” to be detected by changing the focal position of the microscope 101 to N stages, and the focal position (P 1 , P 2 ,..., P N ) and stored in the storage unit 22.
図6は、本実施形態に係る条件データ30を模式的に表す図である。条件データ30(条件データ30A、条件データ30B)は、1個又は複数個の特徴量(特徴ベクトル)を含む。例えば、図6の場合、条件データ30−1は特徴量31a、31b、31cの3つの特徴量(特徴ベクトル)を含み、条件データ30−2は特徴量32a、32bの2つの特徴量(特徴ベクトル)を含む。焦点位置の違いによって各サンプル画像の画像特性が異なるため、各条件デ−タ30で特徴量の全体個数が異なる。 FIG. 6 is a diagram schematically illustrating the condition data 30 according to the present embodiment. The condition data 30 (condition data 30A, condition data 30B) includes one or a plurality of feature amounts (feature vectors). For example, in the case of FIG. 6, the condition data 30-1 includes three feature amounts (feature vectors) of feature amounts 31a, 31b, and 31c, and the condition data 30-2 includes two feature amounts (features) of feature amounts 32a and 32b. Vector). Since the image characteristics of each sample image are different depending on the focal position, the total number of feature values differs for each condition data 30.
なお、サンプル画像(ピクセルデータ)から抽出する特徴量(特徴ベクトル)について特に限定はしないが、本実施形態では、SURF特徴量を用いることにする。SURF特徴量は、画像中の濃淡の変化が大きい特徴点を検出し、その特徴点周りの画素値を特徴ベクトルで表したものである。SURF特徴量を用いることで、画像中の位置決め部13、識別部12の輪郭を強調させ、輪郭部分を画像中の特徴点として精度よく抽出することができる。 Note that the feature amount (feature vector) extracted from the sample image (pixel data) is not particularly limited, but in this embodiment, the SURF feature amount is used. The SURF feature amount is a feature point in which a change in shading in an image is detected and pixel values around the feature point are represented by a feature vector. By using the SURF feature value, the contours of the positioning unit 13 and the identification unit 12 in the image can be emphasized, and the contour part can be extracted as a feature point in the image with high accuracy.
また、本実施形態では、計算効率性の観点から、条件データ30の特徴量を予め作成し記憶部22に格納しておくが、マイクロウェル識別処理中に、その都度、サンプル画像から特徴量を算出するようにしてもかまわない。 Further, in this embodiment, from the viewpoint of calculation efficiency, the feature amount of the condition data 30 is created in advance and stored in the storage unit 22, but during the microwell identification process, the feature amount is obtained from the sample image each time. You may make it calculate.
<マイクロウェル識別処理>
次に、図7〜図13を参照して、識別装置100が実行するマイクロウェル識別処理について説明する。図7は、マイクロウェル識別処理の全体の流れを示すフローチャートである。
<Microwell identification process>
Next, microwell identification processing executed by the identification device 100 will be described with reference to FIGS. FIG. 7 is a flowchart showing the overall flow of the microwell identification process.
マイクロウェル識別処理を実行する前に、顕微鏡101のステージ102上にシャーレ1が載置され、マイクロウェル11内の受精卵14が顕微鏡101の観察対象となるようにシャーレ1の位置調整、顕微鏡101の照明調整、ピント調整等がされているものとする。 Prior to executing the microwell identification process, the petri dish 1 is placed on the stage 102 of the microscope 101, and the position of the petri dish 1 is adjusted so that the fertilized egg 14 in the microwell 11 becomes the observation target of the microscope 101. It is assumed that the illumination adjustment, focus adjustment, etc. are performed.
(顕微鏡画像を取得)
まず、識別装置100の制御部21は、顕微鏡101から顕微鏡画像Imを取得する(ステップS101)。
図9は、取得した顕微鏡画像Imの一例を示す図である。図9に示すように、顕微鏡画像Imには、マイクロウェル11と、対応する識別部12(図9に示す例では中段位置と下段位置にドットを配置するパターン、図4のCのパターン)、及び位置決め部13が存在する。
(Acquire microscope image)
First, the control unit 21 of the identification apparatus 100 acquires a microscope image Im from the microscope 101 (step S101).
FIG. 9 is a diagram illustrating an example of the acquired microscope image Im. As shown in FIG. 9, the microscopic image Im includes a microwell 11 and a corresponding identification unit 12 (in the example shown in FIG. 9, a pattern in which dots are arranged at the middle position and the lower position, the pattern C in FIG. 4), And the positioning part 13 exists.
(鮮鋭化)
次に、識別装置100の制御部21は、顕微鏡画像Imの可視性を高めることを目的に、顕微鏡画像Imに対して鮮鋭化処理を施す(ステップS102)。画像を鮮鋭化する手法は、特に限定しないが、本実施形態ではCLAHE(Contrast Limited Adaptive Histogram Equalization)を用いる。CLAHEは、画像中の細部の可視性(視認性)を高めることができる。受精卵14の成長フェーズに応じてマイクロウェル11内の画像特性が刻々と変化するため、画像全体で大域的なコントラスト強調を行うと、検出対象である位置決め部13、識別部12の可視性を効果的に高めることができない場合がある。この点、CLAHEによれば、任意の分割領域ごとにコントラストの強調を行うことができるため、検出対象である位置決め部13、識別部12の可視性を確実に高めることが可能である。
(Sharpening)
Next, the control unit 21 of the identification device 100 performs a sharpening process on the microscope image Im for the purpose of increasing the visibility of the microscope image Im (step S102). A method for sharpening an image is not particularly limited, but in this embodiment, CLAHE (Contrast Limited Adaptive Histoequalization) is used. CLAHE can improve the visibility (visibility) of details in an image. Since the image characteristics in the microwell 11 change every moment according to the growth phase of the fertilized egg 14, when global contrast enhancement is performed on the entire image, the visibility of the positioning unit 13 and the identification unit 12 that are detection targets is increased. It may not be able to increase effectively. In this regard, according to CLAHE, since contrast enhancement can be performed for each arbitrary divided region, the visibility of the positioning unit 13 and the identification unit 12 that are detection targets can be reliably increased.
なお、ステップS102の鮮鋭化処理は、識別部12、位置決め部13の検出精度を向上させるための補助的な処理であって、必ずしも本発明における必須の処理ではない。一方、顕微鏡画像Imに対してステップS102の鮮鋭化処理を行う場合には、条件データ30の特徴量は、サンプル画像に同様の鮮鋭化処理を施して作成しておく必要がある点に留意する。 In addition, the sharpening process of step S102 is an auxiliary process for improving the detection accuracy of the identification unit 12 and the positioning unit 13, and is not necessarily an essential process in the present invention. On the other hand, when the sharpening process in step S102 is performed on the microscope image Im, it should be noted that the feature amount of the condition data 30 needs to be created by performing the same sharpening process on the sample image. .
図10は、図9に示す顕微鏡画像Imに対してステップS102の鮮鋭化処理を施した画像データの一例を示す図である。図9に示すように、鮮鋭化処理により顕微鏡画像Im上の位置決め部13、識別部12の輪郭部が強調されることが確認できる。 FIG. 10 is a diagram illustrating an example of image data obtained by performing the sharpening process in step S102 on the microscope image Im illustrated in FIG. As shown in FIG. 9, it can be confirmed that the contour portions of the positioning portion 13 and the identification portion 12 on the microscope image Im are emphasized by the sharpening process.
(条件推定)
次に、図8のフローチャートを参照しながら、条件データ30を用いて、顕微鏡画像Imの焦点位置(条件)を推定する処理を説明する。本実施形態では、位置決め部13に対応する条件データ30Aを用いて、顕微鏡画像Imの焦点位置(条件)を推定することにする。
(Condition estimation)
Next, a process for estimating the focal position (condition) of the microscope image Im using the condition data 30 will be described with reference to the flowchart of FIG. In the present embodiment, the focal position (condition) of the microscope image Im is estimated using the condition data 30A corresponding to the positioning unit 13.
まず、識別装置100の制御部21は、条件データ30Aの特徴量と、顕微鏡画像Imの特徴量との距離を算出する(ステップS201)。 First, the control unit 21 of the identification device 100 calculates the distance between the feature amount of the condition data 30A and the feature amount of the microscope image Im (step S201).
特徴量間の距離とは、例えば、各特徴量間のユークリッド距離である。すなわち、n個の要素を持つ特徴量X=(x1、x2、・・・、xn)、n個の要素を持つ特徴量Y=(y1、y2、・・・、yn)があれば、特徴量間の距離は次のように算出できる。 The distance between feature amounts is, for example, a Euclidean distance between feature amounts. That is, if there is a feature quantity X = (x1, x2,..., Xn) having n elements and a feature quantity Y = (y1, y2,..., Yn) having n elements, The distance between the quantities can be calculated as follows.
制御部21は、各条件データ30Aに含まれる特徴量と、顕微鏡画像Imから算出した特徴量との全ての組み合わせについて特徴量間の距離を算出する。 The control unit 21 calculates the distance between the feature amounts for all combinations of the feature amounts included in each condition data 30A and the feature amounts calculated from the microscope image Im.
次に、識別装置100の制御部21は、算出された特徴量間の距離が近距離であるものを選択する(ステップS202)。すなわち、条件データ30Aの特徴量と、顕微鏡画像Imの特徴量が類似するものを選択する。例えば、制御部21は、特徴量間の距離が予め設定された閾値以下である特徴量を、近距離の特徴量として選択する。 Next, the control unit 21 of the identification device 100 selects the calculated distance between the feature amounts that is a short distance (step S202). That is, a feature whose feature data 30A is similar to that of the microscope image Im is selected. For example, the control unit 21 selects a feature quantity whose distance between feature quantities is equal to or less than a preset threshold value as a short-distance feature quantity.
図11は、選択された近距離の特徴量を表す模式図である。図11では、条件データ30A−1に含まれる特徴量のうち、顕微鏡画像Imの特徴量と近距離であるものの関係を実線で示し、条件データ30A−2に含まれる特徴量のうち、顕微鏡画像Imの特徴量と近距離であるものの関係を破線で示している。図11の例では、条件データ30A−1においては、特徴量31a’、特徴量31b’、特徴量31c’が近距離の特徴量として選択されている。また、条件データ30A−2においては、特徴量32b’が近距離の特徴量として選択されている。 FIG. 11 is a schematic diagram showing selected short-distance feature quantities. In FIG. 11, among the feature amounts included in the condition data 30A-1, the relationship between the feature amount of the microscope image Im and a short distance is indicated by a solid line, and among the feature amounts included in the condition data 30A-2, the microscope image The relationship between the Im feature quantity and the short distance is indicated by a broken line. In the example of FIG. 11, in the condition data 30A-1, the feature quantity 31a ', the feature quantity 31b', and the feature quantity 31c 'are selected as short-distance feature quantities. Further, in the condition data 30A-2, the feature amount 32b 'is selected as a short-distance feature amount.
そして、識別装置100の制御部21は、各条件データ30A(30A−1〜30A−N)に含まれる特徴量の全個数に対する、ステップS202にて選択された近距離の特徴量の個数の比率を算出する(ステップS203)。この比率は、顕微鏡画像Imの画像中に、各条件データ30A(30A−1〜30A−N)の特徴量と類似する特徴量がどの程度含まれているかを示すものである。この比率が大きい条件データ30Aほど、顕微鏡画像Imの焦点位置(条件)と近いデータと判断できる。以降、ステップS203において算出される比率を「条件一致率」とも呼ぶ。 The control unit 21 of the identification apparatus 100 then compares the number of feature quantities at a short distance selected in step S202 with respect to the total number of feature quantities included in each condition data 30A (30A-1 to 30A-N). Is calculated (step S203). This ratio indicates how much feature quantity similar to the feature quantity of each condition data 30A (30A-1 to 30A-N) is included in the image of the microscope image Im. It can be determined that the condition data 30A having a larger ratio is closer to the focal position (condition) of the microscope image Im. Hereinafter, the ratio calculated in step S203 is also referred to as “condition matching rate”.
図11の例では、条件データ30A−1は、3つの特徴量(31a’〜31c ’)のうち全ての特徴量が、顕微鏡画像Imの特徴量のいずれかと近距離であるため、顕微鏡画像Imにおける条件データ30A−1の条件一致率は「1」である。一方、条件データ30A−2は、2つの特徴量(32a’、32b’)のうち、特徴量32b’のみが顕微鏡画像Imの特徴量と近距離であるため、顕微鏡画像Imにおける条件データ30A−2の条件一致率は「0.5」である。すなわち、図11の場合、条件データ30A−2より条件データ30A−1の方が、より顕微鏡画像Imの焦点位置(条件)に近いデータと判断できる。 In the example of FIG. 11, the condition data 30A-1 includes the microscope image Im because all the feature values of the three feature values (31a ′ to 31c ′) are close to one of the feature values of the microscope image Im. The condition coincidence rate of the condition data 30A-1 is “1”. On the other hand, the condition data 30A-2 is the condition data 30A- in the microscope image Im, because only the feature quantity 32b ′ of the two feature quantities (32a ′, 32b ′) is close to the feature quantity of the microscope image Im. The condition matching rate of 2 is “0.5”. That is, in the case of FIG. 11, it can be determined that the condition data 30A-1 is closer to the focal position (condition) of the microscope image Im than the condition data 30A-2.
識別装置100の制御部21は、全ての条件データ30A(図6の条件データ30A−1〜30A−N)に対して、ステップS203の比率(条件一致率)が算出されたか否かを判断し(ステップS204)、算出済みでない場合には(ステップS204のNo)、ステップS201に戻る。 The control unit 21 of the identification apparatus 100 determines whether or not the ratio (condition matching rate) in step S203 has been calculated for all the condition data 30A (condition data 30A-1 to 30A-N in FIG. 6). (Step S204) If not calculated (No in Step S204), the process returns to Step S201.
全ての条件データ30Aにおいて比率(条件一致率)が算出済みである場合には(ステップS204のYes)、識別装置100の制御部21は、条件データ30A(30A−1〜30A−N)の中から比率(条件一致率)が最も高い条件データ30Aを選定し、当該条件データ30Aに紐づく焦点位置(P1、P2、・・・、PNのいずれか)を顕微鏡画像Imの焦点位置(条件)として決定する(ステップS205)。以降、ステップS205において、制御部21は、条件一致率が最も高い条件データ30Aとして、条件データ30A−nを選定し、条件データ30A−nに紐づく焦点位置Pnを決定したものとして説明を行う。 When the ratio (condition matching rate) has been calculated in all the condition data 30A (Yes in step S204), the control unit 21 of the identification device 100 includes the condition data 30A (30A-1 to 30A-N). Condition data 30A having the highest ratio (condition matching rate) is selected, and the focal position (any one of P 1 , P 2 ,..., P N ) associated with the condition data 30A is selected as the focal position of the microscope image Im. (Condition) is determined (step S205). In the following description, in step S205, the control unit 21 selects the condition data 30A-n as the condition data 30A having the highest condition matching rate, and determines the focal position Pn associated with the condition data 30A-n. .
なお、本実施形態では、上記したように、比率(条件一致率)が最も大きい条件データ30Aを、顕微鏡画像Imの焦点位置(条件)に最も近いデータとして選定している。ところで、単純に、近距離の特徴量の個数が最も多い条件データ30Aを選定する方法も考えられる。しかしながら、前述したように、焦点位置の違いによって各サンプル画像の画像特性が異なるため、各条件データ30A間で特徴量の全体個数が異なる。このため、上記方法を採用した場合、顕微鏡画像Imの焦点位置(条件)に近い条件データ30Aが必ずしも選定されるとは限らず、特徴量の全体個数が相対的に多い条件データ30Aを選定してしまう場合が起こりえる。この点、本実施形態では、前述したように、比率で評価することによって、条件データ30の特徴量の全体個数に影響されることなく、焦点位置(条件)の近いデータが確実に選定されるようにしている。 In the present embodiment, as described above, the condition data 30A having the largest ratio (condition matching rate) is selected as data closest to the focal position (condition) of the microscope image Im. By the way, a method of simply selecting the condition data 30A having the largest number of short-distance feature amounts is also conceivable. However, as described above, since the image characteristics of each sample image are different depending on the focal position, the total number of feature amounts differs between the condition data 30A. Therefore, when the above method is adopted, the condition data 30A close to the focal position (condition) of the microscope image Im is not necessarily selected, and the condition data 30A having a relatively large total number of feature values is selected. It may happen. In this regard, in the present embodiment, as described above, by evaluating with the ratio, data close to the focal position (condition) is surely selected without being influenced by the total number of feature values of the condition data 30. I am doing so.
(マイクロウェルIDを特定)
図7のフローチャートの説明に戻る。ステップS104において、識別装置100の制御部21は、マイクロウェルIDを特定する。具体的には、制御部21は、まず、ステップS205において推定された焦点位置(条件)に係る条件データ30A(以下、「条件一致データ」とも呼ぶ)を用いて、顕微鏡画像Imから位置決め部13を検出する。
(Specify microwell ID)
Returning to the flowchart of FIG. In step S104, the control unit 21 of the identification device 100 identifies the microwell ID. Specifically, the control unit 21 first uses the condition data 30A (hereinafter also referred to as “condition matching data”) related to the focal position (condition) estimated in step S205 to determine the positioning unit 13 from the microscope image Im. Is detected.
例えば、識別装置100の制御部21は、条件一致データの特徴量と顕微鏡画像Imの特徴量の全ての組み合わせについて特徴量間の距離を算出し、近距離の特徴量に係る特徴点の座標を、顕微鏡画像Im上にプロットする。続いて、制御部21は、プロットされた特徴点が多く集まり、且つ、プロットされた特徴点同士の位置関係と、条件一致データの特徴点同士の位置関係が類似する部分を位置決め部13として検出する。 For example, the control unit 21 of the identification apparatus 100 calculates the distance between the feature amounts for all combinations of the feature amount of the condition matching data and the feature amount of the microscope image Im, and calculates the coordinates of the feature points related to the feature amount in the short distance. Plot on the microscope image Im. Subsequently, the control unit 21 detects, as the positioning unit 13, a portion in which many plotted feature points are collected and the positional relationship between the plotted feature points and the positional relationship between the feature points of the condition matching data are similar. To do.
図12は、位置決め部13が検出された画像データの一例を示す図である。図12に示すように、画像上に表示される白色のドットが、顕微興画像Imにおける条件一致データとの特徴量間の距離が近距離である特徴点の座標を示し、画像上に表示される矩形枠が、位置決め部13として検出された部分を示す。 FIG. 12 is a diagram illustrating an example of image data from which the positioning unit 13 has been detected. As shown in FIG. 12, the white dots displayed on the image indicate the coordinates of the feature points whose distance between the feature amounts with the condition matching data in the microscopic image Im is a short distance, and are displayed on the image. A rectangular frame indicating a portion detected as the positioning unit 13.
次に、識別装置100の制御部21は、位置決め部13を検出すると、位置決め部13の存在する位置及び範囲に基づいて、顕微鏡画像Im上で識別部12が表示される可能性がある範囲(以下、「識別部存在範囲」と呼ぶ)を定める。この識別部存在範囲の位置決め部13に対する位置関係は、予め記憶部22に記憶されているものとする。識別部存在範囲を定めることによって、識別部12の検出範囲を絞りこむことができる。 Next, when the control unit 21 of the identification device 100 detects the positioning unit 13, a range (in which the identification unit 12 may be displayed on the microscope image Im based on the position and range where the positioning unit 13 exists ( Hereinafter, it is referred to as “identification part existence range”). It is assumed that the positional relationship of the identification unit existence range with respect to the positioning unit 13 is stored in the storage unit 22 in advance. By defining the identification unit existence range, the detection range of the identification unit 12 can be narrowed down.
そして、識別装置100の制御部21は、ステップS205において決定した焦点位置Pn(条件)と同じ焦点位置Pn(条件)の条件データ30B−nを参照して、条件データ30B−nの特徴量と、顕微鏡画像Imの識別部存在範囲の画像から抽出した特徴量と、の特徴量間の距離を算出し、近距離の特徴量に係る特徴点の座標を、顕微鏡画像Im上にプロットする。続いて、制御部21は、プロットされた特徴点が多く集まり、且つ、プロットされた特徴点同士の位置関係と、条件データ30B−nの特徴点同士の位置関係が類似する部分を識別部12のドット15として検出する。そして、制御部21は、検出されたドット15の検出個数と検出位置から、図4に示す識別部12のドット15のパターンを参照して、該当するマイクロウェルIDを特定する。 Then, the control unit 21 of the identification apparatus 100 refers to the condition data 30B-n of the same focal position Pn (condition) as the focal position Pn (condition) determined in step S205, and determines the feature amount of the condition data 30B-n. Then, the distance between the feature quantities extracted from the image of the identification portion existing range of the microscope image Im is calculated, and the coordinates of the feature points related to the feature quantities at a short distance are plotted on the microscope image Im. Subsequently, the control unit 21 collects a lot of plotted feature points, and identifies a portion in which the positional relationship between the plotted feature points and the positional relationship between the feature points in the condition data 30B-n are similar. This is detected as a dot 15. And the control part 21 specifies applicable microwell ID with reference to the pattern of the dot 15 of the identification part 12 shown in FIG. 4 from the detected number and the detection position of the detected dot 15. FIG.
以上のように、識別装置100は、顕微鏡101からシャーレ1に収容されたマイクロウェル11を観察して得られた撮像画像(顕微鏡画像Im)を取得し(ステップS101)、取得した顕微鏡画像Imに対して鮮鋭化処理を施す(ステップS102)。そして、焦点位置(条件)を変えながら撮像した位置決め部13のサンプル画像から作成した条件データ30Aを用いて、顕微鏡画像Imの焦点位置(条件)を推定し(ステップS103)、推定した焦点位置(条件)に係る条件データ30Aを用いて、顕微鏡画像Imの位置決め部13を検出する。さらに位置決め部13の検出結果に基づいて識別部12のドット15の個数及び配置を検出し、観察中のマイクロウェルのマイクロウェルIDを特定する(ステップS104)。 As described above, the identification apparatus 100 acquires a captured image (microscopic image Im) obtained by observing the microwell 11 housed in the petri dish 1 from the microscope 101 (step S101), and acquires the acquired microscopic image Im. A sharpening process is performed on the image (step S102). Then, the focal position (condition) of the microscope image Im is estimated using the condition data 30A created from the sample image of the positioning unit 13 captured while changing the focal position (condition) (step S103), and the estimated focal position ( The positioning unit 13 of the microscope image Im is detected using the condition data 30A related to (condition). Further, based on the detection result of the positioning unit 13, the number and arrangement of the dots 15 of the identification unit 12 are detected, and the microwell ID of the microwell being observed is specified (step S104).
これにより、シャーレ1に複数配列されたマイクロウェル11を顕微鏡にて観察した顕微鏡画像Imにおいて、位置決め部13、識別部12の輪郭がぼやけ、位置決め部13、識別部12の検出が困難な場合であっても、観察中のマイクロウェルIDを好適に自動特定することが可能となる。 Thereby, in the microscope image Im obtained by observing a plurality of microwells 11 arranged in the petri dish 1 with a microscope, the contours of the positioning unit 13 and the identification unit 12 are blurred, and it is difficult to detect the positioning unit 13 and the identification unit 12. Even if it exists, it becomes possible to specify automatically the microwell ID under observation suitably.
図13は、顕微鏡画像Imと、全ての位置決め部13の条件データ30A(30A−1〜30A−N)を突合させて、位置決め部13を検出した結果を示す図である。図13の結果から、検出箇所(黒い矩形)が一意に定まらないことが分かる。すなわち、顕微鏡画像Imの焦点位置と合致しない条件データ30Aを用いると、位置決め部13を正確に検出できない。逆に言えば、本実施形態のように、顕微鏡画像Imの焦点位置と合致する条件データ30Aを用いることで、位置決め部13を良好に検出することが可能となる。 FIG. 13 is a diagram illustrating a result of detecting the positioning unit 13 by matching the microscope image Im with the condition data 30A (30A-1 to 30A-N) of all the positioning units 13. From the result of FIG. 13, it can be seen that the detection location (black rectangle) is not uniquely determined. That is, if the condition data 30A that does not match the focal position of the microscope image Im is used, the positioning unit 13 cannot be accurately detected. In other words, the positioning unit 13 can be detected satisfactorily by using the condition data 30A that matches the focal position of the microscope image Im as in the present embodiment.
以上、添付図面を参照しながら、本発明に係る識別装置100等の好適な実施形態について説明したが、本発明はかかる例に限定されない。例えば、本発明は以下のような種々の変形例をも包含する。 The preferred embodiments of the identification device 100 and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. For example, the present invention includes various modifications as follows.
<変形例>
前述したように、検出対象である位置決め部13及び/又は識別部12は、凸部を形成するのではなく、凹部を形成してもよい。また、図3等に示す識別部12のドット15の形状、配置、個数は、一例であり、種々の変更が可能である。例えば、ドット15の形状は、三角形状、四角形状であってもよいし、複数の形状が用いられてもよい。また、図3等に示す位置決め部13の形状、配置、個数も、一例であり、識別部12のドット15と異なる形状又は大きさであれば、種々の変更が可能である。
<Modification>
As described above, the positioning unit 13 and / or the identification unit 12 that is the detection target may form a concave portion instead of forming a convex portion. Further, the shape, arrangement, and number of the dots 15 of the identification unit 12 shown in FIG. 3 and the like are examples, and various changes can be made. For example, the shape of the dot 15 may be a triangle or a quadrangle, or a plurality of shapes may be used. Also, the shape, arrangement, and number of the positioning portions 13 shown in FIG.
また、本実施形態では、条件一致率が最も高い条件データ30A(条件一致データ)を用いて、位置決め部13を検出したが、条件一致率が高い上位複数の条件データ30Aを用いて、位置決め部13を検出するようにしてもよい。同様に、複数の条件データ30Bを用いて、識別部12を検出するようにしてもよい。 In this embodiment, the positioning unit 13 is detected using the condition data 30A (condition matching data) having the highest condition matching rate. However, the positioning unit 13 is detected using a plurality of upper condition data 30A having the highest condition matching rate. 13 may be detected. Similarly, the identification unit 12 may be detected using a plurality of condition data 30B.
また、ステップS104において、ステップS103で選定された条件データ30A(条件一致データ)の焦点位置と同じ焦点位置の条件データ30Bを用いて、識別部12を検出するようにしたが、条件データ30Bについても、ステップS103と同様の処理を行い、条件データ30Bの中から焦点位置が近いデータを選定し、選定した条件データ30Bを用いて、識別部12を検出するようにしてもよい。 In step S104, the identification unit 12 is detected using the condition data 30B having the same focal position as the focal position of the condition data 30A (condition matching data) selected in step S103. Alternatively, the same processing as in step S103 may be performed to select data having a close focal position from the condition data 30B, and the identification unit 12 may be detected using the selected condition data 30B.
また、条件データ30は、画像の特徴量を含むのではなく、特徴量を抽出する元になったサンプル画像(ピクセルデータ)を含む構成であってもよい。この場合、制御部21は、顕微鏡画像Imと条件データ30とのテンプレートマッチングにより、顕微鏡画像Imと焦点位置の近い条件データ30を選定し、位置決め部13等を検出する。具体的には、制御部21は、焦点位置を変えながら撮像した「位置決め部13」の各サンプル画像(テンプレート画像)を、顕微鏡画像Imの全範囲に亘って走査させながら、各走査位置で、顕微鏡画像Imとサンプル画像との類似度を算出する。そして、走査範囲において、類似度が最大の走査位置(以下、「検出位置」と呼ぶ)とその類似度の値、をサンプル画像毎に記憶部22に保存しておく。制御部21は、記憶部22に保存した類似度の中で最大の類似度に係るサンプル画像を顕微鏡画像Imの焦点位置(条件)に近いサンプル画像(条件一致データ)として選定し、記憶部22に保存した当該サンプル画像の検出位置(類似度が最大の走査位置)を、位置決め部13が存在する位置として検出する。なお、類似度としては、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、正規化相互相関などを用いることができる。位置決め部13を検出すると、制御部21は、次に、識別部12のドット15のテンプレート画像を用いて、識別部存在範囲内においてテンプレートマッチングを行い、識別部12のドット15の個数及び配置を検出し、マイクロウェルIDを特定する。 Further, the condition data 30 may include a sample image (pixel data) from which the feature amount is extracted instead of including the feature amount of the image. In this case, the control unit 21 selects the condition data 30 having a focus position close to the microscope image Im by template matching between the microscope image Im and the condition data 30, and detects the positioning unit 13 and the like. Specifically, the control unit 21 scans each sample image (template image) of the “positioning unit 13” captured while changing the focal position over the entire range of the microscope image Im at each scanning position. The similarity between the microscope image Im and the sample image is calculated. In the scanning range, the scanning position having the maximum similarity (hereinafter referred to as “detection position”) and the similarity value are stored in the storage unit 22 for each sample image. The control unit 21 selects a sample image having the maximum similarity among the similarities stored in the storage unit 22 as a sample image (condition matching data) close to the focal position (condition) of the microscope image Im, and stores the storage unit 22. The detected position of the sample image stored in (scanning position with the maximum similarity) is detected as the position where the positioning unit 13 exists. As the similarity, SSD (Sum of Squared Difference), SAD (Sum of Absolute Difference), normalized cross-correlation, or the like can be used. When the positioning unit 13 is detected, the control unit 21 next performs template matching within the identification unit existence range using the template image of the dot 15 of the identification unit 12 to determine the number and arrangement of the dots 15 of the identification unit 12. Detect and identify the microwell ID.
また、ステップS103における焦点位置(条件)の推定は、本実施形態のように顕微鏡画像Imの特徴量と条件データ30の特徴量との特徴量比較により行い、ステップS104における位置決め部13及び/又は識別部12の検出を、顕微鏡画像Imとサンプル画像とのテンプレートマッチングにより行ってもよい。この場合、制御部21は、ステップS104のテンプレートマッチングを高精度に実行するために、前処理として、ステップS103において得られる座標変換行列を用いて、顕微鏡画像Imとサンプル画像の傾き(回転)を合わせる画像回転補正を行ってもよい。具体的には、ステップS103において選定した条件一致データの特徴点の座標と当該特徴点に対応する顕微鏡画像Imの特徴点の座標との座標対応関係から、サンプル画像から顕微鏡画像Im(或いは、顕微鏡画像Imからサンプル画像)への座標変換行列(回転行列)を算出し、座標変換行列に基づいて顕微鏡画像Imとサンプル画像の傾き(回転)を合わせる。この場合、円弧上のドット15は画像の傾き(回転)が判断できないため、楕円状の位置決め部13により画像の傾き(回転)を判断するのが望ましい。 Further, the estimation of the focal position (condition) in step S103 is performed by comparing the feature amount of the microscope image Im and the feature amount of the condition data 30 as in the present embodiment, and the positioning unit 13 and / or in step S104. The identification unit 12 may be detected by template matching between the microscope image Im and the sample image. In this case, in order to execute the template matching of step S104 with high accuracy, the control unit 21 uses the coordinate transformation matrix obtained in step S103 as a pre-process, and tilts (rotates) the microscope image Im and the sample image. You may perform the image rotation correction | amendment to match. Specifically, from the coordinate correspondence between the feature point coordinates of the condition matching data selected in step S103 and the feature point coordinates of the microscope image Im corresponding to the feature point, the sample image to the microscope image Im (or the microscope image). A coordinate transformation matrix (rotation matrix) from the image Im to the sample image is calculated, and the inclination (rotation) of the microscope image Im and the sample image is matched based on the coordinate transformation matrix. In this case, since the dot 15 on the arc cannot determine the inclination (rotation) of the image, it is desirable to determine the inclination (rotation) of the image by the elliptical positioning unit 13.
また、当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される In addition, it is obvious for those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. Understood
100………識別装置
101………顕微鏡
102………ステージ
200………マイクロウェル識別システム
1………シャーレ
2………細胞収容部
11………マイクロウェル
12………識別部
13………位置決め部
14………受精卵
15………ドット
21………制御部
22………記憶部
23………メディア入出力部
24………通信制御部
25………入力部
26………表示部
27………周辺機器I/F部
28………バス
30………条件データ
40………Imの特徴量データ
Im………顕微鏡画像
DESCRIPTION OF SYMBOLS 100 ......... Identification apparatus 101 ......... Microscope 102 ......... Stage 200 ......... Microwell identification system 1 ...... Petri dish 2 ......... Cell accommodating part 11 ......... Microwell 12 ......... Identification part 13 ... ...... Positioning part 14 ......... Fertilized egg 15 ......... Dot 21 ......... Control part 22 ......... Storage part 23 ......... Media input / output part 24 ......... Communication control part 25 ......... Input part 26 ... …… Display unit 27 ……… Peripheral device I / F unit 28 ……… Bus 30 ……… Condition data 40 ……… Im feature data Im ……… Microscope image
Claims (6)
条件の異なる複数のサンプル画像を記憶する記憶手段と、
前記取得手段によって取得した対象画像と、前記記憶手段に記憶された前記サンプル画像とを用いて、前記対象画像の条件を推定する推定手段と、
前記推定手段により推定された条件の前記サンプル画像と、前記対象画像を用いて、前記凹凸を検出する検出手段と、
を具備することを特徴とする識別装置。 An acquisition means for acquiring an image including unevenness to be detected;
Storage means for storing a plurality of sample images having different conditions;
Estimating means for estimating the condition of the target image using the target image acquired by the acquiring means and the sample image stored in the storage means;
Detection means for detecting the unevenness using the sample image of the condition estimated by the estimation means and the target image;
An identification device comprising:
前記推定手段は、前記サンプル画像の特徴量と、前記対象画像の特徴量に基づいて、前記対象画像の条件を推定することを特徴とする請求項1に記載の識別装置。 The storage means stores a feature amount of the sample image,
The identification apparatus according to claim 1, wherein the estimation unit estimates a condition of the target image based on a feature amount of the sample image and a feature amount of the target image.
前記対象画像および前記サンプル画像から複数の特徴量を算出し、前記サンプル画像の前記複数の特徴量のうち前記対象画像の特徴量との距離が近い当該特徴量の比率を算出する算出手段と、
前記比率が大きい前記サンプル画像を選定する選定手段と、
を具備し、
選定されたサンプル画像の条件を前記対象画像の条件とすることを特徴とする請求項2に記載の識別装置。 The estimation means includes
Calculating means for calculating a plurality of feature amounts from the target image and the sample image, and calculating a ratio of the feature amounts that are close to the feature amount of the target image among the plurality of feature amounts of the sample image;
A selection means for selecting the sample image with the large ratio;
Comprising
The identification apparatus according to claim 2, wherein the condition of the selected sample image is set as the condition of the target image.
条件の異なる複数のサンプル画像を記憶する記憶ステップと、
前記取得ステップによって取得した対象画像と、前記記憶ステップに記憶された前記サンプル画像とを用いて、前記対象画像の条件を推定する推定ステップと、
前記推定ステップにより推定された条件の前記サンプル画像と、前記対象画像を用いて、前記凹凸を検出する検出ステップと、
を含むことを特徴とする識別方法。 An acquisition step of acquiring an image including unevenness to be detected;
A storage step for storing a plurality of sample images having different conditions;
An estimation step for estimating a condition of the target image using the target image acquired by the acquisition step and the sample image stored in the storage step;
A detection step of detecting the unevenness using the sample image of the condition estimated by the estimation step and the target image;
The identification method characterized by including.
検出対象となる凹凸を含む画像を取得する取得手段と、
条件の異なる複数のサンプル画像を記憶する記憶手段と、
前記取得手段によって取得した対象画像と、前記記憶手段に記憶された前記サンプル画像とを用いて、前記対象画像の条件を推定する推定手段と、
前記推定手段により推定された条件の前記サンプル画像と、前記対象画像を用いて、前記凹凸を検出する検出手段と、
して機能させるためのプログラム。
Computer
An acquisition means for acquiring an image including unevenness to be detected;
Storage means for storing a plurality of sample images having different conditions;
Estimating means for estimating the condition of the target image using the target image acquired by the acquiring means and the sample image stored in the storage means;
Detection means for detecting the unevenness using the sample image of the condition estimated by the estimation means and the target image;
Program to make it function.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015030704A JP6476977B2 (en) | 2015-02-19 | 2015-02-19 | Identification device, identification method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015030704A JP6476977B2 (en) | 2015-02-19 | 2015-02-19 | Identification device, identification method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2016149998A true JP2016149998A (en) | 2016-08-22 |
| JP6476977B2 JP6476977B2 (en) | 2019-03-06 |
Family
ID=56695100
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015030704A Active JP6476977B2 (en) | 2015-02-19 | 2015-02-19 | Identification device, identification method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6476977B2 (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018003340A1 (en) * | 2016-07-01 | 2018-01-04 | ソニー株式会社 | Image acquisition method, image acquisition device, program and culture container |
| KR20180098064A (en) * | 2017-02-24 | 2018-09-03 | 삼성전자주식회사 | Method and apparatus for correcting image |
| WO2019065144A1 (en) | 2017-09-29 | 2019-04-04 | 富士フイルム株式会社 | Observation device, observation method, and observation program |
| WO2019116807A1 (en) | 2017-12-15 | 2019-06-20 | 富士フイルム株式会社 | Observation device, observation method, and observation program |
| CN116342854A (en) * | 2023-03-24 | 2023-06-27 | 深圳市汇春科技股份有限公司 | Micro photosensitive sensor and photosensitive recognition method |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001101337A (en) * | 1999-07-26 | 2001-04-13 | Komatsu Ltd | Dot mark reading device and reading method |
| JP2005099736A (en) * | 2003-08-26 | 2005-04-14 | Sony Corp | Autofocus control method, autofocus control device, and image processing device |
-
2015
- 2015-02-19 JP JP2015030704A patent/JP6476977B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001101337A (en) * | 1999-07-26 | 2001-04-13 | Komatsu Ltd | Dot mark reading device and reading method |
| JP2005099736A (en) * | 2003-08-26 | 2005-04-14 | Sony Corp | Autofocus control method, autofocus control device, and image processing device |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018003340A1 (en) * | 2016-07-01 | 2018-01-04 | ソニー株式会社 | Image acquisition method, image acquisition device, program and culture container |
| KR20180098064A (en) * | 2017-02-24 | 2018-09-03 | 삼성전자주식회사 | Method and apparatus for correcting image |
| US11727546B2 (en) | 2017-02-24 | 2023-08-15 | Samsung Electronics Co., Ltd. | Method and device for correcting image |
| KR102579457B1 (en) * | 2017-02-24 | 2023-09-14 | 삼성전자주식회사 | Method and apparatus for correcting image |
| WO2019065144A1 (en) | 2017-09-29 | 2019-04-04 | 富士フイルム株式会社 | Observation device, observation method, and observation program |
| US11397313B2 (en) | 2017-09-29 | 2022-07-26 | Fujifilm Corporation | Observation apparatus, observation method, and observation program |
| WO2019116807A1 (en) | 2017-12-15 | 2019-06-20 | 富士フイルム株式会社 | Observation device, observation method, and observation program |
| CN116342854A (en) * | 2023-03-24 | 2023-06-27 | 深圳市汇春科技股份有限公司 | Micro photosensitive sensor and photosensitive recognition method |
| CN116342854B (en) * | 2023-03-24 | 2024-01-12 | 深圳市汇春科技股份有限公司 | Micro photosensitive sensor and photosensitive recognition method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6476977B2 (en) | 2019-03-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6476977B2 (en) | Identification device, identification method, and program | |
| US9177358B2 (en) | Information processing apparatus, information processing method, and program therefor | |
| JP7135473B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, PROGRAM AND MEDICAL IMAGE PROCESSING SYSTEM | |
| JP6575325B2 (en) | Camera position / orientation estimation apparatus, camera position / orientation estimation method, and camera position / orientation estimation program | |
| JP2008116373A (en) | Position and orientation measurement method and apparatus | |
| CN103649992B (en) | For the method for the focal plane for automatically adjusting digital pathological image | |
| KR102073468B1 (en) | System and method for scoring color candidate poses against a color image in a vision system | |
| US10740907B2 (en) | Moving body tracking method, moving body tracking device, and program | |
| CN111310753B (en) | Meter alignment method and device | |
| Khan et al. | Segmentation of developing human embryo in time-lapse microscopy | |
| JP2018022247A (en) | Information processing apparatus and control method thereof | |
| EP3624053A1 (en) | Image analysis device | |
| JP2018205819A (en) | Computer program for gaze position detection, gaze position detection device, and gaze position detection method | |
| JP2018092354A (en) | Object detection apparatus and object detection method | |
| CN110619672B (en) | Figure edge line selecting method, machine readable storage medium and data processing equipment | |
| JP6229365B2 (en) | Colony counting device, colony counting method, and colony counting program | |
| CN109190452A (en) | Crop row recognition methods and device | |
| JP2011243139A (en) | Image processing device, image processing method and compute program | |
| JP6542230B2 (en) | Method and system for correcting projected distortion | |
| JP2016081088A (en) | Image processing device, and image processing method and program | |
| JP5878454B2 (en) | Estimation apparatus, estimation method, and computer program | |
| US9633429B2 (en) | Pattern outline extraction device, pattern outline extraction method, and computer program product | |
| CN110263754B (en) | Method and device for removing shading of off-screen fingerprint, computer equipment and storage medium | |
| EP3955207A1 (en) | Object detection device | |
| CN114004878B (en) | Alignment device, alignment method, alignment system, storage medium and computer device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171225 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190108 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190121 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6476977 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |