WO2020179040A1 - 顕微鏡および観察方法 - Google Patents
顕微鏡および観察方法 Download PDFInfo
- Publication number
- WO2020179040A1 WO2020179040A1 PCT/JP2019/008976 JP2019008976W WO2020179040A1 WO 2020179040 A1 WO2020179040 A1 WO 2020179040A1 JP 2019008976 W JP2019008976 W JP 2019008976W WO 2020179040 A1 WO2020179040 A1 WO 2020179040A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unit
- image
- detection
- image processing
- pupil
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/06—Means for illuminating specimens
- G02B21/08—Condensers
- G02B21/14—Condensers affording illumination for phase-contrast observation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
Definitions
- the present invention relates to a microscope and an observation method.
- Non-Patent Document 1 A scanning microscope that detects fluorescence from a sample has been proposed (for example, see Non-Patent Document 1 below).
- the microscope according to the first aspect provides a light beam splitting unit that splits light for exciting a fluorescent substance contained in a sample into a plurality of light beams, and an interference fringe formed by at least a part of the plurality of light beams interfering with each other.
- An illumination optical system having a scanning unit that scans the sample in a plurality of directions, and an adjusting unit that adjusts an incident position where at least a part of the plurality of light beams enters the pupil plane of the objective lens; and fluorescence from the sample.
- a detection optical system in which light is incident a detection device having a plurality of detection units for detecting fluorescence from the sample via the detection optical system, and detection results by at least two detection units among the plurality of detection units.
- An image processing unit that generates an image using the image processing unit.
- the observation method is to divide the light for exciting the fluorescent substance contained in the sample into a plurality of luminous fluxes and to generate interference fringes formed by interference of at least a part of the plurality of luminous fluxes. Scanning in a plurality of directions of the sample, adjusting the incident position where at least a part of the plurality of luminous fluxes are incident on the pupil surface of the objective lens, and a plurality of fluorescence generated from the sample by excitation. This includes detecting using a detection unit, and generating an image using the detection results of at least two detection units of the plurality of detection units.
- FIG. 1 is a diagram showing a microscope and an optical path of excitation light according to the first embodiment.
- the microscope 1 will be described as being a scanning fluorescence microscope, but the microscope according to the embodiment is not limited to a scanning microscope or a fluorescence microscope.
- the microscope 1 includes a stage 2, a light source 3, an illumination optical system 4, a detection optical system 5, a detection device 6, an image processing unit 7, a control unit 8, an input unit 9, and a display unit 10. Be prepared.
- the microscope 1 operates as follows.
- Stage 2 holds the sample S to be observed.
- the sample S is a cell or the like that has been fluorescently stained in advance.
- the sample S contains a fluorescent substance such as a fluorescent dye.
- the light source 3 emits excitation light L1 that excites the fluorescent substance contained in the sample S.
- the illumination optical system 4 forms the interference fringes L2 and scans the interference fringes L2 in a plurality of directions (eg, the X direction and the Y direction) with respect to the sample S.
- the stage 2 can move the relative positions of the sample S and the illumination optical system 4 in the X direction and the Y direction in FIG. 1 in a range wider than the scanning range of the interference fringes L2 by the illumination optical system 4.
- the detection optical system 5 is arranged at a position where the fluorescence L3 (shown later in FIG. 4) from the sample S enters.
- the detection device 6 includes a plurality of detection units 6a (later shown in FIG. 4) that detect the fluorescence L3 from the sample S via the detection optical system 5.
- the image processing unit 7 uses the detection results of the two or more detection units 6a of the detection device 6 to generate an image (for example, a super-resolution image).
- the control unit 8 controls the light source 3, the driving unit 22, the image processing unit 7, the input unit 9, and the display unit 10.
- the input unit 9 is, for example, a keyboard or a mouse, and receives an operation from the user. Further, the display unit 10 can display the image generated by the image processing unit 7 via the control unit 8.
- a control device 8C is configured to include the image processing unit 7 and the control unit 8. Hereinafter, each part of the microscope 1 will be described.
- the light source 3 includes a light source such as a laser element.
- the light source 3 generates coherent light in a predetermined wavelength band.
- the predetermined wavelength band is set to a wavelength band including the excitation wavelength of the sample S.
- the predetermined wavelength band may be set to a wavelength band in which the sample S is excited by multiphotons.
- the excitation light L1 emitted from the light source 3 is, for example, linearly polarized light.
- a light guide member such as an optical fiber 11 is connected to the emission port of the light source 3.
- the microscope 1 does not have to include the light source 3, and the light source 3 may be provided separately from the microscope 1.
- the light source 3 may be provided interchangeably (attachable, removable) with the microscope 1.
- the light source 3 may be externally attached to the microscope 1 when observing with the microscope 1.
- the illumination optical system 4 is arranged at a position where the excitation light L1 from the light source 3 is incident. Excitation light L1 is incident on the illumination optical system 4 from the light source 3 through the optical fiber 11.
- the optical fiber 11 may be a part of the illumination optical system 4 or a part of a light source device including the light source 3.
- the illumination optical system 4 includes a collimator lens 12, a ⁇ / 4 wave plate 13, a polarizer 14, a mask 15 (opening member), a pupil deviation correction device 100, and a dichroic mirror 16 in this order from the light source 3 side to the sample S side. It includes a relay optical system 17, a scanning unit 18, a lens 19, a lens 20, and an objective lens 21.
- the XYZ Cartesian coordinate system shown in FIG. In this XYZ orthogonal coordinate system, the X direction and the Y direction are directions perpendicular to the optical axis 21a of the objective lens 21, respectively. Further, the Z direction is a direction parallel to the optical axis 21a of the objective lens 21. The optical axis 21a of the objective lens 21 coincides with the optical axis 4a of the illumination optical system 4.
- the same side as the arrow is referred to as a + side (eg, +X side), and the opposite side is referred to as a ⁇ side (eg, ⁇ X side).
- the directions corresponding to the X direction, the Y direction, and the Z direction are indicated with subscripts.
- the Xa direction, the Ya direction, and the Za direction in FIG. 1 are directions corresponding to the X direction, the Y direction, and the Z direction in the optical path from the collimator lens 12 to the dichroic mirror 16, respectively.
- the collimator lens 12 converts the excitation light L1 emitted from the optical fiber 11 into parallel light.
- the collimator lens 12 is arranged, for example, so that the focal point on the same side as the light source 3 coincides with the light emission port of the optical fiber 11.
- the lens included in the illumination optical system 4 the focus on the same side as the light source 3 is referred to as the rear focus, and the focus on the same side as the sample S is referred to as the front focus.
- the ⁇ / 4 wave plate 13 changes the polarization state of the excitation light L1 to circularly polarized light.
- the polarizer 14 is, for example, a polarizing plate, and has a characteristic of transmitting linearly polarized light having a predetermined polarization direction.
- the polarizer 14 is arranged such that the light incident on the sample S is S-polarized (linearly polarized in the Y direction).
- the polarizer 14 is rotatable around the optical axis 12a of the collimator lens 12.
- the optical axis 12a of the collimator lens 12 coincides with the optical axis 4a of the illumination optical system 4.
- the mask 15 is a light beam splitting unit that splits the excitation light that excites the fluorescent substance into a plurality of light beams.
- the illumination optical system 4 scans the sample S by the interference fringes L2 generated by the interference of two or more light fluxes among the plurality of light fluxes divided by the mask 15.
- the mask 15 is arranged at or near the position of the pupil conjugate surface P1 optically conjugate with the pupil surface P0 of the objective lens 21.
- the vicinity of the pupil conjugate surface optically conjugate with the pupil surface P0 of the objective lens 21 is a range in which the excitation light L1 can be regarded as a parallel ray in the region including the pupil conjugate surface.
- the excitation light L1 when the excitation light L1 is a Gaussian beam, it can be sufficiently regarded as a parallel light ray within a range within 1/10 of the Rayleigh length from the beam waist position.
- Rayleigh length of the wavelength of the excitation light L1 lambda when the beam waist radius was w 0, is given by ⁇ w 0 2 / ⁇ .
- the Rayleigh length is about 3 m
- the mask 15 is within 300 mm near the pupil conjugate plane P1 optically conjugate with the pupil plane P0 of the objective lens 21. It may be arranged.
- the mask 15 may be arranged at or near the pupil plane P0.
- the mask 15 has an opening 15a and an opening 15b through which the excitation light L1 passes. Interference between the excitation light L1a passing through the opening 15a and the excitation light L1b passing through the opening 15b forms an interference fringe L2.
- the mask 15 is rotatable around the optical axis 12a of the collimator lens 12.
- the mask 15 is fixed, for example, relative to the polarizer 14 and rotates integrally with the polarizer 14.
- the mask 15 and the polarizer 14 are rotated by the torque supplied from the drive unit 22.
- the mask 15 and the polarizer 14 do not have to rotate integrally, and each may rotate by the torque supplied from an independent drive unit.
- FIG. 2A is a diagram showing a mask according to the first embodiment.
- the openings 15a and 15b of the mask 15 are arranged symmetrically with respect to the optical axis 12a of the collimator lens 12 (see FIG. 1).
- the openings 15a and 15b are arranged in the Xa direction.
- FIG. 2B is a diagram showing the polarizer according to the first embodiment.
- the transmission axis 14a of the polarizer 14 is parallel to a direction (Ya direction in FIG. 2B) perpendicular to the direction (Xa direction in FIG. 2A) in which the openings 15a and 15b are aligned in the mask 15. Is set.
- FIG. 2B is a diagram showing a mask according to the first embodiment.
- the openings 15a and 15b of the mask 15 are arranged symmetrically with respect to the optical axis 12a of the collimator lens 12 (see FIG. 1).
- the openings 15a and 15b are arranged in the Xa direction
- FIG. 2C is a diagram showing the pupil plane P0 of the objective lens 21.
- Reference numerals P0a and P0b are regions where the excitation light L1 is incident, respectively.
- the parameters shown in FIG. 2C will be referred to later in the description of the image processing unit 7.
- FIG. 3A is a diagram showing a pupil deviation correction device according to the first embodiment.
- the pupil deviation correction device 100 includes, for example, two rotatable parallel flat plate glasses 111 and 112, and angle change driving units 113 and 114 for rotating (angle changing) these parallel flat plate glasses 111 and 112, respectively. Configured.
- the parallel plate glass 111 can rotate about an axis parallel to the Ya direction, and the parallel plate glass 112 can rotate about an axis parallel to the Xa direction.
- the parallel flat glass 111 and 112 rotate according to the torque supplied from the angle changing drive units 113 and 114, respectively.
- FIG. 3B is a view of the flat glass 112 viewed from the Xa direction in FIG.
- the two flat glass plates 111 and 112 are also collectively referred to as the pupil deviation correction element 110.
- the pupil misalignment correction element 110 shifts the excitation light L1 (excitation light L1a, L1b) in a direction (Xa direction or Ya direction) perpendicular to the Za direction and makes the excitation light L1a, L1b incident on the pupil plane P0 of the objective lens 21. It functions as an adjusting element for adjusting the position.
- the parallel flat glass 111 has a function of shifting the excitation light L1 in the Xa direction.
- the parallel plate glass 112 has a function of shifting the excitation light L1 in the Ya direction. Either the Xa direction or the Ya direction may be shifted first. Although it is desirable that the parallel plate glasses 111 and 112 be provided with an antireflection coating for a predetermined wavelength band, they may be omitted.
- the pupil shift correction element 110 (pupil shift correction device 100) is arranged between the mask 15 and the dichroic mirror 16 in FIG. 1 of the first embodiment.
- the pupil misalignment correction element 110 is arranged in the vicinity of a pupil conjugate plane P1 optically conjugate with the pupil plane P0 of the objective lens 21 in FIG.
- the position of the pupil shift correction element 110 is between the dichroic mirror 16 and the relay optical system 17, which is a common optical path between the illumination optical system 4 and the detection optical system 5, or between the relay optical system 17 and the scanning unit. It may be between 18 (deflection mirror 18a).
- the pupil shift correction element 110 is arranged at or near the position of the pupil conjugate surface P1.
- the pupil shift correction element 110 is composed of two parallel flat glass plates, but it may be composed of one or three or more parallel flat glass plates.
- the pupil shift correction element 110 (pupil shift correction device 100) shifts the light flux (excitation light L1a, L1b) split by the light flux splitting unit (mask 15) in the Xa direction or the Ya direction to objective the excitation lights L1a, L1b. It is an adjustment unit (also referred to as a light flux shift unit) that adjusts the position of the lens 21 that is incident on the pupil plane P0.
- the pupil deviation correction element 110 (pupil deviation correction device 100) is controlled by the control unit 8.
- the shift amount (adjustment amount) of the luminous flux (excitation light L1a, L1b) by the pupil deviation correction element 110 will be described by taking parallel flat glass 111 as an example.
- the parallel plate glass 111 has a thickness of d1 and a refractive index of n1. As shown in FIG. 3A, the angle of the parallel plate glass 111 is ⁇ 1. At this time, the shift amount ⁇ x of the light flux is expressed by the following equation (1).
- a desired ⁇ x can be obtained by appropriately setting d1, n1, and ⁇ 1 based on the equation (1).
- the angle change drive unit 113 can change ⁇ 1.
- the angle change drive unit 113 can change ⁇ x by changing ⁇ 1.
- ⁇ x and ⁇ y will also be referred to as a pupil shift correction amount.
- the shift amount ⁇ x is also referred to as an X-direction pupil deviation correction amount, and ⁇ y is also referred to as a Y-direction pupil deviation correction amount.
- the effect of the pupil shift correction (shift of the excitation light L1) by the pupil shift correction element 110 will be described later.
- the dichroic mirror 16 has a property that the excitation light L1 is reflected and the fluorescence L3 (later shown in FIG. 5) from the sample S is transmitted.
- the excitation light L1 that has passed through the openings 15a and 15b of the mask 15 is reflected by the dichroic mirror 16, the optical path is bent, and enters the relay optical system 17.
- the relay optical system 17 guides the excitation light L1 from the dichroic mirror 16 to the scanning unit 18.
- the relay optical system 17 is represented by one lens in the figure, the number of lenses included in the relay optical system 17 is not limited to one. Further, the relay optical system 17 may not be necessary depending on the distance of the optical system and the like. In addition, in each drawing, two or more lenses may be represented by one lens even in a portion other than the relay optical system 17.
- the scanning unit 18 scans the sample S with the interference fringes L2 formed by the excitation light L1 in the two directions of the X direction and the Y direction.
- the scanning unit 18 changes the position where the interference fringe L2 is formed by the excitation light L1 in two directions that intersect the optical axis 21a of the objective lens 21.
- the scanning unit 18 includes a deflection mirror 18a and a deflection mirror 18b.
- the tilts of the deflection mirror 18a and the deflection mirror 18b with respect to the optical path of the excitation light L1 are variable.
- the deflection mirror 18a and the deflection mirror 18b are a galvano mirror, a MEMS mirror, a resonant mirror (resonance type mirror), etc., respectively.
- the deflection mirror 18a and the deflection mirror 18b may be scanners.
- the scanning unit 18 is controlled by, for example, the control unit 8.
- the deflection mirror 18a changes the position where the excitation light L1 is incident on the sample S in the X direction.
- the deflection mirror 18b changes the position on the sample S where the excitation light L1 is incident in the Y direction.
- the scanning unit 18 is arranged so that, for example, the position conjugate with the pupil plane P0 of the objective lens 21 is the position of the deflection mirror 18a, the position of the deflection mirror 18b, or the position between the deflection mirror 18a and the deflection mirror 18b. To be done.
- the scanning unit 18 may be configured such that the deflection mirror 18a changes the position where the excitation light L1 is incident on the sample S in the Y direction and the deflection mirror 18b changes in the X direction.
- the excitation light L1 from the scanning unit 18 is incident on the lens 19.
- the lens 19 concentrates the excitation light L1 on the sample conjugate surface Sb optically conjugate with the sample surface Sa of the objective lens 21.
- the sample surface Sa is a surface that is arranged at a position near the front focal point or the front focal point of the objective lens 21 and is perpendicular to the optical axis 21a of the objective lens 21.
- An interference fringe is formed on the sample conjugate surface Sb due to the interference between the excitation light L1a passing through the opening 15a of the mask 15 and the excitation light L1b passing through the opening 15b.
- the excitation light L1 that has passed through the sample conjugate surface Sb is incident on the lens 20.
- the lens 20 converts the excitation light L1 into parallel light.
- the excitation light L1 that has passed through the lens 20 passes through the pupil surface P0 of the objective lens 21.
- the objective lens 21 focuses the excitation light L1 on the sample surface Sa.
- the lens 20 and the objective lens 21 project the interference fringes formed on the sample conjugate surface Sb onto the sample surface Sa. Local interference fringes L2 are formed on the sample surface Sa.
- the interference fringe L2 includes a bright portion having a relatively high light intensity and a dark portion having a relatively low light intensity.
- the direction in which the bright part and the dark part are lined up (X direction in FIG. 1) is appropriately referred to as the periodic direction D1 of the interference fringes L2.
- the periodic direction D1 of the interference fringe L2 corresponds to the direction in which the openings 15a and 15b of the mask 15 are arranged (Xa direction in FIG. 1).
- the driving unit 22 is included in the fringe direction changing unit that changes the direction of the interference fringe L2.
- the drive unit 22 (stripe direction changing unit) is a direction in which two or more light beams are arranged in a plane perpendicular to the optical axis 4a of the illumination optical system 4 (for example, the surface on the light emission side of the mask 15) (hereinafter referred to as a light beam division direction). ) Is changed.
- the above-described light beam splitting direction is, for example, a direction in which the opening 15a and the opening 15b are arranged, and the drive unit 22 changes the light beam splitting direction by rotating the mask 15.
- the drive unit 22 rotates the polarizer 14 in conjunction with the mask 15 to change the direction of the transmission axis of the polarizer 14 and adjusts the excitation light L1 to be S-polarized and incident on the sample S. That is, the polarizer 14 and the driving unit 22 are included in the polarization adjusting unit that adjusts the polarization state of the excitation light L1 based on the direction of the interference fringes.
- FIG. 4 is a diagram showing the mask, the polarizer, the interference fringes, and the polarization state of the excitation light according to the first embodiment.
- the direction in which the openings 15a and 15b of the mask 15 are arranged is the Xa direction.
- the transmission axis 14a of the polarizer 14 is in the Ya direction perpendicular to the Xa direction.
- the excitation light L1 in the excitation light L1 (see FIG. 1), the light flux passing through the opening 15a and the light flux passing through the opening 15b are incident on the sample S to generate the interference fringes L2 in the periodic direction D1.
- the excitation light L1 incident plane is parallel to the XZ plane.
- the excitation light L1 when incident on the sample S is in the Y direction whose polarization direction D2 is perpendicular to the incident surface, that is, the excitation light L1 is incident on the sample S with S polarization.
- the direction in which the openings 15a and 15b of the mask 15 are aligned is the direction obtained by rotating the Xa direction counterclockwise by 120°.
- the transmission axis 14a of the polarizer 14 is a direction in which the Ya direction is rotated counterclockwise by 120 °.
- the periodic direction of the interference fringes L2 is a direction forming 120 ° with respect to the X direction.
- the incident surface of the excitation light L1 is a surface obtained by rotating the XZ plane by 120 ° around the Z direction.
- the excitation light L1 when entering the sample S has a polarization direction D2 perpendicular to the incident surface, that is, the excitation light L1 enters the sample S as S-polarized light.
- the direction Xa in which the opening 15 a and the opening 15 b of the mask 15 are arranged is rotated counterclockwise by 240°.
- the transmission axis 14a of the polarizer 14 is a direction in which the Ya direction is rotated counterclockwise by 240 °.
- the periodic direction D1 of the interference fringe L2 is a direction forming 240 ° with respect to the X direction.
- the incident surface of the excitation light L1 is a surface obtained by rotating the XZ plane by 240 ° around the Z direction.
- the excitation light L1 when entering the sample S has a polarization direction D2 perpendicular to the incident surface, that is, the excitation light L1 enters the sample S as S-polarized light.
- the periodic direction of the interference fringe L2 is changed in three ways in increments of 120 °, but the periodic direction of the interference fringe L2 is not limited to this example.
- the periodic direction of the interference fringes L2 corresponds to a direction in which the resolution can be improved (a direction in which the super-resolution effect can be obtained) in the image generated by the image processing unit 7 described later.
- the periodic direction of the interference fringe L2 is appropriately set so that a desired super-resolution effect can be obtained.
- the periodic directions of the interference fringes L2 may be two or one at an angle of 90 ° to each other.
- the mask 15 may be replaceable according to the magnification and NA (numerical aperture) of the objective lens 21 and the shape of the illumination pupil.
- FIG. 5 is a diagram showing a microscope and a fluorescence optical path according to the first embodiment.
- the detection optical system 5 forms an image of the fluorescence L3 generated in the sample S.
- the detection optical system 5 includes an objective lens 21, a lens 20, a lens 19, a scanning unit 18, a relay optical system 17, a dichroic mirror 16, an excitation light cut filter (barrier filter) 23, and an excitation light cut filter (barrier filter) 23 in this order from the sample S toward the detection device 6. Includes lens 24.
- the fluorescence L3 generated in the sample S passes through the objective lens 21, the lens 20, and the lens 19 in this order and enters the scanning unit 18.
- the fluorescence L3 is descanned by the scanning unit 18 and enters the dichroic mirror 16 through the relay optical system 17.
- the dichroic mirror 16 has the property of transmitting the fluorescence L3.
- the fluorescence L3 transmitted through the dichroic mirror 16 is incident on the excitation light cut filter 23.
- the excitation light cut filter 23 has a property of blocking the excitation light L1 and transmitting the fluorescence L3. When the excitation light L1 can be sufficiently shielded by the dichroic mirror 16, the excitation light cut filter 23 may not be provided.
- the fluorescence L3 that has passed through the excitation light cut filter 23 enters the lens 24.
- the lens 24 focuses the fluorescence L3 on the detection device 6.
- the detection device 6 is an image sensor and includes a plurality of detection units 6a arranged two-dimensionally.
- the plurality of detection units 6a are arranged in two directions in the detection device 6.
- the plurality of detection units 6a are arranged in two directions, the Xb direction and the Yb direction.
- Each of the plurality of detection units 6a is a sensor cell including a photoelectric conversion element such as a photodiode, a pixel, or a photodetector.
- Each of the plurality of detection units 6a can detect the fluorescence L3.
- the detection unit 6a corresponds to, for example, one pixel, but a detection region (light receiving region) including a plurality of pixels may be used as one detection unit 6a.
- the microscope 1 scans the interference fringes L2 on the sample surface Sa by the scanning unit 18, and the detection device 6 detects the fluorescence L3. For example, the microscope 1 illuminates the illumination region selected from the sample surface Sa with the interference fringes L2, and the detection device 6 detects the fluorescence L3 from the illumination region. The microscope changes the illumination area by the scanning unit 18 after the detection by the detection device 6 is completed. The microscope 1 acquires a fluorescence intensity distribution (measured value of the detection device 6) in a desired region by repeating a process of detecting fluorescence and a process of changing the illumination region.
- the image processing unit 7 generates an image based on the detection result of the detection device 6 obtained as described above.
- the processing executed by the image processing unit 7 will be described.
- the coordinate system is described as a vector as appropriate.
- scanning coordinates coordinates of the scanning destination of the scanning unit 18
- the origins of r and r s are on the optical axis.
- the wave number may be referred to as spatial frequency or frequency.
- the magnification of the optical system is assumed to be 1 for convenience of explanation, but any magnification may be used.
- the numerical aperture of the optical system including the objective lens 21 is NA
- the wavelength of the illumination light L1 is ⁇ ex
- the wavelength of the fluorescence L3 is ⁇ em
- the pupil radius k NA ex of the objective lens 21 when the excitation light L1 is incident is represented by the following formula (2A) and formula (2B).
- the coordinates of the pupil position may be represented by wave number coordinates.
- k NA ex and k NA em indicates the value of the pupil radius when the pupil is expressed in wave number coordinates.
- the pupil plane P0 is represented by a wave number coordinate space (frequency space).
- the region inside the circle drawn by the dotted line shown in FIG. 2C is the pupil of the objective lens 21, and k NA ex is the pupil radius of the objective lens 21 when the excitation light L1 is incident.
- the region P0a and the region P0b on which the excitation light L1 is incident are assumed to be circular, but are not limited to circular.
- the radius of each of the region P0a and the region P0b is ⁇ k NA ex .
- ⁇ is the ratio of the radius of the region P0a or the region P0b to the pupil radius of the objective lens 21.
- the distance from the optical axis 21a of the objective lens 21 to the center of the region P0a is (1- ⁇ ) k NA ex .
- the distance between the center of the region P0a and the center of the region P0b is, for example, 2(1- ⁇ )k NA ex , but is not limited to this value.
- the electric field intensity ill(r) of the excitation light on the sample surface Sa is represented by the following formula (3).
- PSF ill (r) is a point spread function when the numerical aperture of the optical system is ⁇ NA.
- the interval of the interference fringes will be appropriately referred to as the fringe interval or the period of the interference fringes.
- the fluorescent substance contained in the sample S is excited by the excitation light L1, and the excited fluorescent substance emits the fluorescence L3.
- the detection device 6 receives the fluorescence L3 and captures an image of the fluorescent substance formed by the detection optical system 5.
- the detection device 6 captures an image of a fluorescent substance and acquires image data.
- the size of the detection unit 6a of the detection device 6 is smaller than the size corresponding to the cycle of the interference fringes L2 in the detection device 6 (the length on the detection device 6 corresponding to one cycle). Is small enough. For example, it is desirable that the size of the detection unit 6a is set to about ⁇ em / 4NA.
- the numerical aperture on the detection device 6 side of the detection optical system 5 is set to NAd, and for example, the size of the detection unit 6a is preferably set to about ⁇ em /4NAd. ..
- R in equation (4) is the convolution for r.
- the PSF det (r) is a detection PSF determined by the detection optical system 5 including the objective lens 21 and the fluorescence wavelength ⁇ em .
- I(r,r s ) is transformed, the following equation (5) is obtained.
- each detector 6a of the detection device 6 it is seen that image data of Obj (r s) is obtained. Further, it can be seen from the above equation (6) that the shape of the effective PSF is different for each position (r) of the detection unit 6a of the detection device 6.
- FIG. 6 is a diagram showing an effective PSF in each detection unit of the detection device according to the first embodiment.
- the horizontal axis is the Xb direction of the detection device 6.
- the effective PSF (solid line) of each detection unit 6a is shown in one graph for three detection units 6a whose coordinates in the Xb direction are different from each other.
- the graph in the center of FIG. 6A shows the distribution Q1a (solid line) corresponding to the effective PSF of the detection unit 6a arranged at the position X1a.
- the graph on the left side of FIG. 6A shows the distribution Q1b (solid line) corresponding to the effective PSF of the detection unit 6a arranged at the position X1b.
- the graph on the right side of FIG. 6A shows the distribution Q1c (solid line) corresponding to the effective PSF of the detection unit 6a arranged at the position X1c.
- the symbol Q2 corresponding to the dotted line in FIG. 6 is a distribution corresponding to the intensity distribution of the interference fringe L2 shown in FIG.
- the distribution Q2 corresponds to the electric field intensity ill(r) of the excitation light on the sample surface Sa (see the above equation (3)).
- the positions where the intensity of the interference fringes L2 is maximized, that is, the peak positions X2a, X2b, and X2c of the distribution Q2 can be obtained in advance by numerical simulation or the like.
- Distribution Q2 includes partial distributions Q2a, Q2b, and Q2c.
- the distribution Q2a is a distribution in the range from the minimum position before the peak position X2a to the next minimum position.
- the distribution Q2b is a distribution in the range from the minimum position before the peak position X2b to the next minimum position.
- the distribution Q2c is a distribution in the range from the minimum position before the peak position X2c to the next minimum position.
- Reference numerals Q3a, Q3b, and Q3c corresponding to the chain double-dashed line in FIG. 6 are distributions corresponding to the detection optical system 5 including the objective lens 21 and the detection PSF determined by the fluorescence wavelength ⁇ em .
- the detected PSF corresponds to PSF det (r) such as equation (4).
- the distribution Q3a shown in the center graph of FIG. 6A is a distribution corresponding to the detected PSF of the detection unit 6a arranged at the position X1a among the plurality of detection units 6a.
- the distribution Q3a has a maximum (peak) at the position X1a where the detector 6a is arranged (eg, the center position of the light receiving region of the detector 6a).
- the position X1a is almost the same as the peak position X2a of the distribution Q2a corresponding to the intensity distribution of the interference fringe L2.
- the distribution Q1a corresponding to the effective PSF is a distribution obtained by multiplying the distribution Q2 corresponding to the intensity distribution of the interference fringes L2 and the distribution Q3a corresponding to the detected PSF of the detection unit 6a arranged at the position X1a.
- the position X1a of the detection unit 6a that is, the peak position of the detected PSF (peak position of the distribution Q3a) is deviated from the peak position X2a of the distribution Q2a corresponding to the intensity distribution of the interference fringe L2.
- the amount is smaller than the predetermined value (for example, the shift amount is almost 0).
- the effective PSF distribution Q1a has a single maximum (peak).
- the peak position of the distribution Q1a is almost the same as the position X1a of the detection unit 6a or the peak position X2a of the distribution Q2a corresponding to the intensity distribution of the interference fringes L2.
- the distribution Q3b shown in the graph on the left side of FIG. 6A is a distribution corresponding to the detection PSF of the detection unit 6a arranged at the position X1b among the plurality of detection units 6a.
- the distribution Q3b reaches a maximum (peak) at the position X1b where the detection unit 6a is arranged (for example, the center position of the light receiving region of the detection unit 6a).
- the position X1b is displaced from the peak position X2b of the partial distribution Q2b including the position X1b in the distribution Q2 corresponding to the intensity distribution of the interference fringe L2.
- the distribution Q1b corresponding to the effective PSF is a distribution obtained by multiplying the distribution Q2 corresponding to the intensity distribution of the interference fringe L2 and the distribution Q3b corresponding to the detected PSF of the detection unit 6a arranged at the position X1b.
- the position X1b of the detection unit 6a that is, the peak position of the detected PSF (peak position of the distribution Q3b) deviates from the peak position X2b of the distribution Q2b corresponding to the intensity distribution of the interference fringe L2.
- the amount is larger than the predetermined value.
- the distribution Q1b of the effective PSF has two maxima (peaks).
- the peak of the effective PSF may be divided into two depending on the position of the detector 6a, and such a change in the shape of the effective PSF is called collapse of the shape of the effective PSF.
- the strongest peak of the effective PSF is called the main lobe, and the other peaks are called the side lobes.
- the peak position of the main lobe of the effective PSF distribution Q1b deviates from the center position (X2a) of the detection device 6.
- the position of the main lobe of the effective PSF also shifts due to the relationship between the position (r) of the detection unit 6a of the detection device 6 and the position of the intensity distribution of the interference fringe L2.
- the displacement of the main lobe of the effective PSF is appropriately referred to as the displacement of the effective PSF.
- the distribution Q3c shown in the graph on the right side of FIG. 6A is a distribution corresponding to the detected PSF of the detection unit 6a arranged at the position X1c among the plurality of detection units 6a.
- the distribution Q3c has a maximum (peak) at the position X1c where the detector 6a is arranged (eg, the center position of the light receiving region of the detector 6a).
- the position X1c deviates from the peak position X2c of the partial distribution Q2c including the position X1c in the distribution Q2 corresponding to the intensity distribution of the interference fringes L2.
- the distribution Q1c corresponding to the effective PSF is a distribution obtained by multiplying the distribution Q2 corresponding to the intensity distribution of the interference fringes L2 and the distribution Q3c corresponding to the detected PSF of the detection unit 6a arranged at the position X1c.
- the position X1c of the detection unit 6a that is, the peak position of the detected PSF (peak position of the distribution Q3c) deviates from the peak position X2c of the distribution Q2c corresponding to the intensity distribution of the interference fringe L2.
- the amount is larger than the predetermined value.
- the distribution Q1c of the effective PSF has two maximums (peaks), the shape of the effective PSF is collapsed, and the position shift of the effective PSF occurs.
- the distribution Q3d shown in the graph on the left side of FIG. 6B is a distribution corresponding to the detection unit 6a arranged at the position X1d among the plurality of detection units 6a.
- the distribution Q3d has a maximum (peak) at the position X1d where the detector 6a is arranged (eg, the center position of the light receiving region of the detector 6a).
- the position X1d is substantially the same as the peak position X2b of the partial distribution Q2b including the position X1d in the distribution Q2 corresponding to the intensity distribution of the interference fringe L2.
- the distribution Q1d of the effective PSF has a single maximum (peak), and the peak position of the distribution Q1d is the peak position of the distribution Q2b corresponding to the position X1d of the detection unit 6a or the intensity distribution of the interference fringe L2. It becomes almost the same as X2b. That is, the shape of the effective PSF has not collapsed.
- the distribution Q3e shown in the graph on the right side of FIG. 6B is a distribution corresponding to the detection unit 6a arranged at the position X1e among the plurality of detection units 6a.
- the distribution Q3e has a maximum (peak) at the position X1e (for example, the center position of the light receiving region of the detection unit 6a) where the detection unit 6a is arranged.
- the position X1e is substantially the same as the peak position X2c of the partial distribution Q2c including the position X1e in the distribution Q2 corresponding to the intensity distribution of the interference fringes L2.
- the distribution Q1e of the effective PSF has a single maximum (peak), and the peak position of the distribution Q1e is the peak position of the distribution Q2c corresponding to the position X1e of the detection unit 6a or the intensity distribution of the interference fringe L2. It becomes almost the same as X2c. That is, the shape of the effective PSF has not collapsed.
- the image processing unit 7 uses the detection result of the detection unit 6a selected from the plurality of detection units 6a based on the magnification of the detection optical system 5 and the period (strip interval) of the interference fringes L2.
- the image processing unit 7 selects the detection unit 6a from the plurality of detection units 6a based on the peak position of the interference fringe L2 (eg, peak positions X2a, X2b, X2c in FIG. 6), and the detection result of the selected detection unit 6a.
- the peak position of the interference fringe L2 corresponds to, for example, the position where the intensity is maximum in the intensity distribution of the interference fringe L2 (eg, the central position of the bright portion).
- the image processing unit 7 uses the detection result of the detection unit 6a arranged at the position X1a corresponding to the peak position X2a as the detection result corresponding to the peak position X2a in the central graph of FIG. 6B, for example.
- the peak positions X2a, X2b, and X2c are obtained in advance by numerical simulation or the like, and are stored in the storage unit in advance.
- the image processing unit 7 selects the detection unit 6a arranged closest to the peak position X2a among the plurality of detection units 6a based on the stored information on the peak position, and displays the detection result of the selected detection unit 6a. To use.
- the image processing unit 7 may use only the detection result of the one detection unit 6a arranged at the position X1a as the detection result regarding the partial distribution Q2a including one peak in the intensity distribution of the interference fringe L2.
- the detection result of the detection unit 6a arranged at the position X1a and at least one detection unit 6a around the detection unit 6a may be used.
- the image processing unit 7 uses, for example, the detection result of the detection unit 6a arranged at the position X1d corresponding to the peak position X2b as the detection result corresponding to the peak position X2b in the graph on the left side of FIG. 6B. .. Based on the magnification of the detection optical system 5 and the cycle of the interference fringes L2, the image processing unit 7 includes a plurality of detectors 6a whose positions match the partial distribution Q2b including one peak in the intensity distribution of the interference fringes L2. Select from the detection unit 6a.
- the image processing unit 7 may detect the detection unit 6a arranged closest to the peak position X2b (for example, the detection unit arranged at the position X1d) among the plurality of detection units 6a based on the stored information about the peak position. 6a) is selected. The image processing unit 7 uses the detection result of the selected detection unit 6a as the detection result regarding the distribution Q2b.
- the image processing unit 7 may use only the detection result of one detection unit 6a arranged at the position X1d as the detection result regarding the partial distribution Q2b including one peak in the intensity distribution of the interference fringe L2.
- the detection results of the detection unit 6a arranged at the position X1d and at least one detection unit 6a around the detection unit 6a may be used.
- the effective PSF (PSFeff) corresponding to the distribution Q1d the peak position X2b of the distribution Q2b and the position X1d of the detection unit 6a are matched with each other, whereby the collapse of the shape of the effective PSF is reduced.
- the image processing unit 7 uses, for example, the detection result of the detection unit 6a arranged at the position X1e corresponding to the peak position X2c as the detection result corresponding to the peak position X2c in the graph on the right side of FIG. 6B. .. Based on the magnification of the detection optical system 5 and the period of the interference fringes L2, the image processing unit 7 includes a plurality of detectors 6a whose positions match the partial distribution Q2c including one peak in the intensity distribution of the interference fringes L2. Select from the detection unit 6a.
- the image processing unit 7 may detect the detection unit 6a (eg, the detection unit arranged at the position X1e) closest to the peak position X2c among the plurality of detection units 6a based on the stored peak position information. 6a) is selected. The image processing unit 7 uses the detection result of the selected detection unit 6a as the detection result regarding the distribution Q2c.
- the detection unit 6a eg, the detection unit arranged at the position X1e
- the image processing unit 7 uses the detection result of the selected detection unit 6a as the detection result regarding the distribution Q2c.
- the image processing unit 7 may use only the detection result of the one detection unit 6a arranged at the position X1e as the detection result regarding the partial distribution Q2c including one peak in the intensity distribution of the interference fringe L2, You may use the detection result of the detection part 6a arrange
- the peak position X2c of the distribution Q2c and the position X1e of the detection unit 6a are matched with each other, whereby the collapse of the shape of the effective PSF is reduced.
- the image processing unit 7 corrects the image misalignment (the peak position of the effective PSF eff or the misalignment of the main lobe) for each detection unit 6a with respect to the detection result of the detection unit 6a selected as described above.
- the misalignment of the image for each detection unit 6a can be obtained by theoretical calculation using various design values or from an image captured by the detection device 6 for a small object such as fluorescent beads. By correcting such misalignment, the effective PSF of the images obtained by each of the selected detection units 6a can be made substantially the same.
- the correction amount of the positional deviation may be different for each detection unit 6a.
- the PSF eff of the image obtained in this way can be approximately regarded as equivalent to the PSF eff of the detection unit (detection unit located on the optical axis) at the center position of the detection device 6.
- Equation (6) Focusing on the period direction of the interference fringes L2, that is, the k 0 direction, it can be seen from Equation (6) that the smaller the period of the interference fringes L2, the narrower the full width at half maximum of PSF eff and the better the resolution. That is, as the number of fringes (bright part) included in the periodic direction of the interference fringe L2 in the embodiment is larger, the full width at half maximum of PSF eff is narrower and the resolution is better.
- the full width at half maximum of a normal fluorescence microscope is given by 0.51 ⁇ em /NA.
- the full width at half maximum of PSF is about 1.4 times narrower than that of a normal fluorescence microscope and the resolution is good.
- the full width at half maximum of PSF is 1.5 times or more narrower than that of a normal fluorescence microscope. That is, in the embodiment, it is desirable that the bright portions included in the periodic direction of the interference fringe L2 be 3 or more. The same applies to other embodiments.
- the image processing unit 7 generates an image by adding the images having the same PSF eff .
- the image processing unit 7 can generate the image I SR (r s ) having good resolution and S/N ratio because the PSF eff of the images to be added are almost the same.
- a wide range of the detection unit 6a for use in the generation of the image I SR (r s) it is possible to increase the signal amount.
- narrowing the range of the detection unit 6a for use in the generation of the image I SR (r s) it is possible to increase the sectioning capabilities.
- the effective OTF can be obtained by Fourier transforming the above equation (7).
- the microscope according to the embodiment has a cutoff frequency of up to 2k cut conv with the OTF magnified in the direction of the interference fringes L2.
- the excitation wavelength and the fluorescence wavelength are assumed to be equal to ⁇ .
- the OTF according to the embodiment is a combination of the OTF of the ordinary fluorescence microscope and the component of the OTF of the ordinary fluorescence microscope shifted in the periodic direction of the interference fringes L2.
- the microscope 1 improves the resolution of the interference fringes L2 in the periodic direction (X direction in FIG. 1).
- the microscope 1 can also improve the resolution two-dimensionally by detecting the fluorescence from the sample S by changing the periodic direction of the interference fringes L2.
- the cycle direction of the interference fringe L2 is changed by 90°.
- the mask 15 and the polarizer 14 in the state of FIG. 2 are rotated by 90° around the Za direction.
- the super-resolution image when the periodic direction of the interference fringes L2 is the X direction and I SRx (r s)
- the super-resolution image when the periodic direction of the interference fringes L2 is the Y direction I SRy (r s)
- the image processing unit 7 by summing the I SRx (r s) and I SRy (r s), may generate a super-resolution image two-dimensionally resolution is improved.
- the image processing unit 7 may also generate a super-resolution image by the following processing.
- the image processing section 7 performs Fourier transform super-resolution image I SRx (r s) and a super-resolution image I SRy the (r s), respectively.
- the Fourier-transformed super-resolution image I SRx (r s ) is represented by I to SRx (k s ).
- the Fourier-transformed super-resolution image I SRy (r s ) is represented by I 1 to SRy (k s ).
- I 1 to SRx (k s ) the cutoff frequency increases in the periodic direction (X direction) of the interference fringes as compared with a normal fluorescence microscope.
- the cutoff frequency is increased with respect to the periodic direction of the interference fringes (Y-direction).
- the image processing unit 7 adds I 1 to SRx (k s ) and I 1 to SRy (k s ). This increases the cutoff frequency in the two directions (X direction and Y direction).
- the added effective OTF shape may be distorted depending on the combination of the directions that change the periodic direction of the interference fringes L2.
- the image processing unit 7 may apply a frequency filter for correcting the shape of the effective OTF.
- the illumination optical system 4 changes the periodic directions of the interference fringes L2 in three ways of 0 °, 120 °, and 240 °, and the detection device 6 changes each of the three periodic directions. Fluorescent L3 may be detected.
- the image processing unit 7 may generate a super-resolution image by using three detection results (for example, three images) detected by the detection device 6 in three different cycle directions. Further, the illumination optical system 4 changes the periodic direction of the interference fringe L2 in four or more ways, the detection device 6 detects the fluorescence L3 in each of the four or more periodic directions, and the image processing unit 7 has four ways.
- a super-resolution image may be generated by using four or more detection results detected by the detection device 6 in the above periodic directions.
- the method of generating a super-resolution image using a plurality of detection results obtained by changing the cycle direction of the interference fringes a plurality of times described above can also be used in the following embodiments. The same concept can be applied to the image processing described so far even when multiphoton excitation fluorescence is used.
- the effect of the pupil misalignment correction by the pupil misalignment correction element 110 will be described below.
- a part of the illumination light (excitation light L1a, L1b) may be eclipsed on the pupil surface P0 of the objective lens 21 (a part of the illumination light). May not pass through the objective pupil).
- the illumination shape collapses, the resolution and sectioning ability of the image generated by the image processing unit 7 deteriorates, and the illumination light (interference fringe L2 formed by the interference between L1a and L2a). The amount of light may decrease. Therefore, it is necessary to correct the pupil misalignment so that the illumination light is not vignetted.
- the position where the illumination light is incident on the objective pupil is shifted (shifted) in the direction perpendicular to the optical axis depending on the scanning coordinates (angles of the deflection mirrors 18a and 18b, the viewing angle) (see FIG. 7). ) Is called pupil shift.
- Is called pupil shift This is because the deflection mirrors 18a and 18b and the objective pupil conjugate position are displaced in the optical axis direction.
- FIG. 8 shows the mechanism of pupil displacement. As shown in FIG. 8A, it is assumed that a pupil conjugate position P2 that is conjugate with the objective pupil is disposed in the middle of the two deflection mirrors 18a and 18b.
- the angle of the deflecting mirror 18a When the angle of the deflecting mirror 18a is changed, as shown in FIG. 8B, the angle of the illumination light changes, but at the same time, the position where the illumination light passes through the pupil conjugate position P2 also changes. This causes the pupil to shift.
- the illumination light passing through the pupil conjugate position P2 is relayed to the pupil plane P0 of the objective lens 21 by the lenses 19 and 20.
- the pupil plane P0 of the objective lens 21 causes a pupil shift in which a part of the illumination light is vignetted.
- Figure 9 shows how the pupil shift occurs.
- the shift amount of the incident position of the illumination light on the pupil plane P0 is called the pupil shift amount.
- the X-direction pupil shift amount of the illumination light on the pupil plane P0 is ⁇ x
- the Y-direction pupil shift amount is ⁇ y.
- ⁇ x is determined depending on the angle of the deflection mirror 18a. That is, ⁇ x is determined depending on the value of the scanning coordinate xs (scanning coordinate in the X direction).
- ⁇ y is determined depending on the angle of the deflection mirror 18b. That is, ⁇ y is determined depending on the value of the scanning coordinate ys (scanning coordinate in the Y direction).
- the relationship between ⁇ x, ⁇ y and xs, ys is determined by the design value of the illumination optical system 4, and can be obtained by theoretical calculation, simulation, or the like from the design value.
- the pupil deviation correction element 110 (see FIG. 3) corrects the pupil deviation that occurs corresponding to the scanning positions (scanning coordinates xs, ys) of the deflection mirrors 18a and 18b.
- the pupil deviation can be corrected by causing the deviation in the opposite direction (shift of the illumination light) by the pupil deviation correction element 110.
- the magnification of the optical system from the pupil conjugate plane P1 to the pupil plane P0 is M p1p0 .
- one operation takes about 0.1 s, it takes about 26000 seconds only for the operation of the pupil misalignment correction element 110 while scanning the entire area. Therefore, for example, it is preferable to provide a permissible value as a predetermined value for the pupil misalignment amount and correct the pupil misalignment when the pupil misalignment amount exceeds the permissible value.
- the pupil shift amount is small, the influence is small, and as the pupil shift amount is large, the influence on the performance such as the resolution is large.
- the interference fringes are no longer present. L2 is no longer formed.
- the amount of pupil deviation until one of the divided luminous fluxes is completely vignetted can be set as an allowable value of pupil deviation.
- the permissible value of the pupil misalignment may be determined depending on how much the deterioration of resolution can be tolerated.
- Rp be the pupil radius (here, the pupil radius in the actual size in the real space, not in the wave number space).
- the values obtained by dividing the pupil deviation amounts ⁇ x and ⁇ y by the pupil radius Rp are defined as ⁇ x norm and ⁇ y norm (referred to as standardized pupil deviation amounts).
- ⁇ x norm ⁇ x/Rp
- ⁇ y norm ⁇ y/Rp.
- the standardized permissible values of the pupil misalignment amount be ⁇ x lim and ⁇ y lim .
- ⁇ x lim 0.
- ⁇ y lim 0.3
- the values of ⁇ x lim and ⁇ y lim may be set to different values depending on the permissible value of performance deterioration, the direction of the illumination fringe (interference fringe L2), the shape of the illumination pupil, and the like.
- the pupil deviation amounts ⁇ x norm and ⁇ y norm standardized by the pupil radius are used, the same values can be used regardless of the magnification, NA, and pupil diameter of the objective lens. Alternatively, a different value may be set for each objective lens.
- the range J 1 to the microscope 1 for a range J 0 scannable, pupil shift amount without a pupil misalignment correction is scannable in a state that fall within the tolerance is relatively It may become smaller. Therefore, other than the range J 1, range pupil shift amount exceeds the .delta.x lim, the .delta.y lim (e.g., range J 2 shown in FIG. 10 (B)) If you wish to observe, the observer wishes to observe ranges (observation region ) Is designated, and the pupil shift correction amount is calculated by the pupil shift correction element 110 in accordance with the designated position to perform the pupil shift correction.
- the pupil shift correction element 110 (pupil shift correction) Is unnecessary.
- the pupil misalignment correction element 110 may be used to correct an error when switching the mask 15, an error such as a change in the mask position over time, and the like.
- FIG. 11 is a flowchart showing the observation method according to the embodiment.
- the observation area is determined. This observation area is determined by, for example, an observer (user of the microscope 1). For example, the observer determines an observation region by inputting an arbitrary region on the display unit 10 of FIG. 1 with the input unit 9. Based on the determined (input) observation region (its position information), the control unit 8 of the microscope 1 calculates the pupil shift correction amount by the pupil shift correction element 110 of FIG. 3 in step S2.
- the control unit 8 causes the pupil misalignment correction device 100 (angle change drive units 113 and 114) to set the pupil misalignment correction element 110 in step S3 based on the calculated pupil misalignment correction amount.
- the control unit 8 sets the angles of the scanning mirrors (deflection mirrors 18a and 18b).
- the illumination optical system 4 of FIG. 1 irradiates the excitation light as interference fringes at a position on the sample determined by the angle of the scanning mirror set in step S4.
- the fluorescent substance of the sample is excited by the interference fringes of the excitation light.
- the detection device 6 of FIG. 5 detects the fluorescence L3 from the sample S via the detection optical system 5.
- step S7 the control unit 8 determines whether to change the angle of the scanning mirror.
- the control unit 8 determines that the processes of steps S4 to S6 have not been completed for a part of the planned observation area, it determines that the scanning mirror angle is changed in step S7 (step S7; Yes). ).
- the control unit 8 determines that the angle of the scanning mirror is changed (step S7; Yes)
- the control unit 8 returns to the process of step S4, and the control unit 8 sets the angle of the scanning mirror to the next scheduled angle. Then, the processes of steps S4 to S6 are repeated. In this way, the illumination optical system 4 scans the sample S two-dimensionally with the interference fringes of the excitation light L1.
- step S7 determines that the angle of the scanning mirror is not changed (step S7; No).
- step S8 the image processing unit 7 corrects the positional deviation of the image for each detection unit.
- the image processing unit 7 corrects the data obtained from at least one detection unit of the plurality of detection units based on the position of the detection unit. For example, the image processing unit 7 corrects the data obtained from the detection unit selected from the plurality of detection units based on the position of the detection unit.
- the image processing unit 7 uses the data obtained from the first detection unit (for example, the detection unit arranged at the position X1d in FIG. 6B) of the plurality of detection units as the first detection unit. Correction is performed based on the position (eg, X1d).
- the image processing unit 7 also generates an image using the detection results of two or more detection units. For example, in step S9, the image processing unit 7 generates an image (for example, a super-resolution image) by adding the images corrected in step S8.
- the positions of the plurality of detection units 6a of the detection device 6 may be set based on the cycle of the interference fringe L2 so as to match the peak (or maximum or bright point) position of the interference fringe L2.
- the detection device 6 may be preset so that the spacing between the detection units 6a and the fringe spacing of the interference fringes L2 match.
- the distance between the detection units 6a is the distance between the center of one detection unit 6a and the center of the detection unit 6a adjacent to the center.
- the fringe spacing of the interference fringe L2 is the spacing between the centerline of one bright portion and the centerline of the adjacent bright portion in the interference fringe L2.
- the wave number of the interference fringe L2 is k 0
- the fringe interval of the interference fringe L2 is 1 / k 0 .
- the spacing of the detection unit 6a of the detection device 6 is set to be substantially the same as P shown in the following equation (8).
- the magnification of the detection optical system 5 including the objective lens 21 is set to 1.
- the interval between the detectors 6a may be changed by the magnification and the interval between the detectors 6a may be M det / k0.
- the distance between the detectors 6a can be matched with the period of the interference fringes L2.
- the lens 24 capable of changing only the magnification of the detection optical system 5 is a zoom lens.
- the period of the interference fringes L2 may be adjusted so as to match the intervals of the plurality of detectors 6a of the detection device 6.
- the period of the interference fringes L2 can be changed by changing the intervals between the openings 15a and 15b of the mask 15.
- the microscope 1 scans the interference fringes L2 two-dimensionally by scanning the interference fringes L2 in two directions parallel to the sample surface Sa.
- the microscope 1 according to the embodiment may scan the interference fringes L2 three-dimensionally by scanning the interference fringes L2 in two directions parallel to the sample surface Sa and one direction perpendicular to the sample surface Sa.
- two-dimensional process the process of scanning the interference fringes L2 in two directions parallel to the sample surface Sa (hereinafter referred to as two-dimensional process) is the same as the process described in the above embodiment.
- the microscope 1 can generate, for example, a three-dimensional super-resolution image by changing the position in the Z direction and repeating the two-dimensional processing.
- the interference fringes L2 may be three-dimensionally scanned.
- the effective PSFs of the images obtained for each detection unit 6a are aligned by setting the intervals of the detection units 6a and the fringe intervals of the interference fringes L2 to match. Therefore, the image processing unit 7 generates images with high resolution (eg, super-resolution images) while ensuring S/N by adding images based on the detection results of two or more detection units. You can Further, since the fluorescence L3 to be detected is generated only in the vicinity of the focal plane of the objective lens 21, it is possible to accurately obtain image data on the sample surface Sa set in an arbitrary portion including the inside of the sample S. it can.
- the pupil misalignment correction is performed by the pupil misalignment correction element 110 according to the position of the field of view to be observed (scanning coordinate, angle of the scanning mirror, viewing angle), deterioration of resolution, sectioning ability, etc. due to the misalignment of the pupil is prevented. , A super-resolution image can be generated.
- the image processing unit 7 filters the data in the frequency space to generate an image.
- the image processing unit 7 performs deconvolution on the data obtained from the detection device 6 to generate an image.
- the image processing unit 7 performs deconvolution and apodization for each detection unit 6a of the detection device 6 as the above-described filtering to generate an image. That is, the image processing unit 7 performs filtering including deconvolution on the data in the frequency space.
- a series of processes of deconvolution and apodization may be collectively (generally) referred to as deconvolution.
- FIG. 12 is a diagram showing processing of the image processing unit of the microscope according to the second embodiment.
- FIG. 12A shows the PSF before deconvolution and is the same as FIG. 6A.
- the distance between the detection units 6a of the detection device 6 does not match the distance between the interference fringes L2.
- the shape of the effective PSF (solid line) of the image obtained for each detection unit 6a is deformed depending on the position of the detector 6a, as described in the above equation (6).
- the effective PSF for each detector 6a can be obtained (estimated) by theoretical calculation from the design value or by photographing a small object such as fluorescent beads.
- the image processing unit 7 uses the thus obtained effective PSF to perform deconvolution so as to correct the shape collapse and the positional deviation of the effective PSF of the image obtained for each detection unit 6a.
- Figure 12 (B) shows the PSF after deconvolution.
- reference numeral Q4a denotes an effect obtained by deconvoluting the distribution Q1a shown in the center graph of FIG. 12A, that is, the effective PSF of the detection unit 6a arranged at the position X1a.
- the amount of deviation between the position X1a of the detection unit 6a and the peak position X2a of the distribution Q2a is smaller than a predetermined value, and the distribution Q4a corresponding to the effective PSF after deconvolution corresponds to the effective PSF before deconvolution. It is almost the same as the distribution Q1a.
- reference sign Q4b is obtained by deconvoluting the distribution Q1b shown in the graph on the left side of FIG. 12A, that is, the effective PSF of the detection unit 6a arranged at the position X1b.
- reference sign Q4c indicates the distribution Q1c shown in the graph on the right side of FIG. 12(A), that is, the effective PSF of the detection unit 6a arranged at the position X1c is obtained by deconvolution.
- the effective PSFs of the detectors 6a become substantially the same as shown in the three graphs of FIG.
- the image processing unit 7 uses the result of deconvolution to generate an image.
- the processing of the image processing unit 7 will be described in more detail.
- the image processing unit 7 converts at least a part of the detection results of the plurality of detection units 6a into data on the frequency space, and uses the conversion results to generate an image (eg, a super-resolution image).
- data representing at least a part of the detection results of the plurality of detection units 6a in the frequency space is appropriately referred to as a component of the frequency space.
- the image processing unit 7 Fourier transforms at least a part of the detection results of the plurality of detection units 6a, and generates an image using the components of the frequency space obtained by the Fourier transform.
- I ⁇ of formula (9) (r, k s ) is one that I a (r, r s) obtained by Fourier transform for r s.
- Right side of the OTF eff (r, k s) is, PSF eff (r, r s ) the is obtained by Fourier transform for r s, represents the effective OTF of each detector 6a of the detector 6.
- the right-hand side of Obj ⁇ (k s) are those Obj a (r s) obtained by Fourier transform on r s.
- deconvolution methods such as the Wiener filter and Richardson-Lucy method.
- the process using the Wiener filter will be described as an example, but the image processing unit 7 may execute deconvolution by other processes.
- the deconvolution of each detection unit by the Wiener filter is represented by the following formula (10).
- a Obj ⁇ (r, k s) is distribution of the fluorescent substance estimated for each detector 6a of detecting device 6 (hereinafter, referred to as estimated fluorescent substance distribution).
- w is a Wiener parameter for suppressing noise.
- the image processing unit 7 performs apodization on Obj to (r, k s ) by the process shown in the following equation (11), adds the spectra in the detection unit 6a of the detection device 6, and adds the super-resolution image I SR ( to generate a r s).
- a (k s ) is the apodization function for suppressing the negative value of the image, called a apodization to applying the A (k s) to Obj ⁇ (r, k s) .
- the functional form of A(k s ) is designed to suppress the negative value of the image by theoretical calculation or simulation.
- F ks -1 is the inverse Fourier transform relates k s.
- the image processing unit 7 performs the inverse Fourier transform after adding the spectra of the detection units 6a, but may add the images after performing the inverse Fourier transform. In the processing of the equations (10) and (11), the image processing unit 7 deconvolves each detection unit 6a independently, and then adds the images to each detection unit 6a.
- the image processing unit 7 may perform deconvolution by combining two or more detection units 6a as in the following Expression (12).
- FIG. 13 is a flowchart showing an observation method according to the second embodiment.
- the processing from step S11 to step S17 is similar to the processing from step S1 to step S7 in FIG. 11, so description thereof will be omitted.
- the image processing unit 7 Fourier transforms the detection result of each detection unit.
- the image processing unit 7 executes deconvolution.
- the image processing unit 7 executes apodization. Apodization may be part of the deconvolution process.
- step S21 the image processing unit 7 adds the images of the detection units 6a using the result of the deconvolution.
- the image processing unit 7 generates a second image (eg, super-resolution image) by performing an inverse Fourier transform on the first image (eg, Fourier image) obtained in step S21.
- a second image eg, super-resolution image
- the image processing unit 7 performs Fourier transform on the detection result of each detection unit and executes deconvolution, thereby aligning the effective PSFs of the images obtained for each detection unit 6a. Therefore, the image processing unit 7 adds the images of the respective detection units 6a using the result of the deconvolution to generate an image with high resolution (eg, super-resolution image) while ensuring S/N. be able to. Further, the pupil misalignment correction is performed by the pupil misalignment correction element 110 according to the position of the field of view to be observed (scanning coordinate, angle of the scanning mirror, viewing angle). As a result, similarly to the first embodiment, it is possible to generate a super-resolution image while preventing a reduction in resolution, sectioning ability, etc. due to a pupil shift.
- the image processing unit 7 may change the range of the detection unit 6a to be added, as described in the first embodiment. Further, the image processing unit 7 may improve the resolution one-dimensionally or two-dimensionally as described in the first embodiment. The same idea can be applied to the image processing described so far even when multiphoton excitation fluorescence is used.
- FIG. 14 is a diagram showing processing of the image processing unit of the microscope according to the third embodiment. For each part of the microscope, refer to FIG. 1 or FIG. 5 as appropriate.
- the image processing unit 7 corrects the collapse of the shape of the effective PSF for each detection unit 6a by image processing different from that in the second embodiment.
- FIG. 14A is a PSF before image processing according to this embodiment and is similar to FIG. 6A.
- the distance between the detection units 6a of the detection device 6 does not match the distance between the interference fringes L2.
- the shape of the effective PSF (solid line) of the image obtained for each detection unit 6a is deformed depending on the position of the detector 6a, as described in the above equation (6).
- the image processing unit 7 has the interference fringes so that the peak position of the partial distribution of the intensity distribution of the interference fringes L2 (eg, Q2b shown in the graph on the left side of FIG. 14A) matches the position of the detection unit 6a.
- the phase of the intensity distribution of L2 is effectively shifted by image processing. This process is appropriately called an image processing phase shift, and the phase shift amount is called an image processing phase shift amount.
- FIG. 14B shows an effective PSF for each detection unit 6a after the image processing phase shift processing.
- the distribution Q2f is subjected to image processing phase shift so that the peak position X2b of the distribution Q2b of FIG. 14A coincides with the position X1b of the detection unit 6a.
- the peak position X2f of the distribution Q2f substantially coincides with the position X1b of the detection unit 6a.
- Reference numeral Q1f is a distribution corresponding to the effective PSF obtained from the distribution Q2f in which the phase is subjected to the image processing phase shift and the detected PSF (distribution Q3b) of the detection unit 6a arranged at the position X1b. In the distribution Q1f, the collapse of the shape of the effective PSF is reduced.
- the distribution Q2g has the phase of the distribution Q2 set to the image processing phase so that the peak position X2c of the distribution Q2c of FIG. 14A matches the position X1c of the detection unit 6a. It is a shifted distribution.
- the peak position X2g of the distribution Q2g substantially coincides with the position X1c of the detection unit 6a.
- Reference numeral Q1g is a distribution corresponding to the effective PSF obtained from the distribution Q2g in which the phase is subjected to the image processing phase shift and the detected PSF (distribution Q3c) of the detection unit 6a arranged at the position X1c. In the distribution Q1g, the collapse of the shape of the effective PSF is reduced.
- the shape of the effective PSF (solid line) for each detection unit 6a is corrected so as to be substantially the same.
- the image processing unit 7 generates an image by using an image for each detection unit 6a having an effective PSF corrected to have substantially the same shape.
- the image I(r,r s ) obtained by the detection device 6 is represented by the above equation (4).
- the following equation (13) is obtained.
- ⁇ indicates the initial phase of the interference fringe L2.
- the image processing unit 7 changes the phase of the interference fringe L2 by image processing according to the detector coordinates, and aligns the shapes of the effective PSFs.
- the microscope 1 acquires the four-dimensional image data I(r,r s ) as described in Expression (4).
- the image processing unit 7 performs a four-dimensional Fourier transform on I(r,r s ).
- the four-dimensional data of the frequency space obtained by the Fourier transform is represented by I ⁇ (k, k s ).
- the image processing unit 7, the I ⁇ (k, k s) extracts the information of one of satisfying area of formula (16) from the following equation (14).
- the region satisfying the condition of the formula (14) is referred to as the 0th-order component region AR1a
- the region satisfying the condition of the formula (15) is referred to as the + 1st-order component region AR1b
- the condition of the formula (16) is referred to.
- the area to be filled is referred to as the minus first-order component area AR1c.
- the data area AR1a the zero-order component I 0 ⁇ (k, k s ) expressed in represent data area AR1b of + 1-order component I +1 ⁇ (k, k s ) , a region of -1-order component
- the data of AR1c is represented by I ⁇ 1 to (k, k s ).
- I 0 to (k, k s ), I +1 to (k, k s ), and I -1 to (k, k s ) are data on the frequency space obtained by Fourier transform, respectively.
- the process of separating I 0 to (k, k s ) from I 0 to (k, k s ), I +1 to (k, k s ), and I ⁇ 1 to (k, k s ) is appropriately performed as component separation. To call.
- FIG. 15 is a diagram showing a region of the frequency space used for component separation in the third embodiment.
- the opening of the mask 15 may have a shape other than a circular shape.
- the range of the area AR1a of the 0th order component, the area AR1b of the +1st order component, and the area AR1c of the ⁇ 1st order component is either when the opening of the mask 15 is circular or when the opening of the mask 15 is a shape other than circular. Can also be obtained by numerical simulation, theoretical calculation, and the like.
- FIG. 15A shows each region on the k xs -kys plane.
- the 0th-order component area AR1a, the +1st-order component area AR1b, and the -1st-order component area AR1c are circular areas.
- the 0th-order component region AR1a, the + 1st-order component region AR1b, and the -1st-order component region AR1c all have the same diameter.
- the diameter of the 0th-order component region AR1a is 4 ⁇ k NA ex .
- the region AR1a of the 0th-order component is a region centered on the origin.
- the area AR1b of the +1st order component and the area AR1c of the ⁇ 1st order component are areas on the axis whose center is k xs , respectively.
- the distance A between the center and the origin of the region AR1c of the -1st order component is 2 (1- ⁇ ) k NA ex .
- the +1st-order component region AR1b is a region symmetric with respect to the -1st-order component region AR1c with respect to the 0th-order component region AR1a.
- FIG. 15B shows each region on the k xs -k x plane.
- the 0th-order component region AR1a, the + 1st-order component region AR1b, and the -1st-order component region AR1c are parallelogram regions, respectively.
- the image processing unit 7 sets the region of the frequency space in the component separation based on the light intensity distribution of the excitation light in the sample S. For example, the image processing unit 7 sets a plurality of regions that do not overlap each other based on the electric field intensity ill(r) of the excitation light on the sample surface Sa as the light intensity distribution of the excitation light on the sample S.
- the plurality of areas include three or more areas that do not overlap each other.
- the plurality of areas include the area AR1a of FIG. 15 as the first area, the area AR1b of FIG. 15 as the second area, and the area AR1c of FIG. 15 as the third area.
- the image processing unit 7 extracts each of data belonging to the first area (area AR1a), data belonging to the second area (area AR1b), and data belonging to the third area (area AR1c) from the data in the frequency space. By doing so, the components are separated.
- the image processing unit 7 performs four-dimensional inverse Fourier transform on each of I 0 to (k, k s ), I +1 to (k, k s ), and I ⁇ 1 to (k, k s ). Calculate image data in real space.
- image data obtained by performing an inverse Fourier transform on I 0 to (k, k s ) will be represented by I 0 (r, r s ).
- image data obtained by performing an inverse Fourier transform on I ⁇ 1 to (k, k s ) is represented by I ⁇ 1 (r, r s ).
- the image processing unit 7 uses the following formulas (17A) to (17C) for I 0 (r, r s ), I +1 (r, r s ), and I ⁇ 1 (r, r s ), respectively. ).
- ⁇ (r) represents the image processing phase shift amount for each position r of the detection unit 6a of the detection device 6.
- the image processing unit 7 calculates the sum of the calculation results of the three expressions (17A) to (17C), as shown in the following expression (18).
- the above equation (18) I obtained from the calculation of '(r, r s) is corrected collapse of the shape of the effective PSF for each position r of the detection unit 6a, the image shape of the effective PSF was almost identical It becomes.
- the image processing unit 7 generates an image by adding the images of the respective detection units 6a whose effective PSFs have been corrected to be substantially the same.
- F r,rs represents the Fourier transform of r and r s .
- OTF det is the Fourier transform of PSF det and represents the OTF of the detection optical system 5.
- ill ⁇ is the Fourier transform of ill
- OTF ill is the Fourier transform of PSF ill
- Obj ⁇ is the Fourier transform of Obj.
- Expression (19) is the sum of three terms, as shown in Expression (20) below.
- I 0 to (k, k s ) of the first term on the right side of the equation (20) are referred to as zero-order components
- I +1 to (k, k s ) of the second term on the right side are referred to as +1 order components
- I ⁇ 1 to (k, k s ) of the third term on the right side are called ⁇ 1st order components.
- zero-order data I 0 ⁇ component regions AR1a (k, k s), data I +1 ⁇ region AR1b of + 1-order component (k, k s), - 1 -order components of the regions AR1c Data I ⁇ 1 to (k, k s ) of the same.
- the 0th-order component, the +1st-order component, and the -1st-order component are represented by the following equations (21A) to (21C), respectively.
- the cutoff frequency of OTF det (k) is given by 2k NA em .
- the cutoff frequency of OTF ill (k) is given by 2 ⁇ k NA ex . Therefore, OTF det (k) has a value only in the range where
- OTF ill (k-k s- k 0 ) has a value only in the range where ⁇ k s- k 0 ⁇ is 2 ⁇ k NA ex or less.
- OTF ill (kk s + k 0 ) has a value only in the range where ⁇ kk s + k 0 ⁇ is 2 ⁇ k NA ex or less. When this area is illustrated, the shape shown in FIG. 15 is obtained.
- the values of the regions shown in equations (14) to (16) may be extracted.
- the 0th-order component region AR1a, the + 1st-order component region AR1b, and the -1st-order component region AR1c may be larger than the regions shown in the equations (14) to (16), respectively. It may be small. Also, when the openings 15a and 15b of the mask 15 are other than circular, the areas where the components are separated can be determined by calculating the areas where OTF det and OTF ill have values by theoretical calculation, simulation, or the like.
- Equation (21C) From the above equation (21A) k, the following equation to inverse Fourier transformation on the k s (22A) from equation (22C) is obtained.
- the image processing unit 7 performs the processes shown in the above equations (17A) to (17C) and (18) on the results of the component separation and the inverse Fourier transform. In this way, the phase of the interference fringe L2 is effectively shifted according to the detector coordinate r (image processing phase shift processing). Image processing the phase shift amount, for example, as the peak of the peak position and the interference fringes of the resulting function by the product of PSF det (r + r s) and PSF ill (r s) coincide substantially, it is determined.
- the image processing phase shift amount is determined as follows, for example.
- the image processing unit 7 calculates the positional deviation amount of the signal detected at the detector coordinate r.
- the image processing unit 7, for example, by simulation in advance, by obtaining the peak position of the obtained function by the product of PSF det (r + r s) and PSF ill (r s), calculates the position deviation amount of the.
- the misalignment of the effective PSF can be considered to be proportional to the detector coordinates r, and if the parameter representing the degree of misalignment is ⁇ , the amount of misalignment of the effective PSF can be represented by r / ⁇ .
- the value of ⁇ may be calculated from the peak position of the function obtained by the product of PSF det (r+r s ) and PSF ill (r s ) or may be calculated by another numerical simulation.
- ⁇ the amount of image processing phase shift according to the detector coordinates is determined.
- Image processing the phase shift of the interference fringe L2 [psi (r) is the peak position of the function obtained by the product of PSF det and (r + r s) and PSF ill (r s), and the peak position of the intensity distribution of the interference fringes L2 is Determined to match.
- the value of the initial phase ⁇ may be a value measured in advance using fluorescent beads or a value estimated from an observed image.
- the image processing unit 7 determines the amount of phase conversion (image processing phase shift amount) based on the light intensity distribution of the excitation light in the sample S.
- the image processing unit 7 determines the image processing phase shift amount based on the electric field intensity ill (r) of the excitation light on the sample surface Sa as the light intensity distribution of the excitation light in the sample S.
- the image processing unit 7 After performing the image processing phase shift process as described above, the image processing unit 7 performs a process of correcting the positional deviation of the effective PSF for each detector 6a.
- the effective PSFs of the images of the detection units 6a of the detection device 6 become substantially the same.
- the image processing unit 7, by adding the image for each detected portion 6a of the detection device 6 generates a super-resolution image I SR (r s). This series of processing is expressed by the following equation (23).
- PH(r) is a pinhole function defined by the following Expression (24).
- PSF SR is the effective PSF of the image obtained by the calculation of the equation (23) (r s) is expressed by the following equation (25).
- Periodic direction of the interference fringes L2 that is, when attention is paid to k 0 direction, the full width at half maximum of about PSF eff is smaller period of the interference fringes L2 from equation (25) is narrow, it can be seen that the resolution is improved. That is, as the number of fringes (bright part) included in the periodic direction of the interference fringe L2 in the embodiment is larger, the full width at half maximum of PSF eff is narrower and the resolution is better.
- the full width at half maximum of a normal fluorescence microscope is given by 0.51 ⁇ em /NA.
- the full width at half maximum of PSF is about 1.4 times narrower than that of a normal fluorescence microscope and the resolution is good.
- the full width at half maximum of PSF is 1.5 times or more narrower than that of a normal fluorescence microscope. That is, in the embodiment, it is desirable that the bright portions included in the periodic direction of the interference fringe L2 be 3 or more. The same applies to other embodiments.
- the scan interval and the interval of the detection unit 6a of the detection device 6 may be set based on the cutoff frequency and the Nyquist theorem.
- the scan interval may be set to ⁇ ex / 8 NA or less in the periodic direction of the interference fringes.
- the scan interval may be set to ⁇ ex /4NA or less in the direction perpendicular to the periodic direction of the interference fringes.
- the interval between the detection units 6a of the detection device 6 may be set to ⁇ em /4NA or less.
- the magnification of the detection optical system is different from 1, the numerical aperture on the detection device 6 side of the detection optical system 5 is set to NAd, and the size of the detection unit 6a may be set to ⁇ em /4NAd or less, for example.
- FIG. 16 is a flowchart showing the observation method according to the third embodiment.
- the processing from step S31 to step S37 is similar to the processing from step S1 to step S7 in FIG. 11, so description thereof will be omitted.
- the image processing unit 7 Fourier transforms at least a part of the detection results of the plurality of detection units 6a.
- the image processing unit 7 performs a four-dimensional Fourier transform on I(r,r s ).
- the image processing unit 7 separates the components in the frequency space.
- the image processing unit 7 separates the components of the frequency space obtained by the Fourier transform into each region of the frequency space.
- the image processing unit 7 performs an inverse Fourier transform on the separated components.
- step S41 the image processing unit 7 executes a phase shift process.
- the image processing unit 7 corrects the positional deviation of the effective PSF in step S42.
- step S43 the image processing unit 7 generates an image (eg, a super-resolution image) by adding the images obtained by correcting the positional deviation in step S42.
- the image processing unit 7 converts the phase of at least a part of the data obtained by the component separation to generate an image.
- the image processing unit 7 executes the phase shift process on the data in the real space. That is, the image processing unit 7 uses, as the data obtained by the component separation, the data (the data on the real space) obtained by converting the data on the component separation (the data on the frequency space) into the data on the real space by the inverse Fourier transform. ..
- the image processing unit 7 may perform the phase shift process in the frequency space on the data in the frequency space in which the components have been separated. The same concept can be applied to the image processing described so far even when multiphoton excitation fluorescence is used.
- the image processing unit 7 executes the phase shift process to align the effective PSFs of the images obtained by the detection units 6a. Therefore, the image processing unit 7 adds the images of the respective detection units 6a obtained by executing the phase shift process to obtain an image with high resolution (eg, super-resolution image) while ensuring S/N. Can be generated. Further, the pupil deviation correction element 110 performs pupil deviation correction according to the position of the visual field to be observed (scanning coordinates, the angle of the scanning mirror, the viewing angle). As a result, as in the first embodiment, it is possible to generate a super-resolution image while preventing a decrease in resolution, sectioning ability, etc. due to pupil displacement.
- a fourth embodiment will be described.
- the same components as those in the above-described embodiment will be designated by the same reference numerals, and the description thereof will be omitted or simplified.
- the image processing unit 7 (see FIG. 5) performs the component separation described in the third embodiment and then deconvolves the separated components to generate an image.
- OTF 0 (k, k s ), OTF +1 (k, k s ), and OTF -1 (k, k s ) are expressed by the following formulas (27A) to (27C). To.
- the image processing unit 7 performs deconvolution using the estimated values of OTF 0 (k, k s ), OTF +1 (k, k s ), and OTF -1 (k, k s ).
- deconvolution using the Wiener filter and the Richardson-Lucy method.
- processing using a Wiener filter will be described as an example of deconvolution, but deconvolution using another method may be used.
- deconvolution by the Wiener filter is represented by the following equations (28A) and (28B).
- Equations (28A) in the formula (28B) A (k s ) is the apodization function for suppressing the negative value of the image. Further, w is a Wiener parameter for suppressing noise. F ks ⁇ 1 is the inverse Fourier transform with respect to k s .
- the image processing unit 7 generates an image using the result of the above deconvolution.
- FIG. 17 is a flowchart showing an observation method according to the fourth embodiment.
- the processing from step S51 to step S57 is the same as the processing from step S1 to step S7 in FIG. 11, and the description thereof will be omitted.
- the image processing unit 7 Fourier transforms the detection result.
- the image processing unit 7 separates the components in the frequency space.
- the image processing unit 7 performs deconvolution using the components separated in the process of step S59.
- the image processing unit 7 performs apodization.
- the image processing unit 7 performs an inverse Fourier transform on the data obtained by the deconvolution and the apodization.
- the image processing unit 7 generates an image using the data obtained by the inverse Fourier transform.
- the image processing unit 7 executes component separation, deconvolution, and apodization in the frequency space, converts the data obtained by these processes into the data in the real space, and forms the image. To generate.
- the image processing unit 7 may generate an image without performing the process of correcting the positional deviation by making the effective PSFs of the detection units 6a of the detection devices 6 substantially match.
- the image processing unit 7 executes the component separation, deconvolution, and apodization in the frequency space to align the effective PSFs of the images obtained by the detection units 6a. Then, the image processing unit 7 converts the data obtained by these processes into data in the real space to generate an image, thereby ensuring an S/N and an image with high resolution (eg, super-resolution). Image) can be generated. Further, the pupil deviation correction element 110 performs pupil deviation correction according to the position of the visual field to be observed (scanning coordinates, the angle of the scanning mirror, the viewing angle). As a result, as in the first embodiment, it is possible to generate a super-resolution image while preventing a decrease in resolution, sectioning ability, etc. due to pupil displacement.
- the scan interval and the interval of the detection unit 6a of the detection device 6 may be set based on the cutoff frequency and the Nyquist theorem.
- the scan interval may be set to ⁇ ex / 8 NA or less in the periodic direction of the interference fringes.
- the scan interval may be set to ⁇ ex /4NA or less in the direction perpendicular to the periodic direction of the interference fringes.
- the interval between the detection units 6a of the detection device 6 may be set to ⁇ em /4NA or less.
- the image processing unit 7 may set the range to be integrated with respect to the above k to the range of the entire space or to a part of the range of the entire space. Further, the image processing unit 7 calculates the range of r when I 0 to (k, k s ), I +1 to (k, k s ), and I ⁇ 1 to (k, k s ) are calculated by Fourier transform. May be limited.
- Data obtained in advance by numerical simulation or the like may be used, or data (eg, estimated value) obtained from the result of detecting fluorescence from sample S by the detection device 6 may be used.
- the same idea can be applied to the image processing described so far even when multiphoton excitation fluorescence is used.
- FIG. 18 is a diagram showing a microscope 1A according to the fifth embodiment.
- the detection device 6A includes a line sensor (line detector) in which a plurality of detection units 6a are arranged one-dimensionally. The plurality of detectors 6a are arranged in one direction in the detector 6A. The detection device 6A is arranged at a position optically conjugate with the sample surface Sa.
- the direction in which the plurality of detection units 6a are arranged (hereinafter referred to as the arrangement direction) is set to the direction corresponding to the periodic direction of the interference fringes L2.
- the periodic direction of the interference fringes is the X direction
- the arrangement direction of the plurality of detection units 6a is set to the Xb direction corresponding to the X direction.
- the microscope 1A includes a ⁇ /2 wavelength plate 30 and an optical path rotating unit 31 that rotates the optical path around the optical axis.
- the ⁇ /2 wave plate 30 rotates the polarized light passing through the optical path rotating unit 31 based on the rotation angle of the optical path by the optical path rotating unit 31.
- the optical path rotating unit 31 is arranged in the optical path between the mask 15 and the sample S in the illumination optical system 4.
- the optical path rotating unit 31 is arranged, for example, at a position where the excitation light L1 becomes substantially parallel light in the optical path of the illumination optical system 4.
- the optical path rotating unit 31 is arranged, for example, at a position where the excitation light L1 passes through in the illumination optical system 4 and the fluorescence L3 passes through in the detection optical system 5.
- the optical path rotating unit 31 is arranged in the optical path between the dichroic mirror 16 and the sample S, for example.
- the ⁇ /2 wave plate 30 may be arranged on the same side as the sample S with respect to the optical path rotating unit 31, or on the side opposite to the sample S with respect to the optical path rotating unit 31 (eg, the same side as the light source for the excitation light). ).
- the optical path rotating unit 31 is, for example, an image rotator such as a Dove prism.
- the optical path rotating unit 31 is provided rotatably around the optical axis of the illumination optical system 4.
- the optical path rotating unit 31 is driven by the driving unit 32 and rotates.
- a Dove prism is used as the optical path rotating unit 31
- the optical path on the light emission side (the sample S side) from the Dove prism is directed to the Dove prism.
- the optical path on the light incident side (light source 3 side) is rotated by 2 ⁇ ° around the optical axis of the illumination optical system 4.
- the incident surface of the excitation light L1 on the sample S rotates 2 ⁇ ° around the Z direction
- the periodic direction of the interference fringes L2 rotates 2 ⁇ ° around the Z direction.
- the driving unit 32 rotates the optical path rotating unit 31 by 45 ° around the optical axis of the illumination optical system 4.
- the optical path rotating portion 31 is included in the fringe direction changing portion that changes the direction of the interference fringes with respect to the sample.
- the ⁇ /2 wavelength plate 30 is rotatably provided around the optical axis of the illumination optical system 4.
- the ⁇ / 2 wave plate 30 rotates in conjunction with the optical path rotating portion 31.
- the ⁇ / 2 wave plate 30 rotates by an angle determined based on the rotation angle of the optical path rotating portion 31.
- the ⁇ /2 wave plate 30 is fixed (eg, integrated) with the optical path rotating unit 31 and rotates together with the optical path rotating unit 31. In this case, the ⁇ /2 wave plate 30 rotates by the same angle as the rotation angle of the optical path rotating unit 31.
- the polarization direction of the excitation light L1 becomes the polarization direction on the light incident side (light source 3 side) of the illumination optical system 4.
- the polarization state of the excitation light L1 when entering the sample S becomes S-polarized.
- the optical path rotating portion 31 in FIG. 18 is also included in the image rotating portion.
- the image rotation unit rotates an image of the sample S (eg, an image of fluorescence from the sample S) with respect to the plurality of detection units 6a around the optical axis of the detection optical system 5. That is, the fringe direction changing portion and the image rotating portion include the optical path rotating portion 31 as the same member (optical member).
- the optical path rotating unit 31 is arranged at a position on the optical path of the illumination optical system 4 where fluorescence enters.
- the image rotating unit rotates the fluorescence image by the optical path rotating unit 31.
- the optical path rotation unit 31 adjusts the cycle direction of the interference fringes L2 with respect to the arrangement direction of the plurality of detection units 6a in the detection device 6A.
- the Dove prism When the Dove prism is used as the optical path rotating unit 31, when the Dove prism is rotated by ⁇ ° around the optical axis of the illumination optical system 4, the cycle direction of the interference fringes L2 is rotated by 2 ⁇ ° around the Z direction. Then, the optical path of the fluorescence L3 from the sample S rotates ⁇ 2 ⁇ ° on the light emission side (detection device 6A side) with respect to the light incident side (sample S side) on the Dove prism.
- the optical path of light toward the sample S through the dub prism is rotated, and the periodic direction of the interference fringe L2 with respect to the sample S changes.
- the optical path of the light traveling from the sample S to the detection device 6A via the Dove prism rotates in the opposite direction to the optical path of the light traveling to the sample S by the same angle. Therefore, when the images of the plurality of detection units 6a (eg, the line detector) in the detection device 6A are projected onto the sample surface Sa via the detection optical system 5, the direction in which the plurality of detection units 6a are lined up and the periodic direction of the interference fringes. Always matches even when the periodic direction of the interference fringes is changed by the dub prism.
- the detection device 6A can detect the fluorescence L3 in the same manner before and after the change in the periodic direction of the interference fringe L2.
- the image processing unit 7 generates an image (for example, a super-resolution image) by the processing described in the first to fourth embodiments based on the detection result of the detection device 6A.
- the driving unit 22 changes the periodic direction of the interference fringes L2 by rotating the mask 15, but the interference fringes are changed by the above-mentioned optical path rotating unit 31 (eg, dub prism). You may change the period direction of L2.
- the fringe direction changing unit that changes the cycle direction of the interference fringes L2 may be different from both the drive unit 22 and the optical path rotating unit 31.
- the stage 2 may be rotatably provided around the Z direction, and the rotation may change the direction of the interference fringes L2 with respect to the sample S.
- the stage 2 is included in the fringe direction changing portion that changes the direction of the interference fringe L2 with respect to the sample S.
- the microscope 1B shown in FIG. 19 is a modification of the microscope 1A according to the fifth embodiment, and the position at which the optical path rotating unit 31 is provided is different from that of the microscope 1A shown in FIG.
- the stripe direction changing unit is the same as in the first embodiment and includes the mask 15 and the driving unit 22.
- the optical path rotating unit 31 serves both as the stripe direction changing unit and the image rotating unit, but in the microscope 1B shown in FIG. 19, the optical path rotating unit 31 is provided separately from the stripe direction changing unit.
- the optical path rotating unit 31 is arranged at a position in the optical path of the detection optical system 5 that does not overlap with the optical path of the illumination optical system 4.
- the optical path rotating unit 31 is arranged at a position where the excitation light L1 does not enter and the fluorescence L3 enters.
- the optical path rotating unit 31 is arranged in the optical path between the dichroic mirror 16 and the detection device 6A.
- the driving unit 22 rotates the mask 15 and the polarizer 14 to change the period direction of the interference fringe L2.
- the drive unit 32 rotates the optical path rotation unit 31 by an angle determined based on the rotation angle of at least one of the mask 15 and the polarizer 14.
- the driving unit 32 rotates the optical path rotating unit 31 to align the direction of the image projected on the detection device 6A with respect to the direction in which the plurality of detecting units 6a are lined up.
- the fifth embodiment it is possible to align the effective PSFs of the images obtained for each detection unit 6a by any of the processes described in the first to fourth embodiments. Therefore, it is possible to generate an image (for example, a super-resolution image) with high resolution while ensuring S/N. Further, the pupil deviation correction element 110 performs pupil deviation correction according to the position of the visual field to be observed (scanning coordinates, the angle of the scanning mirror, the viewing angle). As a result, as in the first to fourth embodiments, it is possible to generate a super-resolution image while preventing a decrease in resolution, sectioning ability, etc. due to pupil deviation.
- FIG. 20 is a diagram showing a microscope 1C according to the sixth embodiment.
- the microscope 1C according to the sixth embodiment includes a light blocking member 33.
- the light shielding member 33 is arranged at a position optically conjugate with the sample surface Sa or in the vicinity thereof.
- the detection device 6A includes a line sensor in which a plurality of detection units 6a are one-dimensionally arranged, as in the fifth embodiment.
- the detection device 6A is arranged at a position optically conjugate with the sample surface Sa, and the light shielding member 33 is arranged near the detection device A6.
- the light blocking member 33 may be arranged at a position conjugate with the sample surface Sa or in the vicinity thereof.
- the light shielding member 33 has an opening 33a through which the fluorescence L3 passes, and shields the fluorescence L3 around the opening 33a.
- the opening 33a extends in the arrangement direction (Xb direction) of the plurality of detection units 6a in the detection device 6A.
- the opening 33a is, for example, a rectangular slit.
- the light shielding member 33 is arranged such that the long side of the opening 33a is substantially parallel to the arrangement direction of the plurality of detection units 6a.
- One or both of the size and the shape of the opening 33a may be variable in the light blocking member 33.
- the light blocking member 33 may be a mechanical diaphragm having a variable light blocking region or a spatial light modulator (SLM). ..
- SLM spatial light modulator
- One or both of the size and the shape of the opening 33a may be fixed.
- the detection device 6A detects the fluorescence L3 that has passed through the opening 33a of the light shielding member 33.
- the image processing unit 7 generates an image based on the detection result of the detection device 6.
- the process performed by the image processing unit 7 may be any of the processes described in the first to fourth embodiments. Here, a process of effectively shifting the phase of the intensity distribution of the interference fringe L2 by image processing will be described.
- the image data I corresponding to the detection result of the detection device 6A (x, r s) is expressed by the following equation (29).
- I(x, r s ) is three-dimensional data having detector coordinates x corresponding to the position of the detection unit 6a in the detection device 6A and scan coordinates (x s , y s ) as independent variables.
- PH y (y s) is a pinhole function representing the effect of the light shielding member 33.
- PH y (y s ) is represented by the following formula (30).
- D y is half the width of the opening 33a of the light shielding member 33 in the Yb direction (see FIG. 20). That is, the width of the opening 33a of the light shielding member 33 in the Yb direction (see FIG. 20) is 2D y .
- I to 0 (k x , k xs , kys ) correspond to the 0th-order components described in the third embodiment, and I to +1 (k x , k xs ,). kys ) corresponds to the + 1st order component, and I to -1 (k x , k xs , kys ) corresponds to the -1st order component.
- Regions having values I to 0 (k x , k xs , k ys ), I to +1 (k x , k xs , k ys ), and I to ⁇ 1 (k x , k xs , k ys ) are mutually adjacent. different.
- FIG. 21 is a diagram showing a region of the frequency space used for component separation in the sixth embodiment. 0-order component, + 1-order component, and range in k ys direction of a region where each of the -1-order component has a value dependent on the PH y ⁇ and OTF det.
- FIG. 21 shows a region in which each component has a value when the openings 15a and 15b of the mask 15 (see FIG. 2) are circular.
- the opening of the mask 15 has a shape other than a circle, it is possible to obtain the Fourier transform of ill and calculate the range of the region in which each component has a value based on the equation (31).
- analytical calculation or numerical simulation may be used as a method for calculating the range of the area where each component has a value.
- the zero-order component of the region AR1a, + 1-order components of the regions AR1b, region AR1c -1-order component is an area of each oval shape in k xs -k ys surface.
- the 0th-order component region AR1a, the + 1st-order component region AR1b, and the -1st-order component region AR1c all have the same width in the k xs direction on the k xs ⁇ k ys plane.
- the width of the 0th-order component region AR1a is 4 ⁇ k NA ex .
- the region AR1a of the 0th-order component is a region centered on the origin.
- the area AR1b of the +1st order component and the area AR1c of the ⁇ 1st order component are areas on the axis whose center is k xs , respectively.
- the distance between the center of the area AR1c of the ⁇ 1st order component and the origin is 2(1 ⁇ )k NA ex .
- the area AR1c of the +1st order component is an area symmetrical to the area AR1c of the ⁇ 1st order component with respect to the area AR1a of the 0th order component.
- the image processing unit 7 extracts each component from I 1 to (k x , k xs , k ys ). For example, the portion 7, the separation by extracting the data of the I ⁇ (k x, k xs , k ys) region of the zero-order component from AR1a, I 0 ⁇ (k x , k xs, k ys) of To do.
- the image processing unit 7 by extracting the data of the I ⁇ (k x, k xs , k ys) from the -1-order component region AR1c, I -1 ⁇ (k x , k xs, k ys) To separate.
- Data obtained by inverse Fourier transforming I 0 to (k x , k xs , k ys ) is represented by I 0 (x, x s , y s ) and I +1 to (k x , k xs , k ys ) is inverse Fourier transformed.
- the image processing unit 7 uses at least a part of the data of each component in the real space obtained as described above so that the effective PSFs of the detection units 6a of the detection device 6A are aligned with the detector coordinates.
- the phase of the interference fringes is effectively shifted by image processing.
- the image processing unit 7 performs the image processing phase shift process by the calculations shown in the following formulas (34A) to (34C) and (35).
- the image processing unit 7 performs a correction process for correcting the misalignment as in the third embodiment. Further, the image processing unit 7 generates a super-resolution image by adding the images of the detection units after the correction processing. The same idea can be applied to the image processing described so far even when multiphoton excitation fluorescence is used.
- the sixth embodiment it is possible to align the effective PSFs of the images obtained by the detection units 6a by any of the processes described in the first to fourth embodiments. Therefore, it is possible to generate an image (for example, a super-resolution image) with high resolution while ensuring S/N. Further, the pupil deviation correction element 110 performs pupil deviation correction according to the position of the visual field to be observed (scanning coordinates, the angle of the scanning mirror, the viewing angle). As a result, as in the first to fourth embodiments, it is possible to generate a super-resolution image while preventing a decrease in resolution, sectioning ability, etc. due to pupil deviation.
- FIG. 22 is a diagram showing a microscope 1D according to the seventh embodiment.
- the microscope 1D according to the seventh embodiment includes a drive unit 22 and a drive unit 34.
- the drive unit 22 is similar to that of the first embodiment.
- the drive unit 22 rotates the mask 15 to change the cycle direction of the interference fringe L2.
- the driving unit 22 is included in the fringe direction changing unit that changes the direction of the interference fringe L2 with respect to the sample S.
- the detection device 6A includes a line sensor in which a plurality of detection units 6a are one-dimensionally arranged, as in the sixth embodiment.
- the detection device 6A is arranged at a position optically conjugate with the sample surface Sa, and the light shielding member 33 is arranged in the vicinity of the detection device 6A.
- the detector 6A is rotatable around the Zb direction.
- the drive unit 34 rotates the detection device 6 around the Zb direction.
- the drive unit 34 rotates the detection device 6A so that the arrangement direction of the detection units 6a in the detection device 6A corresponds to the cycle direction of the interference fringes L2. For example, when the drive unit 22 rotates the mask 15 by 90°, the cycle direction of the interference fringes L2 changes by 90°, so the drive unit 34 rotates the detection device 6A by 90°.
- the drive unit 34 rotates the light-shielding member 33 so that the relative position between the detection device 6A and the light-shielding member 33 is maintained.
- the light blocking member 33 and the detection device 6A are integrated, and the drive unit 34 integrally rotates the light blocking member 33 and the detection device 6A.
- the detection device 106 detects the fluorescence L3 that has passed through the opening 33a of the light-shielding member 33.
- the processing regarding the detector coordinates can be the image processing corresponding to the one-dimensional coordinate system. Therefore, the image processing described in the first to fourth embodiments can be applied to the case of the seventh embodiment as well as the fifth embodiment.
- the image processing unit 7 generates an image (for example, a super-resolution image) by one of the processes described in the first to fourth embodiments based on the detection result of the detection device 106.
- the effective PSFs of the images obtained for each detection unit 6a can be aligned by any of the processes described in the first to fourth embodiments. Therefore, it is possible to generate an image (for example, a super-resolution image) with high resolution while ensuring S/N. Further, the pupil deviation correction element 110 performs pupil deviation correction according to the position of the visual field to be observed (scanning coordinates, the angle of the scanning mirror, the viewing angle). As a result, as in the first to fourth embodiments, it is possible to generate a super-resolution image while preventing a decrease in resolution, sectioning ability, etc. due to pupil deviation.
- the microscope 1D according to the seventh embodiment may include the optical path rotating unit 31 shown in FIG. 19 instead of rotating the detection device 6A. Further, the microscope 1D does not have to include the light-shielding member 33 as shown in FIG.
- FIG. 23 is a diagram showing a microscope 1E according to the eighth embodiment.
- the example in which the illuminated pupil is divided into two poles (two regions) on the pupil surface P0 (see FIG. 2C) has been described, but the illuminated pupil may be in another form.
- a form in which the illumination pupil is divided into four poles (four regions) on the pupil plane will be described.
- the illumination optical system 4A according to the eighth embodiment has a collimator lens 12, a ⁇ /2 wavelength plate 35, a polarization separation element 36, a mirror 37, a mask 38 (aperture member), a mirror 39, on the light emission side of the optical fiber 11. It includes a mask 40 (opening member) and a polarization separating element 41. Further, the illumination optical system 4A according to the eighth embodiment includes the pupil misalignment correction device 100, the dichroic mirror 16, the relay optical system 17, the scanning unit 18, the lens 19, the lens 20, and the objective lens, as in the first embodiment. 21 is provided. The optical axis 21a of the objective lens 21 coincides with the optical axis 4Aa of the illumination optical system 4A.
- the excitation light L1 emitted from the optical fiber 11 is converted into substantially parallel light by the collimator lens 12 and enters the ⁇ /2 wavelength plate 35.
- the excitation light L1 that has passed through the ⁇ / 2 wave plate 35 includes the excitation light L1c that is linearly polarized light in the first direction and the excitation light L1d that is linearly polarized light in the second direction.
- the ⁇ /2 wave plate 35 has its optical axis (fast axis, slow axis) direction set such that the light quantity of the pump light L1c and the light quantity of the pump light L1d have a predetermined ratio.
- the excitation light L1 (excitation light L1c and excitation light L1d) that has passed through the ⁇ / 2 wave plate 35 is incident on the polarization separation element 36.
- the polarization separation element 36 has a polarization separation film 36a tilted with respect to the optical axis 12a of the collimator lens 12.
- the polarization separation film 36a has a characteristic that linearly polarized light in the first direction is reflected and linearly polarized light in the second direction is transmitted.
- the polarization separating element 36 is, for example, a polarization beam splitter prism (PBS prism).
- the linearly polarized light in the first direction is S polarized light with respect to the polarization separation film 36a.
- the linearly polarized light in the second direction is P-polarized light with respect to the polarization separation film 36a.
- the excitation light L1c which is S-polarized light with respect to the polarization separation membrane 36a, is reflected by the polarization separation membrane 36a and is incident on the mask 38 via the mirror 37.
- the P-polarized excitation light L1d for the polarization separation film 36a passes through the polarization separation film 36a and enters the mask 40 via the mirror 39.
- the mask 38 and the mask 40 are luminous flux dividing portions that divide the excitation light that excites the fluorescent substance into a plurality of luminous fluxes. The mask 38 and the mask 40 will be described later with reference to FIG. 24.
- the excitation light L1c that has passed through the mask 38 and the excitation light L1d that has passed through the mask 40 respectively enter the polarization separation element 41.
- the polarization separation element 41 has a polarization separation membrane 41a inclined with respect to the optical path of the excitation light L1c and the optical path of the excitation light L1d.
- the polarization separation film 41a has a characteristic that linearly polarized light in the first direction is reflected and linearly polarized light in the second direction is transmitted.
- the polarization separating element 41 is, for example, a polarization beam splitter prism (PBS prism).
- the linearly polarized light in the first direction is S polarized light with respect to the polarization separation film 41a.
- the linearly polarized light in the second direction is P polarized light with respect to the polarization separation film 41a.
- the excitation light L1c is S-polarized with respect to the polarization separation film 41a, is reflected by the polarization separation film 41a, and enters the dichroic mirror 16.
- the excitation light L1d is P-polarized with respect to the polarization separation film 41a, passes through the polarization separation film 41a, and enters the dichroic mirror 16.
- one or both of the polarization separation element 36 and the polarization separation element 41 may not be the PBS prism.
- One or both of the polarization separating element 36 and the polarization separating element 41 may be a photonic crystal having different reflection and transmission between TE polarized light and TM polarized light.
- FIG. 24 is a diagram showing the mask and the polarization state of the excitation light according to the eighth embodiment.
- the Xc direction, the Yc direction, and the Zc direction are directions corresponding to the X direction, the Y direction, and the Z direction on the sample surface Sa (see FIG. 23 ), respectively.
- the mask 38 has an opening 38a and an opening 38b.
- the openings 38a and 38b are arranged in the Xc direction.
- the openings 38a and 38b are, for example, circular, but may have shapes other than circular.
- the mask 38 is arranged at or near the position of the pupil conjugate plane P1 which is optically conjugate with the pupil plane P0 of the objective lens 21.
- the Xd direction, the Yd direction, and the Zd direction are the directions corresponding to the X direction, the Y direction, and the Z direction on the sample surface Sa (see FIG. 23), respectively.
- the mask 40 is arranged at or near the pupil plane conjugate plane.
- the mask 40 has an opening 40a and an opening 40b.
- the openings 40a and 40b are arranged in the Yd direction.
- the openings 40a and 40b are, for example, circular, but may have shapes other than circular.
- the mask 38 or the mask 40 is arranged at or near the position of the pupil conjugate plane P1 optically conjugate with the pupil plane P0 of the objective lens 21.
- the vicinity of the pupil conjugate surface optically conjugate with the pupil surface P0 of the objective lens 21 is a range in which the excitation light L1 can be regarded as a parallel ray in the region including the pupil conjugate surface.
- the excitation light L1 is a Gaussian beam
- it can be sufficiently regarded as a parallel light ray within a range within 1/10 of the Rayleigh length from the beam waist position.
- Rayleigh length of the wavelength of the excitation light L1 lambda, when the beam waist radius was w 0, is given by ⁇ w 0 2 / ⁇ .
- the wavelength of the excitation light L1 is 1 ⁇ m and the beam waist radius is 1 mm
- the Rayleigh length is about 3 m
- the mask 38 or the mask 40 is 300 mm near the pupil conjugate plane optically conjugate with the pupil plane P0 of the objective lens 21. It may be placed within.
- the mask 38 or the mask 40 may be arranged at or near the pupil plane P0.
- reference numeral AR2a is a region on the pupil plane P0 of the objective lens 21 where the excitation light L1c that has passed through the opening 38a of the mask 38 is incident.
- Reference numeral AR2b is a region on the pupil surface P0 where the excitation light L1c passing through the opening 38b of the mask 38 is incident.
- the arrows in the regions AR2a and AR2b indicate the polarization directions of the incident excitation light L1c.
- the area AR2a and the area AR2b are arranged in the X direction.
- the excitation light L1c incident on the region AR2a and the excitation light L1c incident on the region AR2b are linearly polarized light in the Y direction, respectively.
- the excitation light L1c entering the area AR2a and the excitation light L1c entering the area AR2b have the same polarization direction and interfere with each other on the sample surface Sa (see FIG. 23). Due to this interference, interference fringes whose periodic direction is the X direction are formed on the sample surface Sa.
- the incident surface of the excitation light L1c with respect to the sample surface Sa is the XZ surface, and the excitation light L1c is incident on the sample S with S polarization.
- the reference numeral AR2c is a region on the pupil surface P0 where the excitation light L1d passing through the opening 40a of the mask 40 is incident.
- Reference numeral AR2d is a region on the pupil plane P0 on which the excitation light L1d passing through the opening 40b of the mask 40 is incident.
- the arrows in the regions AR2c and AR2d indicate the polarization direction of the incident excitation light L1d.
- the area AR2c and the area AR2d are arranged in the Y direction.
- the excitation light L1d incident on the area AR2c and the excitation light L1d incident on the area AR2d are each linearly polarized in the X direction.
- the excitation light L1d incident on the region AR2c and the excitation light L1d incident on the region AR2d have the same polarization direction and interfere with each other on the sample surface Sa (see FIG. 23). Due to this interference, interference fringes whose periodic direction is the Y direction are formed on the sample surface Sa.
- the incident surface of the excitation light L1d on the sample surface Sa is the YZ plane, and the excitation light L1c is incident on the sample S as S-polarized light.
- the pupil deviation correction device 100 advances the light flux (excitation light L1c divided by the mask 38 and the excitation light L1d divided by the mask 40) from the polarization separation element 41, if necessary. Eye shift correction is performed by shifting in a direction perpendicular to the direction.
- an interference fringe L2 that is a combination of the interference fringe due to the interference of the excitation light L1c and the interference fringe due to the interference of the excitation light L1d is formed. Since the polarization directions of the excitation light L1c and the excitation light L1d are substantially orthogonal to each other, interference between the excitation light L1c and the excitation light L1d is suppressed.
- the detection device 6 detects the fluorescence L3 from the sample S via the detection optical system 5.
- the detection device 6 is an image sensor in which a plurality of detection units 6a are arranged in two directions, an Xb direction and a Yb direction.
- the image processing unit 7 generates an image (for example, a super-resolution image) by any of the processes described in the first to fourth embodiments based on the detection result of the detection device 6.
- a process for substantially shifting the phase of the intensity distribution of the interference fringes L2 by image processing will be described.
- FIG. 25 is a diagram showing a pupil conjugate plane according to the eighth embodiment and a frequency space region used for component separation.
- the pupil conjugate plane P1 is represented by the wave number coordinate space.
- the k NA ex (circle drawn by the dotted line) shown in FIG. 25A is the pupil radius of the objective lens 21.
- the regions AR2a and AR2b in which the excitation light L1c is incident and the regions AR2c and AR2d in which the excitation light L1d is incident are assumed to be circular, respectively, but are not limited to circular.
- the radius of each of the areas ARa to ARd is ⁇ k NA ex .
- the distance between the center of each region from the region ARa to the region ARd and the optical axis 21a of the objective lens 21 is (1- ⁇ ) k NA ex .
- the distance between the center of the region AR2a and the center of the region AR2b is, for example, 2 (1- ⁇ ) k NA ex , but is not limited to this value.
- the distance between the center of the region AR2c and the center of the region AR2d is, for example, 2 (1- ⁇ ) k NA ex , but is not limited to this value.
- the electric field strength ill(r) on the sample surface Sa is expressed by the following equation (36).
- k 0x and k 0y are wave number vectors of the interference fringe L2, respectively.
- the illumination pupil has four poles, and the interference fringes whose periodic direction is the X direction are added to the interference fringes whose periodic direction is the Y direction.
- the image data I(r,r s ) obtained by the detection device 6 is expressed by the following equation (37).
- OTF det is the Fourier transform of PSF det , and represents the OTF of the detection optical system 5.
- ill ⁇ is a Fourier transform of the ill.
- OTF ill is a Fourier transform of PSF ill .
- ⁇ x and ⁇ y are the initial phase of the interference fringe L2 in the X direction and the initial phase of the interference fringe L2 in the Y direction, respectively.
- Obj 1 to Obj are Fourier transforms of Obj.
- Expression (38) is the sum of five terms as shown in Expression (39) below.
- the code AR3a is an area in which data of the 0th order component exists (hereinafter referred to as an area of the 0th order component).
- Reference numeral AR3b is an area in which data of the +first-order component in the X direction exists (hereinafter referred to as an area of the +first-order component in the X direction).
- Reference numeral AR3c is an area in which the data of the ⁇ first order component in the X direction exists (hereinafter referred to as the area of the ⁇ first order component in the X direction).
- Reference numeral AR3d is an area in which data of the +first-order component in the Y direction is present (hereinafter referred to as an area of the +first-order component in the Y direction).
- Reference numeral AR3e is an area in which the data of the ⁇ first order component in the Y direction exists (hereinafter referred to as the area of the ⁇ first order component in the Y direction).
- the region AR3a of the 0th-order component is represented by the following formula (41).
- the area AR3b of the +1st order component in the X direction is expressed by the following equation (42).
- the area AR3c of the ⁇ 1st order component in the X direction is expressed by the following equation (43).
- the area AR3d of the +1st order component in the Y direction is represented by the following equation (44).
- the area AR3e of the ⁇ first-order component in the Y direction is expressed by the following equation (45).
- the image processing unit 7 extracts each component by filtering from I 1 to (k, k s ) obtained by the Fourier transform. For example, the image processing unit 7 extracts data in a region satisfying the above equation (41) from I to (k, k s ) as a 0th-order component. Further, the image processing unit 7 extracts data in a region satisfying the above equation (42) from I to (k, k s ) as a +1st order component in the X direction. Further, the image processing unit 7 extracts the data in the region satisfying the above equation (43) from I to (k, k s ) as a -1st order component in the X direction.
- the image processing unit 7 extracts data in the region of I to (k, k s ) satisfying the above equation (44) as a +1st order component in the Y direction. Further, the image processing unit 7 extracts the data in the region satisfying the above equation (45) from I to (k, k s ) as a -1st order component in the Y direction.
- the image processing unit 7 calculates the data of each component in the real space by performing an inverse Fourier transform on each extracted component.
- a zero-order component in the real space I 0 (r, r s) in represents the X direction of + first order components in the real space I + 1, x (r, r s) in, the X direction in the real space
- the ⁇ 1 st order component is represented by I ⁇ 1,x (r, r s ).
- it represents the Y direction of the + primary components in the real space I + 1, y (r, r s) in the Y direction -1-order component in the real space I -1, expressed by y (r, r s).
- the image processing unit 7 uses at least a part of the data of each component in the real space obtained as described above, and adjusts the effective PSF for each detection unit 6a of the detection device 6 to the detector coordinates.
- the phase of the interference fringes is effectively shifted by image processing (image processing phase shift processing).
- the image processing unit 7 performs the calculations shown in the following formulas (46A) to (46E) to calculate the +first order component in the X direction, the ⁇ 1st order component in the X direction, the +1st order component in the Y direction, and the Y direction in the real space.
- the phase is shifted for each of the -1st order components of.
- ⁇ x (r) is the image processing phase shift amount for each of the +1st order component and the ⁇ 1st order component in the X direction.
- ⁇ y (r) is the amount of phase shift for each of the +1st order component and the -1st order component in the Y direction.
- Phase shift amount of the is set, for example, so that the peak position of the function obtained by the product of the PSF det (r + r s) and PSF ill (r s), and the peak position of the interference fringes L2 coincide.
- the image processing unit 7 adds each component as shown in the following formula (47) after the phase shift processing for each component.
- the image processing unit 7 performs a correction process of correcting the positional deviation for each detection unit 6a. Then, the image processing unit 7 generates a super-resolution image by adding the corrected data.
- the region used for component separation is not limited to the regions represented by the above formulas (42) to (45).
- the region used for component separation may be larger or smaller than the region shown in the above formulas (42) to (45).
- at least one of the openings 38a and 38b of the mask 38 and the openings 40a and 40b of the mask 40 does not have to be circular.
- the region used for component separation can be obtained by numerical simulation, theoretical calculation, or the like regardless of whether the opening of the mask is circular or the opening of the mask is a shape other than circular.
- the process performed by the image processing unit 7 may be any of the processes described in the first to fourth embodiments.
- the above equation (28) has three components, but in the present embodiment, the 0th order component, the +1st order component in the X direction, It is sufficient to use the ⁇ 1st order component in the X direction, the +1st order component in the Y direction, and the ⁇ 1st order component in the Y direction.
- the same idea can be applied to the image processing described so far even when multiphoton excitation fluorescence is used.
- the effective PSFs of the images obtained by the detection units 6a can be aligned by any of the processes described in the first to fourth embodiments. Therefore, it is possible to generate an image (for example, a super-resolution image) with high resolution while ensuring S/N.
- the pupil deviation correction element 110 performs pupil deviation correction according to the position of the visual field to be observed (scanning coordinates, the angle of the scanning mirror, the viewing angle). As a result, as in the first to fourth embodiments, it is possible to generate a super-resolution image while preventing deterioration in resolution, sectioning ability, etc. due to pupil misalignment.
- FIG. 26 is a diagram showing a microscope 1F according to the ninth embodiment.
- the microscope 1F according to the ninth embodiment has the same configuration as the microscope 1E according to the eighth embodiment.
- the microscope 1F according to the ninth embodiment includes the ⁇ / 2 wave plate 30 and the optical path rotating portion 31 described with reference to FIG.
- the optical path rotating unit 31 is driven by the driving unit 32 and rotates around the optical axis of the illumination optical system 4A.
- the optical path rotating unit 31 rotates, the optical path of the excitation light L1c and the optical path of the excitation light L1d rotate around the optical axis of the illumination optical system 4A. As a result, the periodic direction of the interference fringe L2 formed on the sample surface Sa rotates around the Z direction.
- FIG. 27 is a diagram showing the polarized state of the excitation light according to the ninth embodiment.
- the regions AR4a on which the excitation light L1c is incident on the pupil surface P0 are arranged in the X direction.
- the area AR4b and the area AR4b on which the excitation light L1d is incident on the pupil plane P0 are arranged in the Y direction.
- FIG. 27 (B) corresponds to a state in which the dub prism (optical path rotating portion 31 in FIG. 26) and the ⁇ / 2 wave plate 30 are rotated by 22.5 ° from the state of FIG. 27 (A).
- the regions AR4a on the pupil plane P0 on which the excitation light L1c enters are arranged in the direction rotated by 45° from the X direction.
- the periodic direction of the interference fringes of the excitation light L1c on the sample surface Sa is a direction rotated by 45° from the X direction.
- the regions AR4b on the pupil plane P0 on which the excitation light L1d is incident are arranged in the direction rotated by 45° from the Y direction.
- the periodic direction of the interference fringes of the excitation light L1d on the sample surface Sa is a direction rotated by 45° from the Y direction.
- the detection device 6 detects the fluorescence L3 from the sample S before and after the cycle direction of the interference fringes L2 is changed.
- the image processing unit 7 starts from the first embodiment based on the detection result of the detection device 6 before the change of the periodic direction of the interference fringe L2 and the detection result of the detection device 6 after the change of the periodic direction of the interference fringe L2.
- An image eg, super-resolution image
- the optical path rotating unit 31 may be arranged in the optical path between the dichroic mirror 16 and the detection device 6, as described with reference to FIG.
- the effective PSF of the image obtained for each detection unit 6a can be made uniform by any of the processes described in the first to fourth embodiments. Therefore, it is possible to generate an image (for example, a super-resolution image) with high resolution while ensuring S/N. Further, the pupil deviation correction element 110 performs pupil deviation correction according to the position of the visual field to be observed (scanning coordinates, the angle of the scanning mirror, the viewing angle). As a result, as in the first to fourth embodiments, it is possible to generate a super-resolution image while preventing a decrease in resolution, sectioning ability, etc. due to pupil deviation.
- the tenth embodiment will be described.
- the same components as those in the above-described embodiment will be designated by the same reference numerals, and the description thereof will be omitted or simplified.
- the microscope 1F according to the ninth embodiment changes the periodic direction of the interference fringes L2 by the optical path rotating unit 31, but the fringe direction changing unit that changes the periodic direction of the interference fringes L2 may be different from the optical path rotating unit 31. Good.
- FIG. 28 is a diagram showing a microscope 1G according to the tenth embodiment.
- FIG. 29 is a diagram showing a mask according to the tenth embodiment.
- the microscope 1G according to the tenth embodiment includes a driving unit 45 and a driving unit 46.
- the mask 38 is rotatable around the optical axis of the illumination optical system 4A.
- the mask 38 is driven by the drive unit 45 and rotates (see FIG. 29 (A)). In FIG. 29 (A), the mask 38 is rotated clockwise by 45 °.
- the mask 40 is rotatable around the optical axis of the illumination optical system 4A.
- the mask 40 is driven by the drive unit 46 and rotates (see FIG. 29 (B)).
- the drive unit 46 rotates the mask 40 by the same angle as the drive unit 45 rotates the mask 38.
- the mask 40 is rotated clockwise by 45 °.
- the periodic direction of the interference fringes L2 on the sample surface Sa rotates 45° around the Z direction.
- a ⁇ /2 wavelength plate 48 is provided in the optical path between the polarization separation element 41 and the dichroic mirror 16.
- the ⁇ /2 wave plate 48 is driven by the drive unit 49 and rotates around the optical axis of the illumination optical system 4.
- the ⁇ /2 wave plate 48 and the drive unit 49 adjust the excitation light L1c and the excitation light L1d so that they are incident on the sample S as S-polarized light.
- the detection device 6 detects the fluorescence L3 from the sample S before and after the period direction of the interference fringes L2 is changed, as in the ninth embodiment.
- the image processing unit 7 starts from the first embodiment based on the detection result of the detection device 6 before the change of the periodic direction of the interference fringe L2 and the detection result of the detection device 6 after the change of the periodic direction of the interference fringe L2.
- An image eg, super-resolution image is generated by any of the processes described in the fourth embodiment.
- the effective PSF of the image obtained for each detection unit 6a can be made uniform by any of the processes described in the first to fourth embodiments. Therefore, it is possible to generate an image (for example, a super-resolution image) with high resolution while ensuring S/N. Further, the pupil deviation correction element 110 performs pupil deviation correction according to the position of the visual field to be observed (scanning coordinates, the angle of the scanning mirror, the viewing angle). As a result, as in the first to fourth embodiments, it is possible to generate a super-resolution image while preventing a decrease in resolution, sectioning ability, etc. due to pupil deviation.
- FIG. 30 is a diagram showing a microscope 1H according to the eleventh embodiment.
- the microscope 1H according to the eleventh embodiment is different from the illumination optical system 4 according to the first embodiment in the configuration of the illumination optical system 4B, and is otherwise similar to the microscope 1 (see FIG. 1) according to the first embodiment. It is a composition.
- the illumination optical system 4B according to the eleventh embodiment includes a collimator lens 12, a ⁇ /4 wavelength plate 13, and a polarizer 14 on the light emitting side of the optical fiber 11.
- the polarizer 14 can independently rotate around the optical axis 12a of the collimator lens 12 by the torque supplied from the drive unit 22A.
- the illumination optical system 4B according to the eleventh embodiment includes a luminous flux division reflection device 200, a dichroic mirror 16, a relay optical system 17, a scanning unit 18, a lens 19, a lens 20, and an objective lens 21.
- the optical axis 21a of the objective lens 21 coincides with the optical axis 4Ba of the illumination optical system 4B.
- the luminous flux division reflection device 200 includes a DMD (digitalmirror device) 210 provided with a large number of pixelated micromirrors 211 (partially numbered).
- the DMD 210 is configured so that the tilt angle of each micro mirror 211 can be switched between at least two angles (one is called an ON angle and the other is called an OFF angle).
- the DMD 210 is set to a light beam (also referred to as ON light) that reflects the light beam incident on the DMD 210 in a predetermined direction by a micromirror 211 (also referred to as an ON mirror) set to an ON angle, and an angle in an OFF state.
- a light beam also referred to as ON light
- a micromirror 211 also referred to as an ON mirror
- the DMD 210 can shift the position of the ON light by changing the setting pattern (arrangement pattern) of the ON mirror and the OFF mirror.
- the setting pattern arrangement pattern
- two ON mirror regions are provided (may be three or more) in the region of the incident surface of the DMD 210.
- the light reflected from these two ON mirror regions becomes the excitation lights L1a and L1b (see FIG. 30) described below.
- the positions of the excitation lights L1a and L1b can be shifted by changing the positions of the two ON mirror regions.
- the excitation light L1 from the polarizer 14 is incident on the DMD210, and the excitation light L1 is directed to the dichroic mirror 16 as ON light. It is arranged so that it can be divided into two excitation lights L1a and L1b.
- the DMD 210 also reflects the OFF light that does not go to the dichroic mirror 16.
- the luminous flux division reflection device 200 can correct the pupil deviation by shifting the excitation lights L1a and L1b toward the dichroic mirror 16 in a direction perpendicular to the traveling direction thereof.
- the luminous flux division reflection device 200 (DMD210) has the same luminous flux division function as the mask 15 in the first embodiment and the like, and the pupil deviation correction function (luminous flux) similar to the pupil deviation correction device 100 (pupil deviation correction element 110). Shift function). That is, the light beam splitting/reflecting device 200 (DMD 210) serves as both the light beam splitting unit and the light beam shifting unit (adjusting unit). Switching of the arrangement pattern of the ON mirror and the OFF mirror in the light beam splitting/reflecting device 200 (DMD 210) and the like are controlled by the control unit 8.
- the excitation lights L1a and L1b from the light beam splitting reflector 200 pass through the dichroic mirror 16, the relay optical system 17, the scanning unit 18, the lens 19, the lens 20, and the objective lens 21 as in the first embodiment.
- the detection device 6 detects the fluorescence from the sample S via the detection optical system 5.
- the image processing unit 7 generates an image (for example, a super-resolution image) by any of the processes described in the first to fourth embodiments based on the detection result of the detection device 6. It is assumed that the pupil deviation correction element in each processing flow described in the first to fourth embodiments includes the DMD 210.
- the scanning unit 18 is not limited to the above embodiment.
- the stage 2 may include a Y stage that moves in the Y direction with respect to the objective lens 21, and the scanning unit 18 may include a Y stage instead of the deflection mirror 18b.
- the scanning unit 18 may scan the sample S with the excitation light L1 in the X direction by the deflection mirror 18a, and may scan the sample S with the excitation light L1 in the Y direction by moving the Y stage.
- the deflection mirror 18a may be arranged at substantially the same position as the pupil conjugate plane optically conjugate with the pupil plane P0 of the objective lens 21.
- the stage 2 may include an X stage that moves in the X direction with respect to the objective lens 21, and the scanning unit 18 may include an X stage instead of the deflection mirror 18a.
- the scanning unit 18 may scan the sample S with the excitation light L1 in the X direction by moving the X stage, and may scan the sample S with the excitation light L1 in the Y direction by the deflection mirror 18b.
- the deflection mirror 18b may be arranged at substantially the same position as the pupil conjugate plane optically conjugate with the pupil plane P0 of the objective lens 21.
- the stage 2 includes an X stage that moves in the X direction with respect to the objective lens 21 and a Y stage that moves in the Y direction with respect to the objective lens 21, and the scanning unit 18 includes the X stage and the Y stage described above. May be included.
- the scanning unit 18 may scan the sample S with the excitation light L1 in the X direction by moving the X stage, and may scan the sample S with the excitation light L1 in the Y direction by moving the Y stage. ..
- the scanning directions for scanning the sample S with the interference fringes are two directions, the X direction and the Y direction, and the illumination optical system 4 scans the sample S with the interference fringes two-dimensionally.
- the scanning direction in which the sample S is scanned with the interference fringes may be the X direction, the Y direction, and the Z direction.
- the microscope 1 executes the 2D processing of scanning the sample S with the interference fringes in the X direction and the Y direction to obtain a 2D image.
- at least one of the objective lens 21 and the stage 2 is moved to cause the interference fringes.
- the sample S may be three-dimensionally scanned with the interference fringes by changing the position in the Z direction at which is generated and repeating the 2D processing.
- the microscope 1 may three-dimensionally scan the sample S with interference fringes to acquire a plurality of 2D images having different positions in the Z direction and generate a 3D image (eg, Z-stack).
- the illumination optical system 4 may scan in the X direction and the Y direction, and may scan in the Z direction by moving at least one of the objective lens 21 and the stage 2.
- the illumination optical system 4 may scan the sample S three-dimensionally with interference fringes.
- the detection device 6 detects the fluorescence L3 from the sample S before and after the period direction of the interference fringe L2 is changed, as in the first embodiment.
- the image processing unit 7 starts from the first embodiment based on the detection result of the detection device 6 before the change of the periodic direction of the interference fringe L2 and the detection result of the detection device 6 after the change of the periodic direction of the interference fringe L2.
- An image eg, super-resolution image is generated by any of the processes described in the fourth embodiment.
- the effective PSF of the image obtained for each detection unit 6a can be made uniform by any of the processes described in the first to fourth embodiments. Therefore, it is possible to generate an image (for example, a super-resolution image) with high resolution while ensuring S/N. Further, according to the position of the field of view to be observed (scanning coordinate, angle of the scanning mirror, viewing angle), the pupil misalignment correction by the light beam splitting/reflecting device 200 (DMD 210) is performed. As a result, it is possible to generate a super-resolution image while preventing deterioration in resolution, sectioning ability, and the like due to pupil misalignment. Further, since the light beam splitting/reflecting device 200 (DMD 210) serves as both the light beam splitting unit and the light beam shift unit (adjusting unit), the configuration of the microscope 1H can be simplified.
- a twelfth embodiment will be described.
- a flow of image acquisition by the microscope 1 of the first embodiment will be shown, and its effect will be described.
- a predetermined range (XY direction) of the sample S is photographed (observed).
- the predetermined range is, for example, a range within a thick frame in FIG. 32, and in this example, four shooting ranges A1, A2, B1 and B2 are set as the shooting ranges (observation areas) requiring scanning within the predetermined range. (Corresponding to the observation area described above) is present.
- Each imaging range is set to a range related to the scan interval and the number of scan pixels based on the cutoff frequency and the Nyquist theorem described in the description of the third embodiment.
- the shooting range is changed by changing the angular range of the scanning mirrors (deflection mirrors 18a and 18b).
- the shooting range A1 is two-dimensionally scanned in the first angle range for the shooting range A1, and the shooting range different from the first angle range.
- the shooting range is changed by two-dimensionally scanning the shooting range A2 in the second angle range for A2. In this way, by changing the shooting range to A1, A2, B1, B2, it is possible to acquire an image in a predetermined range indicated by a thick frame in FIG.
- FIG. 33 a case where an image is generated and an image is displayed in a predetermined range of FIG. 32 (shooting range of A1, A2, B1, B2) will be described.
- the image acquisition according to this flow is performed by the microscope 1 of the first embodiment, and for each part of the microscope 1, refer to FIGS. 1 to 5 as appropriate.
- step S101 the control unit 8 of the microscope 1 sets the periodic direction of the interference fringes L2 to the first direction (for example, 0 °).
- the control unit 8 sets the cycle direction of the interference fringes L2 to the first direction by rotating the mask 15 by the drive unit 22.
- step S102 the control unit 8 updates the initial position of the angle of the scanning mirrors (deflection mirrors 18a and 18b).
- the initial position of the angle of the scanning mirror is, for example, a scanning start position.
- the scanning start position is A1S.
- step S103 the control unit 8 determines whether or not the pupil misalignment correction is necessary. This determination is performed by referring to the table shown in FIG. 34, for example.
- Degx1 to degx4 in the table are, for example, the angular range of the deflection mirror 18a in FIG. 1 (see FIG. 35), and are related to the X-direction position on the sample S where the excitation light L1 is incident, for example.
- Degree1 to degree4 in the table are, for example, the angular range of the deflection mirror 18b in FIG. 1, and are related to the Y-direction position on the sample S where the excitation light L1 is incident, for example.
- step S103 first, the correction amount of the pupil misalignment correction element 110 is determined based on the initial position of the angle of the scanning mirrors (deflection mirror 18a and deflection mirror 18b), and it is determined whether this correction amount is applied to the pupil misalignment correction element 110. To do.
- the correction amount of the pupil misalignment correction element 110 is determined to be the correction amount (32) from the table of FIG. ..
- step S103 when the pupil shift correction element 110 is set to a state different from the correction amount (32), it is determined that the pupil shift correction is necessary (step S103: Yes). Then, in step S104, the pupil deviation correction element 110 is set so as to be in a state that matches the correction amount (32), thereby performing the pupil deviation correction.
- the setting state of the pupil shift correction element 110 matches the correction amount (32), it is determined that the pupil shift correction (change of the setting state of the pupil shift correction element 110) is unnecessary (step S103: No). ..
- the correction amount of the pupil shift correction element 110 is set in association with the above-mentioned pupil shift correction amount.
- step S105 the control unit 8 sets the angle of the scanning mirror to the initial position in order to scan the imaging range A1 in FIG. 32, for example.
- the control unit 8 sets the scanning mirror at an angle corresponding to the initial position A1S (see FIG. 32) of the photographing range A1.
- Steps S106 to S109 have the same contents as steps S4 to S7 in the flow of FIG. 11, for example, scanning the imaging range A1 of FIG. 32 is performed to detect fluorescence from the sample S.
- the control unit 8 of the microscope 1 determines in step S109 that the angle of the scanning mirror is not changed (step S109: No)
- the control unit 8 in step S110 has the periodic direction of the interference fringes L2 in the first direction.
- step S110 determines whether (for example, 0°).
- the control unit 8 sets the cycle direction of the interference fringe L2 to the second direction (for example, 120°) in step S111. ..
- the control unit 8 performs scanning in which the angle of the scanning mirror is the initial position (for example, A1S) and the periodic direction of the interference fringes L2 is the second direction (steps S106 to S109).
- step S110 for example, when the periodic direction of the interference fringe L2 is the second direction (step S110: No), the control unit 8 in step S112 has the periodic direction of the interference fringe L2 in the second direction. It is determined whether (for example, 120°).
- the control unit 8 sets the cycle direction of the interference fringe L2 to the third direction (for example, 240°) in step S113. ..
- step S105 the control unit 8 performs scanning in which the angle of the scanning mirror is the initial position (for example, A1S) and the periodic direction of the interference fringes L2 is the third direction (steps S106 to S109).
- step S112 for example, when the periodic direction of the interference fringe L2 is the third direction (step S112: No), in step S114, the image generation unit 7 of the microscope 1 according to the first embodiment, Image generation is performed based on the second embodiment, the third embodiment, or the fourth embodiment.
- the image generated here is, for example, a super-resolution image, and the resolution is improved in the first direction, the second direction, and the third direction, which are the periodic directions of the interference fringes L2 (the super-resolution effect is obtained. It is an image.
- the control unit 8 displays the image generated by the image generation unit 7 on the display unit 10 of the microscope 1 in step S115.
- step S116 the control unit 8 determines whether or not scanning has been completed for the predetermined shooting range. For example, when the shooting range still remains (step S116: No), the process returns to step S101 and the periodic direction of the interference fringe L2 is set to the first direction. Further, in step S102, the control unit 8 updates the initial position of the angle of the scanning mirror (for example, from A1S to A2S). By performing such an update, the initial position of the angle of the scanning mirror set by the control unit 8 in step S105 is set to A2S, and the control unit 8 acquires an image of the shooting range A2 in step S106 and thereafter.
- the initial position of the angle of the scanning mirror for example, from A1S to A2S
- step S103 After updating the initial position of the angle of the scanning mirror in step S102 (for example, updating from A1S to A2S), the control unit 8 determines in step S103 whether or not pupil deviation correction is necessary, for example, the table of FIG. 34. This is performed with reference to the pupil deviation correction, if necessary (step S104).
- the control unit 8 updates the initial position value of the angle of the scanning mirror to B1S and B2S in step S102.
- the initial position values of the angles of the scanning mirrors set by the control unit 8 in step S105 are set to B1S and B2S, and the control unit 8 acquires images for the imaging ranges B1 and B2 in steps S106 and thereafter.
- the image generation (image acquisition) of the shooting range A1 (initial position A1S) in FIG. 32 the image generation (image acquisition) of the shooting range A2 (initial position A2S), and the image of the shooting range B1 (initial position B1S). It is possible to perform generation (image acquisition) and image generation (image acquisition) of the shooting range B2 (initial position B2S).
- the periodic direction of the interference fringe L2 is switched between the first direction, the second direction, and the third direction for scanning and image.
- the generation is performed, and in the second photographing range (for example, A2), the periodic direction of the interference fringe L2 is switched between the first direction, the second direction, and the third direction for scanning and image generation.
- the second photographing range for example, A2
- the periodic direction of the interference fringe L2 is switched between the first direction, the second direction, and the third direction for scanning and image generation.
- the present embodiment includes a second embodiment, a third embodiment, a fourth embodiment, a fifth embodiment, a sixth embodiment, a seventh embodiment, an eighth embodiment, a ninth embodiment, and a tenth embodiment. It is also applicable to the eleventh embodiment.
- the table of FIG. 34 may be prepared and used properly according to the magnification, NA, and pupil diameter of the objective lens. For example, the table referred to in step S103 of FIG. 33 may be changed according to the magnification or NA of the objective lens or the pupil diameter.
- the correction amount is a value related to the angular ranges degx1 to degx4 of the deflecting mirror 18a and the angular ranges deg1 to deg4 of the deflecting mirror 18b, but is not limited to this. ..
- degx1 to degx4 may be discrete angles of the deflection mirror 18a. In that case, for example, when the angle of the deflecting mirror 18a is degxn which is an intermediate value between degx1 and degx2, the correction amount n obtained by linearly complementing the respective correction amounts determined by degx1 and degx2 is used as the pupil misalignment correction element.
- the correction amount may be given to 110. Further, it is not necessary to use a table as shown in FIG. 34 when determining the correction amount. When the table is not used, the control unit 8 may calculate the correction amount by calculating the pupil misalignment correction amounts ⁇ x and ⁇ y as described in the description of the first embodiment in step S102.
- the change of the periodic direction of the interference fringe L2 is performed in the order of the first direction, the second direction, and the third direction in the first imaging range (for example, A1), and the second imaging range ( For example, in A2) as well, the procedure was performed in the order of the first direction, the second direction, and the third direction, but the procedure is not limited to this.
- the periodic direction of the interference fringe L2 is changed in the order of the first direction, the second direction, and the third direction in the first shooting range (for example, A1), and the second shooting range (for example, A2) is changed.
- the third direction, the second direction, and the first direction may be performed in this order. As a result, the number of changes in the periodic direction of the interference fringe L2 can be reduced.
- the four imaging ranges A1, A2, B1 and B2 are set as predetermined ranges, but the predetermined ranges are set by an observer (user of the microscope 1), for example.
- the scanning order of each imaging range is A1, A2, B1, B2, but the scanning order may be any order.
- the scanning order may be A1, B1, B2, A2, or the scanning order is determined based on the table of FIG. 34 so that the number of times of driving (correction number) of the pupil misalignment correction element 110 is minimized. May be.
- the thirteenth embodiment will be described.
- the flow of image acquisition by the microscope 1 of the first embodiment is shown in FIG. 36, and the effect thereof will be described.
- a predetermined range (XY direction) of the sample S is photographed.
- the order of changing the photographing range and setting the interference fringes L2 in the periodic direction is the twelfth embodiment. different.
- the predetermined range is, for example, a range within a thick frame in FIG. 32, and within the predetermined range, four imaging ranges A1, A2, B1 and B2 are required as scanning ranges. There is a shooting range.
- steps S201 to S209, steps S211 to S216, and step S210 in steps S201 to S209, steps S211 to S216, and step S210, the twelfth step S101 to step S109, steps S110 to S113, and step S116 in the flow of FIG. 33, respectively.
- the content is the same as that described in the description of the embodiment, and the description will be appropriately omitted.
- step S201 the control unit 8 of the microscope 1 of FIG. 1 sets the periodic direction of the interference fringes L2 to the first direction (for example, 0 °).
- step S202 the control unit 8 updates the initial position of the angle of the scanning mirrors (deflection mirrors 18a and 18b).
- the initial position of the angle of the scanning mirror is, for example, the start position of scanning.
- the start position of scanning is, for example, as in the twelfth embodiment. It is A1S.
- step S203 the control unit 8 determines whether or not pupil deviation correction is necessary. This determination is made with reference to, for example, the table of FIG. 34, as in the twelfth embodiment. For example, when the initial position of the angle of the scanning mirror (for example, A1S) corresponds to, for example, degx2 and deggy3, the driving amount of the pupil deviation correction element 110 is determined to be the correction amount (32) from the table of FIG. 34. .. Then, when the drive amount of the pupil deviation correction element 110 is different from the correction amount (32), it is determined that the pupil deviation correction is necessary (step S203: Yes), and the correction amount (32) is obtained in step S204. By driving the pupil deviation correction element 110, the pupil deviation correction is performed.
- the initial position of the angle of the scanning mirror for example, A1S
- the driving amount of the pupil deviation correction element 110 is determined to be the correction amount (32) from the table of FIG. 34. .
- the drive amount of the pupil deviation correction element 110 is different from the correction amount (32)
- step S205 the control unit 8 sets the angle of the scanning mirror as the initial position in order to scan the shooting range A1 of FIG. 32, for example.
- the control unit 8 sets the scanning mirror at an angle corresponding to the initial position A1S of the photographing range A1.
- the steps S206 to S209 have the same contents as the steps S4 to S7 in the flow of FIG. 11.
- the scanning of the imaging range A1 of FIG. 32 is performed and the fluorescence from the sample S is detected.
- step S209 determines in step S210 whether or not scanning has been completed for a predetermined imaging range. Whether or not. For example, when the imaging range still remains (step S210: No), the process returns to step S202, and in step S202, the control unit 8 updates the initial position of the angle of the scanning mirror (for example, updates from A1S to A2S). At this time, the periodic direction of the interference fringes L2 remains the first direction.
- step S205 the cycle direction of the interference fringe L2 remains in the first direction, and the initial position of the angle of the scanning mirror set by the control unit 8 in step S205 is set to A2S.
- the control unit 8 updates the initial position of the angle of the scanning mirror (for example, updates from A1S to A2S), and then determines in step S203 whether or not pupil deviation correction is necessary, for example, refer to the table of FIG. 34. This is performed, and pupil deviation correction is executed as necessary (step S204).
- step S210 the control unit 8 determines whether the cycle direction of the interference fringe L2 is the first direction.
- the control unit 8 sets the cycle direction of the interference fringe L2 to the second direction (for example, 120°) in step S212. ..
- the control unit 8 scans the imaging range A1, so the initial position of the scanning mirror is set to A1S. In this way, the imaging range A1 is scanned with the periodic direction of the interference fringes L2 as the second direction.
- the imaging ranges A2, B1 and B2 are also scanned with the periodic direction of the interference fringe L2 set to the second direction.
- step S210 when the scanning is completed for the predetermined imaging range, that is, when the scanning of the imaging ranges A1, A2, B1, B2 is completed with the periodic direction of the interference fringe L2 as the second direction (step S210: Yes). ), In step S211 the control unit 8 determines whether the periodic direction of the interference fringes L2 is the first direction.
- the control unit 8 determines that the periodic direction of the interference fringe L2 is the first direction. It is determined whether the direction is 2.
- the control unit 8 sets the periodic direction of the interference fringe L2 to the third direction (for example, 240 °) in step S214.
- the control unit 8 scans the imaging range A1, so the initial position of the scanning mirror is set to A1S. In this way, the scanning range A1 is scanned with the periodic direction of the interference fringe L2 as the third direction.
- the imaging ranges A2, B1 and B2 are also scanned while the periodic direction of the interference fringe L2 is set to the third direction.
- step S210 when the scanning is completed for the predetermined imaging range, that is, when the scanning of the imaging ranges A1, A2, B1, B2 is completed with the periodic direction of the interference fringe L2 as the third direction (step S210: Yes). ), in step S211, the control unit 8 determines whether the cycle direction of the interference fringe L2 is the first direction. When the periodic direction is not the first direction, for example, when the periodic direction is the third direction (step S211: No), in step S213, the control unit 8 has the interference fringe L2 in the second direction. It is determined whether or not there is.
- step S213 when the cycle direction is not the second direction, for example, when the cycle direction is the third direction (step S213: No), the cycle of the interference fringes L2 in the imaging ranges A1, A2, B1 and B2. It is assumed that the scanning with the directions as the first direction, the second direction, and the third direction is completed.
- step S215 the image processing unit 7 of the microscope 1 performs image generation based on the first embodiment, the second embodiment, the third embodiment, or the fourth embodiment for each imaging range.
- the image generated here is, for example, a super-resolution image, and the resolution is improved in the first direction, the second direction, and the third direction in which the periodic direction of the interference fringe L2 is (a super-resolution effect is obtained). ) It is an image.
- the control unit 8 displays the image generated by the image generation unit 7 on the display unit 10 of the microscope 1 in step S216.
- Generation (image acquisition) and image generation (image acquisition) of the shooting range B2 (initial position B2S) can be performed.
- the first shooting range (for example, A1), the second shooting range (for example, A2), and the third shooting range (for example, A2) are set with the periodic direction of the interference fringes L2 as the first direction.
- B1, the fourth shooting range (for example, B2) and the shooting range are changed, scanning and image generation are performed, and then the periodic direction of the interference fringe L2 is set as the second direction, and the first shooting range (for example, A1) is set.
- the second photographing range (for example, A2), the third photographing range (for example, B1), the fourth photographing range (for example, B2) and the photographing range are changed to perform scanning and image generation, and then the interference fringes L2.
- the first shooting range for example, A1
- the second shooting range for example, A2
- the third shooting range for example, B1
- the fourth shooting range for example, B2.
- the cycle direction of the interference fringe L2 is set as the first direction
- the shooting range is sequentially changed, scanning of all the shooting ranges and image generation are performed, and then the cycle direction of the interference fringe L2 is set as the second direction.
- the shooting range is sequentially changed to scan and generate an image in the entire shooting range
- the shooting range is sequentially changed to scan and image the entire shooting range with the cycle direction of the interference fringe L2 as the third direction.
- the present embodiment includes a second embodiment, a third embodiment, a fourth embodiment, a fifth embodiment, a sixth embodiment, a seventh embodiment, an eighth embodiment, a ninth embodiment, and a tenth embodiment. It is also applicable to the eleventh embodiment.
- the four imaging ranges A1, A2, B1, and B2 are set as predetermined ranges, but the predetermined ranges are set by, for example, the observer (user of the microscope 1).
- the scanning order of each imaging range is A1, A2, B1, B2, but the scanning order may be any order.
- the scanning order may be A1, B1, B2, A2, or the scanning order may be determined based on the table of FIG. 34 so that the number of times of driving (correction number) of the pupil misalignment correction element is minimized. Good.
- FIG. 37 shows a flow of a modified example in view of this point.
- the flow of FIG. 37 differs from the flow of FIG. 36 in the execution positions of step S215 and step S216. The flow of FIG. 37 will be described below.
- the imaging range A1 is scanned (steps S205 to S209), and the image generation unit 7 is the first embodiment.
- An image is generated based on the second embodiment, the third embodiment, or the fourth embodiment (step S215), and the control unit 8 displays the generated image on the display unit 10 (step S216).
- the image generation unit 7 based on the detection result when the periodic direction of the interference fringes L2 in the imaging range A1 is the first direction, as shown in FIG. It is the generated image.
- This generated image is an image in which the resolution is improved (super-resolution effect is obtained) in the first direction of the period direction of the interference fringes L2.
- the control unit 8 scans the imaging range A2 while the periodic direction of the interference fringe L2 remains in the first direction, causes the image generation unit 7 to generate an image (step S215), and displays it on the display unit 10 ( Step S216).
- the resolution is improved when the period direction of the interference fringes L2 in the imaging range A1 is the first direction (the super-resolution effect was obtained. )
- control unit 8 scans the shooting ranges B1 and B2 while keeping the periodic direction of the interference fringes L2 in the first direction, generates an image in the image generation unit 7 (step S215), and displays the image on the display unit 10. Is performed (step S216). At this time (after the scanning of the imaging range B2 is completed), what is displayed on the display unit 10 is that the resolution is improved when the periodic direction of the interference fringes L2 is the first direction as shown in FIG. 38(C) ( (The super-resolution effect was obtained), and each image in the shooting range A1, A2, B1, B2.
- step S210 when the scanning is completed for the predetermined imaging range in step S210, that is, when the scanning of the imaging ranges A1, A2, B1, B2 is completed with the periodic direction of the interference fringe L2 as the first direction (step S210: Yes),
- step S212 the control unit 8 sets the cycle direction of the interference fringe L2 to the second direction.
- steps S205 to S209 the control unit 8 scans the photographing range A1.
- the image generation unit 7 generates an image (step S215)
- the display unit 10 displays the image (step S216). At this time, what is displayed on the display unit 10 is, for example, as shown in FIG.
- the detection result when the periodic direction of the interference fringes L2 is the first direction and the interference fringes. It is an image generated by the image generation unit 7 using two detection results, that is, a detection result when the cycle direction of L2 is the detection result of the second direction.
- This generated image is an image in which the resolution is improved (the super-resolution effect is obtained) in the periodic direction of the interference fringe L2 in the first direction and the second direction.
- the illumination pupil has two poles in FIG. 2, four poles in FIG. 25, but three poles in FIG. 39 (A).
- Reference numerals AR5a to AR5c are regions on the pupil plane P0 on which the excitation light enters.
- the first interference fringe between the excitation light incident on the region AR5a and the excitation light incident on the region AR5b the second interference fringe between the excitation light incident on the region AR5b and the excitation light incident on the region AR5c, and the region.
- Third interference fringes of the excitation light incident on the AR5c and the excitation light incident on the area AR5a are formed.
- interference fringes that are a combination of the first interference fringes, the second interference fringes, and the third interference fringes are formed.
- the periodic direction of the first interference fringes, the periodic direction of the second interference fringes, and the periodic direction of the third interference fringes are the respective periodic directions, and the periodic directions are three directions.
- a super-resolution effect can be obtained.
- the illumination pupil may have 5 or more poles.
- the illumination pupil is circular in FIG. 2 and the like, but may have other shapes.
- reference numeral AR6 is a region where the excitation light is incident.
- the area AR6 in FIG. 39(B) is an area surrounded by a circle AR6a which is a part of a circle centered on the optical axis 21a of the objective lens 21 and a straight line AR6b connecting both ends of the arc AR6a.
- a region AR6 in FIG. 39C is a region surrounded by an arc that is a part of a circle centered on the optical axis 21a of the objective lens 21 and a curved line AR6c that is symmetrical to the arc AR6a.
- the resolution in the direction in which the interference fringes are not formed is better and the sectioning is better than that in the case of the circular illumination pupil.
- the resolution in the direction in which the interference fringes are not formed is improved and the sectioning is also improved as compared with the case of the illuminated pupil having the shape of FIG. 39 (C). ..
- the resolution in the direction in which the interference fringes are formed is better than that of the illuminated pupil having the shape of FIG. 39 (B).
- the illuminated pupil is a form in which the illuminated pupil having the shape shown in FIG. 39 (B) has four poles.
- the illumination pupil has a form in which the illumination pupil having the shape shown in FIG. 39(C) has four poles.
- the number of the plurality of regions (the number of poles) on which the excitation light enters is set to an arbitrary number of 2 or more.
- the shape of one of the plurality of areas on the pupil plane P0 on which the excitation light is incident may be different from the shape of the other areas.
- the size of one region may be different from the size of the other regions.
- the plurality of regions in which the excitation light is incident on the pupil surface P0 may be arranged asymmetrically with respect to the optical axis 21a of the objective lens 21.
- each pole of the illumination pupil can be realized, for example, by designing the shape, dimensions, and arrangement of the opening of the mask 15 shown in FIG.
- the mask 15 may be a mechanical diaphragm having a variable light blocking area, a spatial light modulator (SLM), or the like.
- FIG. 41 is a diagram showing a microscope 1I according to the first modification.
- the illumination optical system 4C includes a collimator lens 50, a ⁇ /2 wavelength plate 51, a lens 52, a diffraction grating 53, a lens 54, a mask 15, and a pupil misalignment correction device in the order from the optical fiber 11 to the dichroic mirror 16. Equipped with 100.
- the illumination optical system 4C includes a dichroic mirror 16, a relay optical system 17, a scanning unit 18, a lens 19, a lens 20, and an objective lens 21 as in the first embodiment.
- the optical axis 21a of the objective lens 21 is included in the optical axis 4Ca of the illumination optical system 4C.
- the collimator lens 50 converts the excitation light L1 from the optical fiber 11 into substantially parallel light.
- the ⁇ /2 wave plate 51 adjusts the polarization state of the excitation light L1 when entering the sample S.
- the lens 52 concentrates the excitation light L1 on the diffraction grating 53.
- the diffraction grating 53 splits the excitation light L1 into a plurality of light beams by diffraction.
- the diffraction grating 53 is a light beam splitting unit that splits the excitation light that excites the fluorescent material into a plurality of light beams.
- the diffraction grating 53 is arranged at the focal point or a position near the focal point of the lens 52. That is, the diffraction grating 53 is arranged on the surface conjugate with the sample surface Sa or in the vicinity thereof. The vicinity of the focus is within the range of the depth of focus of the light condensed by the lens 52.
- the diffraction grating 53 may be arranged within 1 mm near the focus of the lens 52.
- the plurality of light fluxes include 0th-order diffracted light, +1st-order diffracted light, and ⁇ 1st-order diffracted light.
- the lens 54 converts the 0th-order diffracted light, the +1st-order diffracted light, and the -1st-order diffracted light into substantially parallel lights, respectively.
- the mask 15 is provided so as to block the 0th-order diffracted light and pass at least a part of the +1st-order diffracted light and at least a part of the ⁇ 1st-order diffracted light.
- the light amount of the excitation light L1 that passes through the mask 15 can be increased.
- the diffraction grating 53 may be designed so that the 0th-order diffracted light is not generated. Further, a configuration may be adopted in which the mask 15 is not provided.
- FIGS. 42 and 43 are diagrams showing the polarization adjusting unit according to the modified example, respectively.
- the illumination optical system 4 (see FIG. 1), the optical path is bent by a reflecting member such as the dichroic mirror 16 shown in FIG. 1, but in FIGS. 42 and 43, the illumination optical system 4 is referred to by the optical axis 4a (see FIG. 1). ) Is shown in a straight line. 42 and 43, the Z direction is a direction parallel to the optical axis 4a, and the X direction and the Y direction are directions perpendicular to the optical axis 4a, respectively.
- the illumination optical system 4 includes a ⁇ / 4 wave plate 61, a mask 15, and a ⁇ / 4 wave plate 62.
- the excitation light L1 emitted from the optical fiber 11 is linearly polarized in the X direction and is incident on the ⁇ /4 wavelength plate 61.
- a polarizer eg, a polarizing plate having a transmission axis in the X direction may be provided in the optical path between the optical fiber 11 and the ⁇ /4 wavelength plate 61.
- the phase-advancing axis of the ⁇ / 4 wave plate 61 is set in the direction in which the X direction is rotated counterclockwise by 45 ° when viewed from the + Z side.
- the excitation light L1 that has passed through the ⁇ /4 wavelength plate 61 becomes circularly polarized light and enters the mask 15.
- the excitation light L1 that has passed through the openings 15a and 15b of the mask 15 is circularly polarized light and is incident on the ⁇ /4 wavelength plate 62.
- the fast axis of the ⁇ /4 wave plate 62 is set in a direction obtained by rotating the X direction clockwise by 45° when viewed from the +Z side.
- the excitation light L1 that has passed through the ⁇ /4 wavelength plate 62 becomes linearly polarized light in the X direction and is applied to the sample surface Sa.
- the mask 15 is rotatably provided around the optical axis 4a as described in the first embodiment.
- the periodic direction of the interference fringes changes.
- the openings 15a and 15b of the mask 15 are aligned in the Y direction, and the periodic direction of the interference fringes is the Y direction.
- the periodic direction of the interference fringes is rotated 90° and becomes the X direction.
- the ⁇ /4 wave plate 62 is rotatable around the optical axis 4a.
- the ⁇ /4 wave plate 62 is provided so as to rotate by the same angle as the mask 15.
- the ⁇ /4 wave plate 62 is integrated with the mask 15 and rotates integrally with the mask 15.
- the ⁇ / 4 wave plate 62 is rotated by 90 ° and its phase advance axis becomes parallel to the phase advance axis of the ⁇ / 4 wave plate 61.
- the excitation light L1 that has passed through the ⁇ /4 wavelength plate 62 becomes linearly polarized light in the Y direction.
- the plane of incidence of the excitation light L1 on the sample surface is parallel to the periodic direction of the interference fringes, and the excitation light L1 entering the sample surface is linearly polarized light perpendicular to the periodic direction of the interference fringes.
- the sample surface Sa is irradiated in the state of S polarization.
- the ⁇ /4 wavelength plate 62 is included in the polarization adjusting unit that adjusts the polarization state of the excitation light when entering the sample.
- Such a polarization adjusting unit can reduce the loss of the light amount of the excitation light L1 as compared with the aspect described in FIG.
- the illumination optical system 4 includes a polarizer 65, a mask 15, and a ⁇ /2 wave plate 66.
- the excitation light L1 emitted from the optical fiber 11 is linearly polarized light in the X direction and is incident on the polarizer 65.
- the transmission axis of the polarizer 65 is set in the X direction.
- the excitation light L1 that has passed through the polarizer 65 is linearly polarized in the X direction and is incident on the mask 15.
- the excitation light L1 that has passed through the openings 15a and 15b of the mask 15 is linearly polarized light in the X direction and is incident on the ⁇ /2 wave plate 66.
- the fast axis of the ⁇ /2 wave plate 66 is set in a direction obtained by rotating the X direction clockwise by 45° when viewed from the +Z side.
- the excitation light L1 that has passed through the ⁇ /2 wavelength plate 66 becomes linearly polarized light in the Y direction and is applied to the sample surface Sa.
- the mask 15 is rotatably provided around the optical axis 4a as described in the first embodiment.
- the periodic direction of the interference fringes changes.
- the openings 15a and 15b of the mask 15 are aligned in the X direction, and the periodic direction of the interference fringes is the X direction.
- the periodic direction of the interference fringes is rotated by 90 ° and becomes the Y direction.
- the ⁇ /2 wave plate 66 is rotatable around the optical axis 4a.
- the ⁇ /2 wave plate 66 is provided so as to rotate by an angle half the rotation angle of the mask 15. For example, when the mask 15 rotates 90°, the ⁇ /2 wave plate 66 rotates 45°.
- the excitation light L1 that has passed through the ⁇ /2 wave plate 66 becomes linearly polarized light in the X direction.
- the incident surface of the excitation light L1 with respect to the sample surface Sa is parallel to the periodic direction of the interference fringes, and the excitation light L1 when incident on the sample surface Sa is linearly polarized light perpendicular to the periodic direction of the interference fringes.
- the sample surface Sa is irradiated with L1 in the S-polarized state.
- the ⁇ / 2 wave plate 66 is included in the polarization adjusting unit that adjusts the polarization state of the excitation light L1 when it is incident on the sample S.
- Such a polarization adjusting unit can reduce the loss of the light amount of the excitation light L1 as compared with the aspect described in FIG.
- the illumination light (excitation light L1) is configured to be linearly polarized light immediately after passing through the polarization adjusting unit, but it is not perfect linearly polarized light. May be.
- an additional polarizing element such as a ⁇ /2 wavelength plate or a ⁇ /4 wavelength plate may be added to the polarization adjusting unit to correct the change in the polarization state generated in the optical system on the way.
- FIG. 44 is a diagram showing a microscope 1J according to a second modification.
- the microscope 1J according to the second modification has substantially the same configuration as the microscope 1 according to the first embodiment.
- the microscope 1J includes a variable power lens 25 instead of the lens 24 in the microscope 1.
- the variable power lens 25 may be of a type in which lenses having different focal lengths are switched, or may be a zoom lens.
- the variable power lens 25 may be switched to a lens having a different focal length or the zoom magnification may be changed according to the pupil diameter of the objective lens 21.
- the shape of the mask 15 may be switched according to the switching of the objective lens 21.
- the focal length/zoom magnification of the lens 23 is preferably set to ⁇ em /4NAd or less when the numerical aperture of the detection optical system 5 on the detection device 6 side is NAd. ..
- the microscope according to each embodiment may include an image rotation unit that rotates the image of the sample S around the optical axis of the detection optical system 5 when the microscope includes the detection devices 6 and 6A including the image sensor.
- an image rotation unit that rotates the image of the sample S around the optical axis of the detection optical system 5 when the microscope includes the detection devices 6 and 6A including the image sensor.
- the stripe direction is rotated, by rotating the image of the sample S, the stripe cycle and the position of the detection unit 6a can be matched.
- the pupil misalignment may be corrected by moving the mask 15 in the direction perpendicular to the optical axis.
- the microscope according to each embodiment may include a phase modulator that can shift the phase of the interference fringe L2 formed by the excitation light L1 to set the interference fringe L2 in a plurality of phase states.
- shifting the phase of the interference fringes L2 formed by the excitation light L1 may be referred to as a phase change.
- FIG. 45 is a diagram showing a microscope according to a third modification.
- the microscope 1K according to the third modification passes through an optical path having an optical path length different for each luminous flux divided by the luminous flux dividing portion in the vicinity of the pupil conjugate surface optically conjugated to the pupil surface P0 of the objective lens 21.
- the phase of the interference fringe L2 is changed.
- FIG. 45 as a modified example of the microscope, the form applied to the microscope 1 according to the first embodiment is shown, but it is also applicable to the microscopes of other embodiments.
- the microscope 1K according to the third modification has the same configuration as the microscope 1 according to the first embodiment.
- the microscope 1K according to the third modification includes a phase modulation unit 70.
- the phase modulator 70 includes a phase modulator 71 and a driver 78.
- the phase modulation element 71 is arranged between the mask 15 and the pupil shift correction device 100.
- the phase modulation element 71 is formed into a circular plate shape by performing removal processing such as cutting on a predetermined glass plate.
- the phase modulation element 71 is arranged so that the central axis of the phase modulation element 71 coincides with the optical axis 4 a of the illumination optical system 4.
- the drive unit 78 rotates the phase modulation element 71 around the optical axis of the illumination optical system 4.
- the phase modulation element 71 may be arranged in a portion of the optical path of the parallel light flux in the illumination optical system 4 that does not overlap with the optical path of the detection optical system 5.
- FIG. 46 is a diagram showing details of the phase modulation element 71.
- FIG. 46A is a diagram of the phase modulation element viewed from a direction perpendicular to the Za direction of FIG. 45 (for example, the Xa direction).
- 46(B) to 46(D) are views of the phase modulation element viewed from the direction Za in FIG. 45, showing a state in which one phase modulation element 71 is rotated about the center Cn by different angles. ing.
- the substantially disk-shaped phase modulation element 71 has three regions (regions 71c, 71d, and 71e) having different thicknesses, and gives a phase difference between the light fluxes passing through the respective regions.
- phase modulation element 71 having the rotation angle shown in FIG. 46(B)
- the pumping light L1a passing through the opening 15a and the pumping light L1b passing through the opening 15b both pass through the region 71c, so that no phase difference is added.
- the excitation light L1a passes through the region 71c and the excitation light L1b passes through the region 71d, so that between the excitation light L1a and the excitation light L1b. Is added with a predetermined second phase difference ⁇ 2 (for example, 2 ⁇ /3 [rad]).
- a predetermined second phase difference ⁇ 2 for example, 2 ⁇ /3 [rad]
- the excitation light L1a passes through the region 71c and the excitation light L1b passes through the region 71e, it is between the excitation light L1a and the excitation light L1b.
- a predetermined third phase difference ⁇ 3 for example, 4 ⁇ /3 [rad]
- the position between the excitation light L1a and the excitation light L1b can be changed.
- the phase difference can be sequentially changed, and the bright and dark phase of the interference fringe L2 can be changed.
- the phase difference is not added between the pumping light L1a and the pumping light L1b at the rotation angle of the phase modulation element 71 shown in FIG. 46(B).
- the present invention is not limited to this, and the phase difference having different values may be added between the pumping light L1a and the pumping light L1b at any of the three rotation angles.
- the phase difference added between the pumping light L1a and the pumping light L1b may be different from each other by 2 ⁇ /3 [rad] at the above three rotation angles as an example.
- each of the regions 71c to 71e of the phase modulation element 71 is not limited to the one in which the thickness of the phase modulation element 71 itself is different for each region as described above, and a glass disc having a uniform thickness is used.
- a thin film having a predetermined thickness may be formed in at least two regions.
- the phase of the interference fringe L2 can be changed by the phase modulation element 71.
- Changing the phase of the interference fringe means changing the argument of the cosine function from 2 ⁇ k 0 ⁇ r to 2 ⁇ k 0 ⁇ r+ ⁇ without changing PSF ill (r) on the right side of the above equation (3). It is equivalent to letting.
- ⁇ is the phase difference between the excitation light L1a and the excitation light L2b.
- PSF ill (r) does not change means that the envelope (envelope) of the intensity distribution of the interference fringe L2 does not change. Therefore, the phase modulation element changes the bright and dark phases of the intensity distribution of the interference fringe L2 without changing the envelope (envelope) of the intensity distribution of the interference fringe L2.
- the phase modulation unit 70 By using the phase modulation unit 70 described above, it is possible to perform the component separation of a mode different from the component separation of the image processing described in the third embodiment.
- the image I(r,r s ) obtained by the detection device 6 is represented by the above equation (13).
- ⁇ indicates the initial phase of the interference fringe L2.
- the value of the initial phase ⁇ in the equation (13) changes, but the changed value of ⁇ can also be called the phase difference. That is, even if the image data is acquired with a predetermined phase difference ⁇ given, the obtained image data is given by the equation (13).
- the value of the predetermined phase difference ⁇ includes 0.
- OTF′ det (r, k s ) e i2 ⁇ ksr OTF det (k s ).
- OTF det is the Fourier transform of PSF det and represents the OTF of the detection optical system
- OTF ill is the Fourier transform of PSF ill
- Obj to are Obj Fourier transforms.
- I to (r, k s ; ⁇ ) in the equation (48) is the sum of three terms as shown in the following equation (49A), and is represented by the following equations (49B) to (49D).
- zero-order component I ⁇ 0 (r, k s ), + 1 -order component I ⁇ +1 (r, k s ), - 1 -order component I ⁇ -1 (r, k s ) is referred to as.
- the microscope 1K according to the third modified example changes the phase of the interference fringe L2 from a predetermined phase by changing the phase of the interference fringe L2 using the phase modulator 70, and the phase difference of the interference fringe L2 with respect to the predetermined phase.
- the image data is acquired when the first phase difference ⁇ 1, the second phase difference ⁇ 2, and the third phase difference ⁇ 3 are set.
- I ⁇ (r, k s; ⁇ 2) corresponding to the second phase difference .phi.2 corresponding to
- the third phase difference ⁇ 3 I ⁇ (r, k s; ⁇ 3) is expressed by the following formula (50A) formula (50C).
- the equations (50A) to (50C) are simultaneous equations for three unknowns I 0 to (r, k s ), I +1 to (r, k s ), and I ⁇ 1 to (r, k s ).
- the image processing unit 7 by solving the simultaneous equations, obtains data I ⁇ than, (r, k s; ⁇ 1 ), I ⁇ (r, k s;; ⁇ 2), I ⁇ ( ⁇ 3 r, k s) I 0 to (r, k s ), I +1 to (r, k s ) and I ⁇ 1 to (r, k s ) are obtained.
- This processing corresponds to the component separation of the image processing described in the third embodiment.
- the image processing unit 7 performs an inverse Fourier transform on I 0 to (r, k s ), I +1 to (r, k s ), and I ⁇ 1 to (r, k s ) to describe in the third embodiment. It is possible to obtain I 0 (r, r s ), I +1 (r, r s ), and I ⁇ 1 (r, r s ). Then, the image processing unit 7 performs the same processing as that of the third embodiment after the processing of calculating the image data of the real space in which the components are separated in the third embodiment.
- the process corresponding to the component separation can be performed by solving the simultaneous equations of the formulas (50A) to (50C), and the detection unit 6a It is possible to correct the collapse of the shape of the effective PSF for each position (detector coordinate r).
- FIG. 47 is a flowchart showing an observation method using the microscope 1K according to the third modification.
- the observation area is determined. This observation area is determined by, for example, an observer (user of the microscope 1K). For example, the observer determines an observation region by inputting an arbitrary region on the display unit 10 of FIG. 47 with the input unit 9.
- the control unit 8 of the microscope 1K calculates the pupil misalignment correction amount by the pupil misalignment correction element 110 in step S302. Then, the control unit 8 causes the pupil shift correction device 100 to set the pupil shift correction element in step S303 based on the calculated pupil shift correction amount.
- step S304 the control unit 8 of the microscope 1K sets the cycle direction of the interference fringe L2.
- the control unit 8 sets the cycle direction of the interference fringes L2 by rotating the mask 15 by the drive unit 22 and rotating the phase modulation element 71 by the drive unit 78 according to the rotation of the mask 15.
- step S305 the control unit 8 sets the phase of the interference fringe L2.
- the control unit 8 sets the phase of the interference fringe L2 by rotating the phase modulation element 71 by the drive unit 78.
- step S306 the control unit 8 sets the angles of the scanning mirrors (deflection mirrors 18a and 18b).
- the illumination optical system 4 irradiates the position on the sample determined by the angle of the scanning mirror set in step S306 with the excitation light as interference fringes L2.
- step S307 the fluorescent substance of the sample S is excited by the interference fringe L2 of the excitation light.
- the detection device 6 detects the fluorescence from the sample S via the detection optical system 5 for each of the plurality of detection units 6a.
- step S309 the control unit 8 determines whether to change the angle of the scanning mirror.
- the control unit 8 determines that the processes of steps S306 to S308 have not been completed for a part of the planned observation area, it determines that the scanning mirror angle is changed in step S309 (step S309; Yes).
- step S309; Yes the control unit 8 determines that the angle of the scanning mirror is changed.
- step S309; Yes the control unit 8 returns to the process of step S306, and the control unit 8 sets the angle of the scanning mirror to the next scheduled angle. Then, the processing from step S307 to step S309 is repeated.
- step S309 When it is determined in step S309 that the processing of steps S306 to S308 has been completed for all of the planned observation areas, the control unit 8 determines that the angle of the scanning mirror is not changed (step S309; No). .. When the controller 8 determines not to change the angle of the scanning mirror (step S309; No), the controller 8 determines in step S310 whether to change the phase of the interference fringe L2.
- the control unit 8 determines to execute the change of the phase of the interference fringes L2 in step S310. Yes (step S310; Yes).
- step S310; Yes the control unit 8 determines to change the phase of the interference fringe L2
- step S310; Yes the control unit 8 returns to the process of step S305, and the control unit 8 sets the phase of the interference fringe L2 to the scheduled next phase. Set. Then, the processing from step S306 to step S310 is repeated. In this way, the illumination optical system 4 two-dimensionally scans the sample S with the interference fringes L2 of the excitation light for the three interference fringes in which the phase of the interference fringes is changed.
- step S310 determines not to change the phase of the interference fringes L2.
- step S310; No determines that the phase change of the interference fringe L2 is not executed (step S310; No)
- step S311 the image processing unit 7 performs image processing to obtain an image (eg, super-resolution image). To generate.
- step S312 the control unit 8 determines whether to change the cycle direction of the interference fringe L2.
- the control unit 8 determines that the processing of steps S304 to S311 has not been completed for a part of the planned periodic direction of the interference fringe L2, the control unit 8 executes the change of the periodic direction of the interference fringe L2 in step S312. The determination is made (step S312; Yes).
- step S312 determines that the change of the periodic direction of the interference fringe L2 is executed (step S312; Yes)
- the control unit 8 returns to the process of step S304, and the control unit 8 returns to the next process in which the periodic direction of the interference fringe L2 is scheduled. Set in the cycle direction. Then, the processing from step S305 to step S312 is repeated.
- step S312 determines that the processing of steps S304 to S311 has been completed for all of the scheduled periodic directions of the interference fringes L2, it determines that the change of the periodic direction of the interference fringes L2 is not executed. (Step S312; No).
- step S312; No determines that the change in the periodic direction of the interference fringe L2 is not executed.
- FIG. 48 is a flowchart showing a sub-flow of image processing by the image processing unit 7.
- the image processing unit 7 selects at least a part of the plurality of detection units 6a of the detection device 6.
- the image processing unit 7 Fourier transforms the detection results of at least a part of the plurality of detection units 6a selected in step S321.
- the image processing unit 7 performs a two-dimensional Fourier transform on I(r, r s ; ⁇ ) given a predetermined phase difference ⁇ .
- the image processing unit 7 performs a process corresponding to the component separation in the third embodiment by solving the simultaneous equations represented by the above equations (50A) to (50C).
- step S324 the image processing unit 7 inverse Fourier transforms the separated components.
- step S325 the image processing unit 7 executes the image processing phase shift processing.
- the image processing unit 7 corrects the positional deviation of the effective PSF in step S326.
- step S327 the image processing unit 7 generates an image (for example, a super-resolution image) by adding the images obtained by correcting the positional deviation in step S326.
- step S328 the control unit 8 determines whether or not to execute the selection change of the detection unit 6a.
- the control unit 8 determines that the selection change of the detection unit 6a is executed in step S328.
- Step S328; Yes the control unit 8 determines that the selection change of the detection unit 6a is to be executed.
- the control unit 8 returns to the process of step S321, and the control unit 8 selects at least a part of the other detection units 6a. .. Then, the processing from step S322 to step S328 is repeated.
- control unit 8 determines in step S328 that the processing of steps S321 to S327 has been completed for all the scheduled combinations of the detection units 6a, it determines that the selection change of the detection unit 6a is not executed (step). S328; No).
- the control unit 8 determines that the selection change of the detection unit 6a is not executed (step S328; No)
- the process returns to the flow of FIG. 47 (step S312). Accordingly, it is possible to generate an image in which the detecting unit 6a to be selected is changed.
- the image processing unit 7 adds the images of the respective detection units 6a obtained by executing the phase shift process to obtain an image with high resolution (eg, super-resolution image) while ensuring S/N. Can be generated.
- the pupil deviation correction element 110 performs pupil deviation correction according to the position of the visual field to be observed (scanning coordinates, the angle of the scanning mirror, the viewing angle). As a result, as in the first embodiment, it is possible to generate a super-resolution image while preventing a decrease in resolution, sectioning ability, etc. due to pupil displacement.
- the image processing unit 7 includes, for example, a computer system.
- the image processing unit 7 reads out the image processing program stored in the storage unit and executes various processes according to the image processing program.
- This image processing program causes a computer to generate an image based on the detection results of the detection devices 6 and 6A.
- the detection results of the detection devices 6 and 6A the light from the light source 3 is divided into a plurality of luminous fluxes, and the sample S is divided into a plurality of samples S by the interference fringes L2 generated by the interference of at least a part of the luminous fluxes of the plurality of luminous fluxes. It is obtained by detecting the light from the sample S by the detection devices 6 and 6A including the plurality of detection units 6a via the detection optical system 5 in which the light from the sample S is incident by scanning in the direction.
Landscapes
- Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Microscoopes, Condenser (AREA)
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
Abstract
顕微鏡(1)は、試料(S)に含まれる蛍光物質を励起するための光を複数の光束に分割するマスク(15)、複数の光束の少なくとも一部が干渉して形成される干渉縞(L2)を試料(S)の複数の方向において走査する走査部(18)および、前記複数の光束の少なくとも一部が対物レンズの瞳面に入射する入射位置調整する瞳ズレ補正素子(110)を有する照明光学系(4)と、励起によって生じた試料(S)からの蛍光(L3)が入射する検出光学系(5)と、検出光学系(5)を介して試料(S)からの蛍光(L3)を検出する複数の検出部(6a)を有する検出装置(6)と、複数の検出部(6a)のうち少なくとも2つの検出部での検出結果を用いて画像を生成する画像処理部(7)とを備える。
Description
本発明は、顕微鏡および観察方法に関する。
試料からの蛍光を検出する走査型顕微鏡が提案されている(例えば、下記の非特許文献1参照)。
Confocal laser scanning microscopy with spatiotemporal structured illumination, Peng Gao, G. Ulrich Nienhaus, Optics Letters, Vol.41, No.6, 1193-1196, 2016.3.15
第1の態様に係る顕微鏡は、試料に含まれる蛍光物質を励起するための光を複数の光束に分割する光束分割部、前記複数の光束の少なくとも一部が干渉して形成される干渉縞を前記試料の複数の方向において走査する走査部および、前記複数の光束の少なくとも一部が対物レンズの瞳面に入射する入射位置を調整する調整部、を有する照明光学系と、前記試料からの蛍光が入射する検出光学系と、前記検出光学系を介して前記試料からの蛍光を検出する複数の検出部を有する検出装置と、前記複数の検出部のうち少なくとも2つの検出部での検出結果を用いて画像を生成する画像処理部とを備える。
第2の態様に係る観察方法は、試料に含まれる蛍光物質を励起するための光を複数の光束に分割することと、前記複数の光束の少なくとも一部が干渉して形成される干渉縞を前記試料の複数の方向において走査することと、前記複数の光束の少なくとも一部が対物レンズの瞳面に入射する入射位置を調整することと、励起によって生じた前記試料からの蛍光を、複数の検出部を用いて検出することと、前記複数の検出部のうち少なくとも2つの検出部での検出結果を用いて画像を生成することとを含む。
[第1実施形態]
第1実施形態について説明する。図1は、第1実施形態に係る顕微鏡および励起光の光路を示す図である。以下の実施形態において、顕微鏡1は走査型の蛍光顕微鏡であるものとして説明するが、実施形態に係る顕微鏡は、走査型の顕微鏡あるいは蛍光顕微鏡に限定されない。顕微鏡1は、ステージ2と、光源3と、照明光学系4と、検出光学系5と、検出装置6と、画像処理部7と、制御部8と、入力部9と、表示部10とを備える。顕微鏡1は、概略すると以下のように動作する。
第1実施形態について説明する。図1は、第1実施形態に係る顕微鏡および励起光の光路を示す図である。以下の実施形態において、顕微鏡1は走査型の蛍光顕微鏡であるものとして説明するが、実施形態に係る顕微鏡は、走査型の顕微鏡あるいは蛍光顕微鏡に限定されない。顕微鏡1は、ステージ2と、光源3と、照明光学系4と、検出光学系5と、検出装置6と、画像処理部7と、制御部8と、入力部9と、表示部10とを備える。顕微鏡1は、概略すると以下のように動作する。
ステージ2は、観察対象の試料Sを保持する。試料Sは、予め蛍光染色された細胞などである。試料Sは、蛍光色素などの蛍光物質を含む。光源3は、試料Sに含まれる蛍光物質を励起する励起光L1を発する。照明光学系4は、干渉縞L2を形成し、試料Sに対して、干渉縞L2を複数の方向(例、X方向、Y方向)に走査する。ステージ2は、照明光学系4による干渉縞L2の走査範囲よりも広範な範囲で、試料Sと照明光学系4との図1のX方向およびY方向の相対位置を移動させることができる。検出光学系5は、試料Sからの蛍光L3(後に図4に示す)が入射する位置に配置される。検出装置6は、検出光学系5を介して試料Sからの蛍光L3を検出する複数の検出部6a(後に図4に示す)を含む。画像処理部7は、検出装置6の2以上の検出部6aの検出結果を用いて、画像(例、超解像画像)を生成する。制御部8は、光源3および駆動部22、画像処理部7、入力部9、表示部10を制御する。入力部9は、例えばキーボードやマウスであり、ユーザーからの操作を受け付ける。また表示部10は画像処理部7が生成した画像を、制御部8を介して表示することができる。画像処理部7および制御部8を有して制御装置8Cが構成される。以下、顕微鏡1の各部について説明する。
光源3は、例えばレーザー素子などの光源を含む。光源3は、所定の波長帯の可干渉光を発生する。所定の波長帯は、試料Sの励起波長を含む波長帯に設定される。所定の波長帯は、試料Sを多光子励起せしめる波長帯に設定されてもよい。光源3から出射する励起光L1は、例えば直線偏光である。光源3の出射口には、光ファイバー11などの導光部材が接続される。なお、顕微鏡1は、光源3を備えなくてもよく、光源3は、顕微鏡1と別に提供されてもよい。例えば、光源3は、顕微鏡1に交換可能(取り付け可能、取り外し可能)に設けられてもよい。光源3は、顕微鏡1による観察時などに、顕微鏡1に外付けされてもよい。
照明光学系4は、光源3からの励起光L1が入射する位置に配置される。照明光学系4には、光源3から光ファイバー11を介して励起光L1が入射する。光ファイバー11は、照明光学系4の一部でもよいし、光源3を含む光源装置の一部でもよい。照明光学系4は、光源3側から試料S側へ向かう順に、コリメーターレンズ12、λ/4波長板13、偏光子14、マスク15(開口部材)、瞳ズレ補正装置100、ダイクロイックミラー16、リレー光学系17、走査部18、レンズ19、レンズ20、及び対物レンズ21を備える。
以下の説明において、適宜、図1などに示すXYZ直交座標系を参照する。このXYZ直交座標系において、X方向およびY方向は、それぞれ、対物レンズ21の光軸21aに垂直な方向である。また、Z方向は、対物レンズ21の光軸21aに平行な方向である。なお、対物レンズ21の光軸21aは、照明光学系4の光軸4aと一致している。また、X方向、Y方向、及びZ方向のそれぞれについて、適宜、矢印と同じ側を+側(例、+X側)と称し、矢印と反対側を-側(例、-X側)と称する。また、反射によって光路が折れ曲がる場合、X方向、Y方向、及びZ方向のそれぞれに対応する方向を、添え字を付けて表す。例えば、図1のXa方向、Ya方向、Za方向は、それぞれ、コリメーターレンズ12からダイクロイックミラー16までの光路において、X方向、Y方向、Z方向に対応する方向である。
コリメーターレンズ12は、光ファイバー11から出射する励起光L1を平行光に変換する。コリメーターレンズ12は、例えば、その光源3と同じ側の焦点が光ファイバー11の光出射口と一致するように配置される。以下の説明において、照明光学系4に含まれるレンズについて、適宜、光源3と同じ側の焦点を後側焦点と称し、試料Sと同じ側の焦点を前側焦点と称する。
λ/4波長板13は、励起光L1の偏光状態を円偏光にする。偏光子14は、例えば偏光板であり、所定の偏光方向の直線偏光が透過する特性を有する。偏光子14は、試料Sに入射する光がS偏光(Y方向の直線偏光)となるように、配置されている。偏光子14は、コリメーターレンズ12の光軸12aの周りで回転可能である。コリメーターレンズ12の光軸12aは、照明光学系4の光軸4aと一致している。
マスク15は、蛍光物質を励起する励起光を複数の光束に分割する光束分割部である。照明光学系4は、マスク15が分割した複数の光束のうち2以上の光束の干渉によって生成される干渉縞L2によって、試料Sを走査する。マスク15は、対物レンズ21の瞳面P0と光学的に共役な瞳共役面P1の位置またはその近傍に配置される。対物レンズ21の瞳面P0と光学的に共役な瞳共役面の近傍とは、瞳共役面を含む領域のうち励起光L1が平行光線と見なせる範囲である。例えば、励起光L1がガウスビームの場合は、ビームウェストの位置からレイリー長の1/10以内の範囲であれば十分に平行光線と見なすことが出来る。レイリー長は励起光L1の波長をλ、ビームウェスト半径をw0としたとき、πw0
2/λで与えられる。例えば、励起光L1の波長が1μm、ビームウェスト半径が1mmの時、レイリー長はおよそ3mとなり、マスク15は対物レンズ21の瞳面P0と光学的に共役な瞳共役面P1の近傍300mm以内に配置されてもよい。マスク15は、瞳面P0またはその近傍に配置されてもよい。
マスク15は、励起光L1が通る開口15aおよび開口15bを有する。開口15aを通った励起光L1aと開口15bを通った励起光L1bとの干渉によって、干渉縞L2が形成される。マスク15は、コリメーターレンズ12の光軸12aの周りで回転可能である。マスク15は、例えば偏光子14と相対的に固定され、偏光子14と一体的に回転する。マスク15および偏光子14は、駆動部22から供給されるトルクによって回転する。マスク15と偏光子14は一体的に回転しなくてもよく、各々、独立した駆動部から供給されるトルクによって回転してもよい。
図2(A)は、第1実施形態に係るマスクを示す図である。マスク15の開口15a、開口15bは、コリメーターレンズ12(図1参照)の光軸12aに関して、対称的に配置されている。図2(A)の状態において、開口15a、開口15bは、Xa方向に並んでいる。図2(B)は、第1実施形態に係る偏光子を示す図である。偏光子14の透過軸14aは、マスク15において開口15a、開口15bが並ぶ方向(図2(A)ではXa方向)に対して、垂直な方向(図2(B)ではYa方向)と平行に設定される。図2(C)は、対物レンズ21の瞳面P0を示す図である。符号P0a、P0bは、それぞれ、励起光L1が入射する領域である。図2(C)に示すパラメーターについては、後に画像処理部7の説明において参照する。
図3(A)は、第1実施形態に係る瞳ズレ補正装置を示す図である。瞳ズレ補正装置100は例えば、回転可能な2枚の平行平板ガラス111,112と、これらの平行平板ガラス111,112をそれぞれ回転(角度変更)させるための角度変更駆動部113,114とを有して構成される。平行平板ガラス111はYa方向に平行な軸周りに回転可能であり、平行平板ガラス112はXa方向に平行な軸周りに回転可能である。平行平板ガラス111,112は、角度変更駆動部113,114からそれぞれ供給されるトルクによって回転する。図3(B)は、平板ガラス112を図3(A)中のXa方向から見た図である。2枚の平板ガラス111,112を総称して瞳ズレ補正素子110ともいう。瞳ズレ補正素子110は励起光L1(励起光L1a,L1b)をZa方向と垂直な方向(Xa方向もしくはYa方向)にシフトさせて励起光L1a,L1bの対物レンズ21の瞳面P0に入射する位置を調整する調整用素子として機能する。平行平板ガラス111と平行平板ガラス112が配置される順序は、どちらが光源側に配置されてもよい。つまり、平行平板ガラス111は励起光L1をXa方向にシフトさせる機能を有する。平行平板ガラス112は励起光L1をYa方向にシフトさせる機能を有する。Xa方向とYa方向のどちらを先にシフトさせてもよい。平行平板ガラス111,112には、所定の波長帯に対する反射防止コートを施すのが望ましいが、無くてもよい。
瞳ズレ補正素子110(瞳ズレ補正装置100)は第1実施形態の図1において、マスク15とダイクロイックミラー16の間に配置されている。瞳ズレ補正素子110は図1において、対物レンズ21の瞳面P0と光学的に共役な瞳共役面P1の近傍に配置されている。瞳ズレ補正素子110の配置位置としては、これ以外にも、照明光学系4と検出光学系5の共通光路である、ダイクロイックミラー16とリレー光学系17の間、もしくはリレー光学系17と走査部18(偏向ミラー18a)の間でもよい。瞳ズレ補正素子110は瞳共役面P1の位置もしくはその近傍に配置される。本実施形態では瞳ズレ補正素子110を平行平板ガラス2枚で構成しているが、1枚もしくは3枚以上の平行平板ガラスで構成してもよい。瞳ズレ補正素子110(瞳ズレ補正装置100)は、光束分割部(マスク15)により分割される光束(励起光L1a,L1b)をXa方向もしくはYa方向にシフトさせて励起光L1a,L1bの対物レンズ21の瞳面P0に入射する位置を調整する調整部(光束シフト部ともいう)である。瞳ズレ補正素子110(瞳ズレ補正装置100)は、制御部8により制御される。
瞳ズレ補正素子110による光束(励起光L1a,L1b)のシフト量(調整量)について、平行平板ガラス111を例にとって説明する。平行平板ガラス111の厚みをd1、屈折率をn1とする。図3(A)に示すように、平行平板ガラス111の角度をθ1とする。この時、光束のシフト量Δxは下記の式(1)で表される。
式(1)に基づき、適切にd1、n1、θ1を設定することで所望のΔxを得ることができる。角度変更駆動部113はθ1を変更可能である。角度変更駆動部113はθ1を変更することで、Δxを変更することが可能である。平行平板ガラス112による光束のシフト量をΔyとすると、平行平板ガラス112についても平行平板ガラス111と同様に、Δyを変更することが可能である。ΔxおよびΔyを今後、瞳ズレ補正量とも称する。シフト量ΔxをX方向の瞳ズレ補正量、ΔyをY方向の瞳ズレ補正量とも称する。瞳ズレ補正素子110による瞳ズレ補正(励起光L1のシフト)の効果については後述する。
図1の説明に戻り、ダイクロイックミラー16は、励起光L1が反射し、かつ試料Sからの蛍光L3(後に図5に示す)が透過する特性を有する。マスク15の開口15a、開口15bを通った励起光L1は、ダイクロイックミラー16で反射して光路が折れ曲がり、リレー光学系17に入射する。リレー光学系17は、ダイクロイックミラー16からの励起光L1を走査部18へ導く。リレー光学系17は、図中1枚のレンズで表されているが、リレー光学系17に含まれるレンズの数は1枚とは限らない。また、リレー光学系17は、光学系の距離等によっては不要な場合もある。なお、各図において、リレー光学系17以外の部分についても2枚以上のレンズを1枚のレンズで表す場合がある。
走査部18は、X方向とY方向との2方向において、試料Sを励起光L1によって形成される干渉縞L2で走査する。走査部18は、励起光L1によって干渉縞L2が形成される位置を、対物レンズ21の光軸21aに交差する2方向において変更する。走査部18は、偏向ミラー18aおよび偏向ミラー18bを含む。偏向ミラー18aおよび偏向ミラー18bは、励起光L1の光路に対する傾きが可変である。偏向ミラー18aおよび偏向ミラー18bは、それぞれ、ガルバノミラー、MEMSミラー、レゾナントミラー(共振型ミラー)等である。偏向ミラー18aおよび偏向ミラー18bは、スキャナであってもよい。走査部18は、例えば制御部8により制御される。
偏向ミラー18aは、試料Sにおいて励起光L1が入射する位置をX方向に変化させる。偏向ミラー18bは、試料Sにおいて励起光L1が入射する位置をY方向に変化させる。走査部18は、例えば、対物レンズ21の瞳面P0と共役な位置が、偏向ミラー18aの位置、偏向ミラー18bの位置、または偏向ミラー18aと偏向ミラー18bとの間の位置になるように配置される。なお、走査部18は、試料Sにおいて励起光L1が入射する位置を、偏向ミラー18aがY方向に変化させ、偏向ミラー18bがX方向に変化させる構成でもよい。
走査部18からの励起光L1は、レンズ19に入射する。レンズ19は、励起光L1を対物レンズ21の試料面Saと光学的に共役な試料共役面Sbに集光する。試料面Saは、対物レンズ21の前側焦点または前側焦点近傍の位置に配置され、対物レンズ21の光軸21aに垂直な面である。試料共役面Sbには、マスク15の開口15aを通った励起光L1aと開口15bを通った励起光L1bとの干渉によって、干渉縞が形成される。
試料共役面Sbを通った励起光L1は、レンズ20に入射する。レンズ20は、励起光L1を平行光に変換する。レンズ20を通った励起光L1は、対物レンズ21の瞳面P0を通る。対物レンズ21は、励起光L1を試料面Sa上に集光する。レンズ20および対物レンズ21は、試料共役面Sbに形成される干渉縞を試料面Saに投影する。試料面Saには、局所的な干渉縞L2が形成される。
干渉縞L2は、光強度が相対的に高い明部と、光強度が相対的に低い暗部とを含む。明部と暗部とが並ぶ方向(図1ではX方向)を、適宜、干渉縞L2の周期方向D1と称す。干渉縞L2の周期方向D1は、マスク15の開口15aと開口15bとが並ぶ方向(図1ではXa方向)に対応する。駆動部22がマスク15をZa方向の周りで回転させると、開口15aと開口15bとが並ぶ方向が回転し、干渉縞L2の周期方向D1がZ方向の周りで回転する。すなわち、駆動部22は、干渉縞L2の方向を変更する縞方向変更部に含まれる。駆動部22(縞方向変更部)は、照明光学系4の光軸4aに垂直な面(例、マスク15の光出射側の面)において2以上の光束が並ぶ方向(以下、光束分割方向という)を変更する。上記の光束分割方向は、例えば、開口15aと開口15bとが並ぶ方向であり、駆動部22は、マスク15を回転させることによって、光束分割方向を変更する。
また、マスク15がZa方向の周りで回転すると、試料Sに対して励起光L1が入射する方向が変化する。駆動部22は、偏光子14をマスク15と連動して回転させることによって、偏光子14の透過軸の向きを変化させ、励起光L1が、S偏光で試料Sに入射するように調整する。すなわち、偏光子14および駆動部22は、干渉縞の方向に基づいて、励起光L1の偏光状態を調整する偏光調整部に含まれる。
図4は、第1実施形態に係るマスク、偏光子、干渉縞、及び励起光の偏光状態を示す図である。図4(A)において、マスク15の開口15aおよび開口15bが並ぶ方向は、Xa方向である。偏光子14の透過軸14aは、Xa方向に垂直なYa方向である。この場合、励起光L1(図1参照)は、開口15aを通った光束と、開口15bを通った光束が試料Sに入射して、周期方向D1の干渉縞L2が生成される。励起光L1入射面は、XZ平面に平行である。試料Sに入射する際の励起光L1は、その偏光方向D2が入射面に垂直なY方向であり、つまり、励起光L1は、S偏光で試料Sに入射する。
図4(B)において、マスク15の開口15aおよび開口15bが並ぶ方向は、Xa方向を反時計回りに120°回転させた方向である。偏光子14の透過軸14aは、Ya方向を反時計回りに120°回転させた方向である。干渉縞L2の周期方向は、X方向に対して120°をなす方向である。励起光L1の入射面は、XZ平面をZ方向の周りで120°回転させた面である。試料Sに入射する際の励起光L1は、その偏光方向D2が入射面に垂直な方向であり、つまり、励起光L1は、S偏光で試料Sに入射する。
図4(C)において、マスク15の開口15aおよび開口15bが並ぶ方向Xa方向を反時計回りに240°回転させた方向である。偏光子14の透過軸14aは、Ya方向を反時計回りに240°回転させた方向である。干渉縞L2の周期方向D1は、X方向に対して240°をなす方向である。励起光L1の入射面は、XZ平面をZ方向の周りで240°回転させた面である。試料Sに入射する際の励起光L1は、その偏光方向D2が入射面に垂直な方向であり、つまり、励起光L1は、S偏光で試料Sに入射する。
上述のように励起光L1が試料SにS偏光で入射する場合、P偏光で入射する場合に比べて、干渉縞L2のコントラストが高くなる。なお、図4では、干渉縞L2の周期方向を120°の角度刻みで3通りに変化させているが、干渉縞L2の周期方向は、この例に限定されない。干渉縞L2の周期方向は、後述する画像処理部7が生成する画像において、分解能を向上させることが可能な方向(超解像効果が得られる方向)に相当する。干渉縞L2の周期方向は、所望の超解像効果が得られるように、適宜設定される。例えば、干渉縞L2の周期方向は、互いに90°の角度をなす2通りでもよいし、1通りでもよい。また、マスク15は、対物レンズ21の倍率およびNA(開口数)、照明瞳形状に合わせて交換可能でもよい。
図5は、第1実施形態に係る顕微鏡および蛍光の光路を示す図である。検出光学系5は、試料Sで発生した蛍光L3の像を形成する。検出光学系5は、試料Sから検出装置6に向かう順に、対物レンズ21、レンズ20、レンズ19、走査部18、リレー光学系17、ダイクロイックミラー16、励起光カットフィルター(バリアフィルター)23、及びレンズ24を含む。試料Sで発生した蛍光L3は、対物レンズ21、レンズ20、及びレンズ19をこの順に通って、走査部18に入射する。蛍光L3は、走査部18によってデスキャンされ、リレー光学系17を通ってダイクロイックミラー16に入射する。ダイクロイックミラー16は、蛍光L3が透過する特性を有する。ダイクロイックミラー16を透過した蛍光L3は、励起光カットフィルター23に入射する。励起光カットフィルター23は、励起光L1を遮光し、蛍光L3を透過する特性を有する。ダイクロイックミラー16によって励起光L1を十分に遮光できる場合などは、励起光カットフィルター23を設けなくてもよい。励起光カットフィルター23を透過した蛍光L3は、レンズ24に入射する。レンズ24は、蛍光L3を検出装置6に集光する。
検出装置6は、イメージセンサであり、2次元的に配列された複数の検出部6aを含む。複数の検出部6aは、検出装置6において2方向に配列されている。複数の検出部6aは、Xb方向とYb方向との2方向に配列されている。複数の検出部6aは、それぞれ、フォトダイオードなどの光電変換素子を含むセンサセル、ピクセル、あるいは光検出器等である。複数の検出部6aは、それぞれ、蛍光L3を検出可能である。検出部6aは例えば1画素に相当するが、複数の画素を含む検出領域(受光領域)を1つの検出部6aとして用いてもよい。
顕微鏡1は、走査部18により干渉縞L2を試料面Sa上で走査し、検出装置6は、蛍光L3を検出する。例えば、顕微鏡1は、試料面Saから選択される照明領域を干渉縞L2で照明し、検出装置6は、上記照明領域からの蛍光L3を検出する。顕微鏡は、検出装置6による検出が終了した後に、走査部18により上記照明領域を変更する。顕微鏡1は、蛍光を検出する処理と、照明領域を変更する処理とを繰り返すことで、所望の領域における蛍光強度分布(検出装置6の測定値)を取得する。
画像処理部7は、上述のようにして得られた検出装置6の検出結果に基づいて、画像を生成する。以下、画像処理部7が実行する処理について説明する。以下の説明に用いる数式において、適宜、座標系をベクトルで記述する。試料面Saにおける座標および検出装置6における座標(以下、ディテクター座標という)をベクトルr=(x,y)で表し、対応する波数座標(rでのフーリエ変換後の座標)をベクトルk=(kx,ky)で表す。また、走査部18による走査先の座標(以下、スキャン座標という)をベクトルrs=(xs,ys)で表し、その対応する波数座標(rsでのフーリエ変換後の座標)をベクトルks=(kxs,kys)で表す。rおよびrsの原点は光軸上にとるものとする。以下の説明において、波数を空間周波数もしくは周波数と称す場合がある。光学系の倍率は、説明の便宜上1倍であるとするが、任意の倍率で構わない。
対物レンズ21を含む光学系の開口数をNA、照明光L1の波長をλex、蛍光L3の波長をλemとすると、励起光L1が入射する場合の対物レンズ21の瞳半径kNA
exおよび蛍光が入射する場合の対物レンズ21の瞳半径kNA
emは、下記の式(2A)および式(2B)で表される。よく知られているように瞳面と像面の各々の電場振幅はフーリエ変換の関係で結ばれているため、瞳位置の座標を波数座標で表現することがある。kNA
exおよびkNA
emは各々、瞳を波数座標で表現した場合の瞳半径の値を示している。
ここで、図2(C)を参照しつつ、各種パラメーターについて説明する。図2(C)では、瞳面P0を波数座標空間(周波数空間)で表している。図2(C)に示す点線で書かれた円の内部の領域は、対物レンズ21の瞳であり、kNA
exは、励起光L1が入射する場合の対物レンズ21の瞳半径である。励起光L1が入射する領域P0a、領域P0bは、ここではそれぞれ円形であるとするが、円形に限られない。領域P0a、領域P0bのそれぞれの半径は、σkNA
exである。σは対物レンズ21の瞳半径に対する領域P0a,もしくは領域P0bの半径の比である。対物レンズ21の光軸21aから領域P0aの中心までの距離は、(1-σ)kNA
exである。領域P0aの中心と領域P0bの中心との距離は、例えば2(1-σ)kNA
exであるが、この値に限らない。試料面Saでの励起光の電場強度ill(r)は、下記の式(3)で表される。
ここで、ベクトルk0=(k0,0)は照明縞(干渉縞L2)の波数ベクトルを示し、k0=2(1-σ)kNA
exである。PSFill(r)は光学系の開口数がσNAである場合の点像強度分布関数(Point Spread Function)である。ill(r)の干渉縞の間隔(明部から次の明部までの距離)は、1/k0=1/(2(1-σ)kNA
ex)である。以下の説明において、干渉縞の間隔を、適宜、縞間隔または干渉縞の周期と称する。
実施形態において、試料Sに含まれる蛍光物質は、励起光L1によって励起され、励起した蛍光物質から蛍光L3が放射される。検出装置6は、蛍光L3を受光し、検出光学系5により形成された蛍光物質の像を撮像する。検出装置6は、蛍光物質の像を撮像して画像データを取得する。以下の説明では、検出装置6の検出部6aのサイズ(検出部サイズ)は、検出装置6における干渉縞L2の周期に相当する寸法(1周期に相当する検出装置6上の長さ)に比べて十分に小さいとする。例えば、検出部6aのサイズは、λem/4NA程度に設定されることが望ましい。検出光学系の倍率が1とは異なる場合は、検出光学系5の検出装置6側の開口数をNAdとして、例えば、検出部6aのサイズは、λem/4NAd程度に設定されることが望ましい。
ここで、試料Sにおける蛍光物質の分布をObj(r)で表し、検出装置6で得られる画像データをI(r,rs)で表す。I(r,rs)は、下記の式(4)で表される。
式(4)における*rは、rについてのコンボリューションである。ここで、PSFdet(r)は、対物レンズ21を含む検出光学系5および蛍光波長λemによって定まる検出PSFである。画像データI(r,rs)は、ディテクター座標r=(x,y)及びスキャン座標rs=(xs,ys)を独立変数に持つ4次元のデータである。I(r,rs)を変形すると、下記の式(5)が得られる。
式(5)における*rsはrsについてのコンボリューションである。また、PSFeff(r,rs)は、下記の式(6)で定義される実効PSFである。
上記の式(5)より、検出装置6の検出部6aごとに、Obj(rs)の画像データが得られることが分かる。また、上記の式(6)より、検出装置6の検出部6aの位置(r)ごとに、実効PSFの形状が異なることが分かる。
図6は、第1実施形態に係る検出装置の各検出部における実効PSFを示す図である。図6の各グラフにおいて、横軸は検出装置6のXb方向である。試料面Saは検出装置6と光学的に共役であり、試料面Saの座標Xと検出装置の座標Xbは適当な座標変換によって対応づけられる。例えば、光学系の倍率が1である場合、X=Xbとなる。
図6(A)には、Xb方向の座標が互いに異なる3つの検出部6aについて、各検出部6aの実効PSF(実線)を1つのグラフに表した。例えば、図6(A)の中央のグラフには、位置X1aに配置される検出部6aの実効PSFに対応する分布Q1a(実線)を示した。また、図6(A)の左側のグラフには、位置X1bに配置される検出部6aの実効PSFに対応する分布Q1b(実線)を示した。また、図6(A)の右側のグラフには、位置X1cに配置される検出部6aの実効PSFに対応する分布Q1c(実線)を示した。
また、図6の点線に対応する符号Q2は、図2等に示した干渉縞L2の強度分布に対応する分布である。分布Q2は、試料面Saでの励起光の電場強度ill(r)(上記の式(3)参照)に対応する。干渉縞L2の強度が極大となる位置、すなわち分布Q2のピーク位置X2a、X2b、及びX2cは、数値シミュレーション等によって予め求めることができる。
分布Q2は、部分的な分布であるQ2a、Q2b、及びQ2cを含む。分布Q2aは、ピーク位置X2aの前の極小位置から次の極小位置までの範囲における分布である。分布Q2bは、ピーク位置X2bの前の極小位置から次の極小位置までの範囲における分布である。分布Q2cは、ピーク位置X2cの前の極小位置から次の極小位置までの範囲における分布である。
また、図6の2点鎖線に対応する符号Q3a、符号Q3b、及びQ3cは、対物レンズ21を含む検出光学系5および蛍光波長λemによって定まる検出PSFに対応する分布である。検出PSFは、式(4)などのPSFdet(r)に対応する。
図6(A)の中央のグラフに示す分布Q3aは、複数の検出部6aのうち位置X1aに配置される検出部6aの検出PSFに対応する分布である。分布Q3aは、検出部6aが配置される位置X1a(例、検出部6aの受光領域の中心位置)において極大(ピーク)になる。位置X1aは、干渉縞L2の強度分布に対応する分布Q2aのピーク位置X2aとほぼ同じである。実効PSFに対応する分布Q1aは、干渉縞L2の強度分布に対応する分布Q2と、位置X1aに配置される検出部6aの検出PSFに対応する分布Q3aとを掛け合わせた分布である。
図6(A)の中央のグラフにおいて、検出部6aの位置X1aすなわち検出PSFのピーク位置(分布Q3aのピーク位置)は、干渉縞L2の強度分布に対応する分布Q2aのピーク位置X2aとのずれ量が所定値よりも小さい(例えば、ずれ量はほぼ0)。このような場合、実効PSFの分布Q1aは、単一の極大(ピーク)をとる。この場合、分布Q1aのピーク位置は、検出部6aの位置X1aあるいは干渉縞L2の強度分布に対応する分布Q2aのピーク位置X2aとほぼ同じになる。
図6(A)の左側のグラフに示す分布Q3bは、複数の検出部6aのうち位置X1bに配置される検出部6aの検出PSFに対応する分布である。分布Q3bは、検出部6aが配置される位置X1b(例えば、検出部6aの受光領域の中心位置)において極大(ピーク)になる。位置X1bは、干渉縞L2の強度分布に対応する分布Q2のうちで位置X1bを含む部分的な分布Q2bのピーク位置X2bとずれている。実効PSFに対応する分布Q1bは、干渉縞L2の強度分布に対応する分布Q2と、位置X1bに配置される検出部6aの検出PSFに対応する分布Q3bとを掛け合わせた分布である。
図6(A)の左側のグラフにおいて、検出部6aの位置X1bすなわち検出PSFのピーク位置(分布Q3bのピーク位置)は、干渉縞L2の強度分布に対応する分布Q2bのピーク位置X2bとのずれ量が所定値よりも大きい。この場合、実効PSFの分布Q1bが2つの極大(ピーク)をとる。このように、検出器6aの位置によって実効PSFのピークが2つに分かれる事があり、このような実効PSFの形状変化を実効PSFの形状の崩れと呼ぶ。実効PSFの最も強いピークをメインローブ、それ以外のピークをサイドローブと呼ぶ。
実効PSFの分布Q1bのメインローブのピーク位置は、検出装置6の中心位置(X2a)からずれている。このように、検出装置6の検出部6aの位置(r)と干渉縞L2の強度分布の位置との関係によって、実効PSFのメインローブの位置もずれることが分かる。以下の説明において、適宜、実効PSFのメインローブの位置のずれを実効PSFの位置ずれと呼ぶ。
図6(A)の右側のグラフに示す分布Q3cは、複数の検出部6aのうち位置X1cに配置される検出部6aの検出PSFに対応する分布である。分布Q3cは、検出部6aが配置される位置X1c(例、検出部6aの受光領域の中心位置)において極大(ピーク)になる。位置X1cは、干渉縞L2の強度分布に対応する分布Q2のうちで位置X1cを含む部分的な分布Q2cのピーク位置X2cとずれている。実効PSFに対応する分布Q1cは、干渉縞L2の強度分布に対応する分布Q2と、位置X1cに配置される検出部6aの検出PSFに対応する分布Q3cとを掛け合わせた分布である。
図6(A)の右側のグラフにおいて、検出部6aの位置X1cすなわち検出PSFのピーク位置(分布Q3cのピーク位置)は、干渉縞L2の強度分布に対応する分布Q2cのピーク位置X2cとのずれ量が所定値よりも大きい。この場合、実効PSFの分布Q1cが2つの極大(ピーク)をとり、実効PSFの形状の崩れ、実効PSFの位置ずれが発生している。
図6(B)は、検出部6aの位置が図6(A)と異なる。図6(B)の左側のグラフに示す分布Q3dは、複数の検出部6aのうち位置X1dに配置される検出部6aに対応する分布である。分布Q3dは、検出部6aが配置される位置X1d(例、検出部6aの受光領域の中心位置)において極大(ピーク)になる。位置X1dは、干渉縞L2の強度分布に対応する分布Q2のうちで位置X1dを含む部分的な分布Q2bのピーク位置X2bとほぼ同じである。このような場合、実効PSFの分布Q1dは、単一の極大(ピーク)をとり、分布Q1dのピーク位置は、検出部6aの位置X1dあるいは干渉縞L2の強度分布に対応する分布Q2bのピーク位置X2bとほぼ同じになる。すなわち、実効PSFの形状の崩れは発生していない。
また、図6(B)の右側のグラフに示す分布Q3eは、複数の検出部6aのうち位置X1eに配置される検出部6aに対応する分布である。分布Q3eは、検出部6aが配置される位置X1e(例、検出部6aの受光領域の中心位置)において極大(ピーク)になる。位置X1eは、干渉縞L2の強度分布に対応する分布Q2のうちで位置X1eを含む部分的な分布Q2cのピーク位置X2cとほぼ同じである。このような場合、実効PSFの分布Q1eは、単一の極大(ピーク)をとり、分布Q1eのピーク位置は、検出部6aの位置X1eあるいは干渉縞L2の強度分布に対応する分布Q2cのピーク位置X2cとほぼ同じになる。すなわち、実効PSFの形状の崩れは発生していない。
本実施形態において、画像処理部7は、検出光学系5の倍率および干渉縞L2の周期(縞間隔)に基づいて、複数の検出部6aから選択される検出部6aの検出結果を用いる。画像処理部7は、干渉縞L2のピーク位置(例、図6のピーク位置X2a、X2b、X2c)に基づいて検出部6aを複数の検出部6aから選択し、選択した検出部6aの検出結果を用いる。干渉縞L2のピーク位置は、例えば、干渉縞L2の強度分布において強度が極大の位置(例、明部の中心位置)に相当する。
画像処理部7は、例えば、図6(B)の中央のグラフにおけるピーク位置X2aに対応する検出結果として、ピーク位置X2aと対応する位置X1aに配置される検出部6aの検出結果を用いる。例えば、ピーク位置X2a、X2b、及びX2cは、数値シミュレーション等によって予め求められ、記憶部に予め記憶される。画像処理部7は、記憶されたピーク位置の情報に基づいて、複数の検出部6aのうちピーク位置X2aの最も近くに配置される検出部6aを選択し、選択した検出部6aの検出結果を用いる。
画像処理部7は、干渉縞L2の強度分布において1つのピークを含む部分的な分布Q2aに関する検出結果として、位置X1aに配置される1つの検出部6aの検出結果のみを用いてもよいし、位置X1aに配置される検出部6aおよびこの検出部6aの周囲の少なくとも1つの検出部6aの検出結果を用いてもよい。
また、画像処理部7は、例えば、図6(B)の左側のグラフにおけるピーク位置X2bに対応する検出結果として、ピーク位置X2bと対応する位置X1dに配置される検出部6aの検出結果を用いる。画像処理部7は、検出光学系5の倍率および干渉縞L2の周期に基づいて、干渉縞L2の強度分布において1つのピークを含む部分的な分布Q2bと位置が整合する検出部6aを複数の検出部6aから選択する。例えば、画像処理部7は、記憶されたピーク位置の情報に基づいて、複数の検出部6aのうちピーク位置X2bの最も近くに配置される検出部6a(例、位置X1dに配置される検出部6a)を選択する。画像処理部7は、分布Q2bに関する検出結果として、選択した検出部6aの検出結果を用いる。
画像処理部7は、干渉縞L2の強度分布において1つのピークを含む部分的な分布Q2bに関する検出結果として、位置X1dに配置される1つの検出部6aの検出結果のみを用いてもよいし、位置X1dに配置される検出部6aおよびこの検出部6aの周囲の少なくとも1つの検出部6aの検出結果を用いてもよい。分布Q1dに対応する実効PSF(PSFeff)は、分布Q2bのピーク位置X2bと検出部6aとの位置X1dとが整合することで、実効PSFの形状の崩れが低減される。
また、画像処理部7は、例えば、図6(B)の右側のグラフにおけるピーク位置X2cに対応する検出結果として、ピーク位置X2cと対応する位置X1eに配置される検出部6aの検出結果を用いる。画像処理部7は、検出光学系5の倍率および干渉縞L2の周期に基づいて、干渉縞L2の強度分布において1つのピークを含む部分的な分布Q2cと位置が整合する検出部6aを複数の検出部6aから選択する。例えば、画像処理部7は、記憶されたピーク位置の情報に基づいて、複数の検出部6aのうちピーク位置X2cの最も近くに配置される検出部6a(例、位置X1eに配置される検出部6a)を選択する。画像処理部7は、分布Q2cに関する検出結果として、選択した検出部6aの検出結果を用いる。
画像処理部7は、干渉縞L2の強度分布において1つのピークを含む部分的な分布Q2cに関する検出結果として、位置X1eに配置される1つの検出部6aの検出結果のみを用いてもよいし、位置X1eに配置される検出部6aおよびこの検出部6aの周囲の少なくとも1つの検出部6aの検出結果を用いてもよい。分布Q1e(PSFeff)は、分布Q2cのピーク位置X2cと検出部6aとの位置X1eとが整合することで、実効PSFの形状の崩れが低減される。
画像処理部7は、上述のように選択した検出部6aの検出結果について、検出部6aごとの画像の位置ずれ(実効PSFeffのピーク位置、もしくはメインローブの位置ずれ)を補正する。検出部6aごとの画像の位置ずれは、各種設計値を用いた理論計算、あるいは蛍光ビーズなどの小物体を検出装置6によって撮影した撮像画像から取得可能である。このような位置ずれの補正を行うと、選択された検出部6aのそれぞれで得られる画像の実効PSFをほぼ同一にすることができる。なお、位置ずれの補正量は検出部6aごとに異なっていてもよい。このようにして得られた画像のPSFeffは、近似的に検出装置6の中心位置の検出部(光軸上に位置する検出部)のPSFeffと同等と見なせる。検出装置6の中心位置(r=(0,0))の検出部のPSFeffは、式(6)を参照して下記の式(7)で表される。
干渉縞L2の周期方向、つまりk0方向に着目すると、式(6)より干渉縞L2の周期が小さいほどPSFeffの半値全幅は狭く、分解能が良くなることが分かる。つまり実施形態における干渉縞L2の周期方向に含まれる縞の数(明部)が多いほどPSFeffの半値全幅は狭くなり、分解能が良い。通常の蛍光顕微鏡の半値全幅は0.51λem/NAで与えられる。実施形態におけるPSFeffの半値全幅は、例えばσ=0.3の場合に0.3λex/NAとなり、通常の蛍光顕微鏡よりもPSFの半値全幅が1.7倍ほど狭く分解能が良い。実施形態における干渉縞L2の周期方向に含まれる明部の数は、例えばσ=0.3の場合に5である。実施形態におけるPSFeffの半値全幅は、例えばσ=0.4の場合は0.34λex/NAとなり、通常の蛍光顕微鏡よりもPSFの半値全幅が1.5倍ほど狭く分解能が良い。実施形態における干渉縞L2の周期方向に含まれる明部は、例えばσ=0.4の場合に3である。また、通常の共焦点顕微鏡のピンホールを十分に小さく絞った場合、通常の蛍光顕微鏡よりもPSFの半値全幅が1.4倍ほど狭く分解能が良いことが知られている。共焦点顕微鏡に対して、分解能向上効果の優位性を持つためには、通常の蛍光顕微鏡よりもPSFの半値全幅が1.5倍以上狭いことが望ましい。すなわち、実施形態において干渉縞L2の周期方向に含まれる明部は3以上であることが望ましい。他の実施形態においても同様である。
画像処理部7は、PSFeffがほぼ同一となった画像を足し合わせることで、画像を生成する。画像処理部7は、足し合わされる画像のPSFeffがほぼ同一になっていることで、分解能およびS/N比が良好な画像ISR(rs)を生成可能である。なお、画像ISR(rs)の生成に用いる検出部6aの範囲を広くすると、信号量を増加することができる。また、画像ISR(rs)の生成に用いる検出部6aの範囲を狭くすると、セクショニング能力を高くすることができる。
上記の式(7)をフーリエ変換することで、実効OTFを求めることができる。通常の蛍光顕微鏡での遮断周波数であるkcut
convは、kcut
conv=2NA/λで与えられる。実施形態に係る顕微鏡は、干渉縞L2の方向にOTFが拡大し、2kcut
convまでの遮断周波数を持つ。ここでは簡単のため、励起波長と蛍光波長は等しくλであるとした。実施形態に係るOTFは、通常の蛍光顕微鏡のOTFと、通常の蛍光顕微鏡のOTFが干渉縞L2の周期方向にシフトした成分とが合わさったものになる。
上記の式(7)で説明したように、実施形態に係る顕微鏡1は、干渉縞L2の周期方向(図1ではX方向)の分解能が向上する。顕微鏡1は、干渉縞L2の周期方向を変更して試料Sからの蛍光を検出することで、2次元的に分解能を向上させることも可能である。ここで、干渉縞L2の周期方向を90°変更する例を説明する。干渉縞L2の周期方向を90°変更するには、図2の状態のマスク15及び偏光子14をZa方向の周りで90°回転させる。
干渉縞L2の周期方向がX方向である場合の超解像画像をISRx(rs)とし、干渉縞L2の周期方向がY方向である場合の超解像画像をISRy(rs)とする。画像処理部7は、ISRx(rs)とISRy(rs)とを足し合わせることで、2次元的に分解能が向上した超解像画像を生成してもよい。また、画像処理部7は、下記の処理によって超解像画像を生成してもよい。
画像処理部7は、超解像画像ISRx(rs)および超解像画像ISRy(rs)をそれぞれフーリエ変換する。ここで、フーリエ変換された超解像画像ISRx(rs)をI~
SRx(ks)で表わす。明細書中の「~」は数式中のチルダーである。また、フーリエ変換された超解像画像ISRy(rs)をI~
SRy(ks)で表す。I~
SRx(ks)は、通常の蛍光顕微鏡に比べて、干渉縞の周期方向(X方向)に関して遮断周波数が増加する。また、I~
SRy(ks)は、通常の蛍光顕微鏡に比べて、干渉縞の周期方向(Y方向)に関して遮断周波数が増加する。画像処理部7は、I~
SRx(ks)とI~
SRy(ks)とを足し合わせる。これにより、2方向(X方向およびY方向)において、遮断周波数が増加する。
なお、足し合わされた実効OTFの形状は、干渉縞L2の周期方向を変更する方向の組み合わせによって、いびつである場合がある。この場合、画像処理部7は、実効OTFの形状を補正する周波数フィルターをかけてもよい。これにより、ISRx(rs)とISRy(rs)とを足し合わせる場合よりも効果的に分解能を向上させることができる。また、図4で説明したように、照明光学系4は、干渉縞L2の周期方向を0°、120°、240°の3通りに変更し、検出装置6は、3通りの周期方向のそれぞれについて蛍光L3を検出してもよい。画像処理部7は、3通りの周期方向について検出装置6が検出した3つの検出結果(例、3枚の画像)を用いて、超解像画像を生成してもよい。また、照明光学系4は、干渉縞L2の周期方向を4通り以上変更し、検出装置6は、4通り以上の周期方向のそれぞれについて蛍光L3を検出して、画像処理部7は、4通り以上の周期方向について検出装置6が検出した4以上の検出結果を用いて、超解像画像を生成してもよい。ここで説明した、干渉縞の周期方向を複数回変更して取得した複数の検出結果を用いて超解像画像を生成する方法は、以降の実施形態においても利用することが出来る。ここまでに説明してきた画像処理について、多光子励起蛍光を用いる場合にも同様の考え方が適用可能である。
瞳ズレ補正素子110による瞳ズレ補正の効果について以下説明する。観察する視野の位置(走査座標、走査ミラーの角度、視野角)によっては、照明光(励起光L1a,L1b)の一部が対物レンズ21の瞳面P0においてケラレてしまう(照明光の一部が対物瞳内を通過しない)場合がある。照明光の一部がケラレてしまうと照明形状が崩れ、画像処理部7が生成する画像の分解能・セクショニング能力の悪化、また、照明光(L1aとL2aとの干渉によって形成される干渉縞L2)の光量の低下が生じる場合がある。したがって、照明光がケラレないように瞳ズレ補正を行う必要がある。
照明光のケラレが生じる理由について述べる。まず、走査座標(偏向ミラー18a,18bの角度、視野角)によって、照明光が対物瞳(瞳面P0)に入射する位置が光軸に垂直な方向にずれる(シフトする)こと(図7参照)を瞳ズレと呼ぶ。これは、偏向ミラー18a,18bと対物瞳共役位置が光軸方向にずれていることに起因する。図8に瞳ズレが生じるメカニズムについて示す。図8(A)に示すように、2枚の偏向ミラー18a,18bの中間に、対物瞳と共役な瞳共役位置P2が配置されるとする。偏向ミラー18aの角度を変更した場合、図8(B)に示すように、照明光の角度が変わるが、同時に照明光が瞳共役位置P2を通過する位置も変わってしまう。これが瞳ズレの原因となる。瞳共役位置P2を通過した照明光はレンズ19,20によって対物レンズ21の瞳面P0にリレーされる。この時、瞳共役位置P2にて照明光の角度だけでなく位置もずれているため、リレーされた先の瞳面P0でも角度だけでなく位置もずれる。その結果、図7に示しているように対物レンズ21の瞳面P0によって照明光の一部がケラレてしまう瞳ズレが生じる。
瞳ズレが生じる様子を図9に示す。瞳面P0における照明光の入射位置のズレ量を瞳ズレ量と呼ぶ。図9(A)~(C)に示すように、瞳面P0における照明光のX方向の瞳ズレ量をδx、Y方向の瞳ズレ量をδyとする。瞳面P0における照明光が+X側にずれる場合にδxは正の値をとり、-X側にずれる場合にδxは負の値をとるものとする。同様に、瞳面P0における照明光が+Y側にずれる場合にδyは正の値をとり、-Y側にずれる場合にδyは負の値をとるものとする。図8(B)よりδxは偏向ミラー18aの角度に依存して決まる。すなわちδxは走査座標xs(X方向の走査座標)の値に依存して決まる。同様に、δyは偏向ミラー18bの角度に依存して決まる。すなわちδyは走査座標ys(Y方向の走査座標)の値に依存して決まる。δx、δyとxs、ysの間の関係は、照明光学系4の設計値によって決まり、設計値からの理論計算、シミュレーション等で求めることができる。xs=0、ys=0のときδx=0、δy=0となるように設計した場合、図9より分かるように、|xs|(絶対値)が大きいほど|δx|は大きくなり、|ys|(絶対値)が大きいほど|δy|は大きくなる。
瞳ズレ補正素子110(図3参照)、は偏向ミラー18a,18bの走査位置(走査座標xs、ys)に対応して発生する瞳ズレを補正する。δx、δyの瞳ズレが発生していた場合、瞳ズレ補正素子110により逆方向のズレ(照明光のシフト)を生じさせることで、瞳ズレを補正することができる。瞳共役面P1から瞳面P0への光学系の倍率をMp1p0とする。この時、瞳ズレ補正量Δx=-δx/Mp1p0、Δy=-δy/Mp1p0となるように瞳ズレ補正素子110を設定することで瞳ズレ補正が可能となる。
上記のように瞳ズレを補正することが可能であるが、走査座標xs、ysごとに一点一点補正を行うのは現実的ではない。例えば、512×512点を走査する場合(スキャンピクセル数が512×512の場合)、その一点一点で瞳ズレを補正しようとすると、瞳ズレ補正素子110を512×512回も動作させる必要がある。すなわち、512×512点を走査する場合(スキャンピクセル数が512×512の場合)、偏向ミラー18aの角度、偏向ミラー18bの角度ごとに、瞳ズレを補正しようとすると、瞳ズレ補正素子110を512×512回も動作させる必要がある。1回の動作に0.1s程度かかるとすると、全領域を走査する間に瞳ズレ補正素子110の動作だけで26000秒程度もかかってしまうことになる。したがって、例えば瞳ズレ量に所定の値としての許容値を設け、瞳ズレ量が許容値を超える場合に瞳ズレを補正することが好ましい。瞳ズレ量が小さい場合はその影響は小さく、瞳ズレ量が大きいほど分解能等の性能への影響が大きくなる。例えば、図9(D)に示すように、瞳ズレ量が大きく、2つの光束(励起光L1a,L1b)のうち1つが完全に対物瞳の外に出てしまうような場合は、もはや干渉縞L2は形成されなくなる。例えば、分割した光束うち1つが完全にケラレてしまうまでの瞳ズレ量を、瞳ズレの許容値として設定することができる。
もしくは、分解能の悪化等についてどこまで許容できるかによって、瞳ズレの許容値を決定してもよい。瞳半径(ここでは、波数空間ではなく、実空間での実寸法での瞳半径)をRpとする。瞳ズレ量δx、δyを瞳半径Rpで割った値(規格化した値)をδxnorm、δynormとする(規格化された瞳ズレ量と呼ぶ)。δxnorm=δx/Rp、δynorm=δy/Rpである。規格化された瞳ズレ量の許容値をδxlim、δylimとする。例えば、|δxnorm|<δxlim、|δynorm|<δylimを満たす走査範囲であれば、瞳ズレの補正を行わないことが可能である。例えば、照明瞳形状として図2(C)に示すような円形2極でσを0.3と選んだ場合、瞳ズレによるx方向の分解能悪化を10%まで許容するとすると、δxlim=0.2、δylim=0.3と設定してもよいことがシミュレーションから分かる。δxlim、δylimの値は、性能悪化の許容値、照明縞(干渉縞L2)の方向、照明瞳の形状などによって異なる値に設定されてもよい。瞳半径で規格化された瞳ズレ量δxnorm、δynormを用いる場合、対物レンズの倍率、NA,瞳径に依らずに同じ値を利用することが可能である。もしくは、対物レンズごとに異なる値に設定してもよい。
図10(A)に示すように、顕微鏡1が走査可能な範囲J0に対して、瞳ズレ補正無しでも瞳ズレ量が許容値以内に収まる状態で走査可能となる範囲J1は相対的に小さくなる場合がある。そのため、範囲J1以外の、瞳ズレ量が上記δxlim、δylimを越える範囲(例えば、図10(B)に示す範囲J2)を観察したい場合は、観察者が観察したい範囲(観察領域)を指定し、その指定された位置に合わせて瞳ズレ補正素子110による瞳ズレ補正量を求めて瞳ズレ補正を行うことが好ましい。一方、瞳ズレ補正無しでも瞳ズレ量が許容値以内に収まる状態で走査可能な範囲(例えば、上記の範囲J1)だけを観察するような場合は、瞳ズレ補正素子110(瞳ズレ補正)は不要である。また、瞳ズレ補正素子110を用いて、マスク15を切り替える時の誤差、マスク位置の経時変化などの誤差を補正するようにしてもよい。
次に、上述の顕微鏡1の構成に基づき、実施形態に係る観察方法について説明する。図11は、実施形態に係る観察方法を示すフローチャートである。顕微鏡1の各部については、適宜、図1、図3あるいは図5を参照する。ステップS1において、観察領域を決定する。この観察領域は例えば観察者(顕微鏡1の使用者)が決定するものである。例えば、観察者は図1の表示部10に対し、任意の領域を入力部9により入力することで、観察領域を決定する。決定(入力)された観察領域(その位置情報)に基づき、顕微鏡1の制御部8は、ステップS2において図3の瞳ズレ補正素子110による瞳ズレ補正量を算出する。そして制御部8は、算出した瞳ズレ補正量に基づき、ステップS3において瞳ズレ補正装置100(角度変更駆動部113,114)に対し瞳ズレ補正素子110の設定を行わせる。次に、ステップS4において、制御部8は、走査ミラー(偏向ミラー18a,18b)の角度を設定する。図1の照明光学系4は、ステップS4で設定された走査ミラーの角度によって定まる試料上の位置に、励起光を干渉縞として照射する。ステップS5において、試料の蛍光物質は、励起光の干渉縞で励起される。ステップS6において、図5の検出装置6は、試料Sからの蛍光L3を、検出光学系5を介して検出する。
ステップS7において、制御部8は、走査ミラーの角度変更を実行するか否かを判定する。制御部8は、予定された観察領域の一部についてステップS4からステップS6の処理が終了していないと判定した場合に、ステップS7において走査ミラーの角度変更を実行すると判定する(ステップS7;Yes)。制御部8は、走査ミラーの角度変更を実行すると判定した場合(ステップS7;Yes)、ステップS4の処理に戻り、制御部8は、走査ミラーの角度を予定された次の角度に設定する。そして、ステップS4からステップS6の処理が繰り返される。このようにして、照明光学系4は、試料Sを励起光L1の干渉縞で2次元的に走査する。
顕微鏡1は、ステップS7において、予定された観察領域の全てについてステップS4からステップS6の処理が終了したと判定した場合に、走査ミラーの角度変更を実行しないと判定する(ステップS7;No)。走査ミラーの角度変更を実行しないと顕微鏡1が判定した場合(ステップS7;No)、ステップS8において、画像処理部7は、検出部ごとの画像の位置ずれを補正する。画像処理部7は、複数の検出部の少なくとも1つの検出部から得られるデータを、その検出部の位置に基づいて補正する。例えば、画像処理部7は、複数の検出部から選択される検出部から得られるデータを、当該検出部の位置に基づいて補正する。例えば、画像処理部7は、複数の検出部のうちの第1の検出部(例、図6(B)において位置X1dに配置される検出部)から得られるデータを、第1の検出部の位置(例、X1d)に基づいて補正する。また、画像処理部7は、2以上の検出部の検出結果を用いて画像を生成する。例えば、ステップS9において、画像処理部7は、ステップS8の補正後の画像を足し合わせることで、画像(例、超解像画像)を生成する。
なお、検出装置6の複数の検出部6aの位置は、干渉縞L2のピーク(もしくは極大、明点)位置と整合するように、干渉縞L2の周期に基づいて設定されてもよい。検出装置6は、検出部6aの間隔と干渉縞L2の縞間隔とが整合するように、予め設定されてもよい。上記の検出部6aの間隔は、1つの検出部6aの中心と、その隣の検出部6aの中心との間隔である。また、上記の干渉縞L2の縞間隔は、干渉縞L2において、1つの明部の中心線と、その隣の明部の中心線との間隔である。ここで、干渉縞L2の波数をk0とすると、干渉縞L2の縞間隔は1/k0となる。干渉縞の縞間隔が1/k0である場合、検出装置6の検出部6aの間隔は、下記の式(8)に示すPと概ね同じになるように設定される。
上記の式(8)において、対物レンズ21を含む検出光学系5の倍率は1倍とした。検出光学系5の倍率がMdetである場合は、倍率分だけ検出器6aの間隔を変え、検出器6aの間隔をMdet/k0とすればよい。もしくは、検出光学系5の一部をズームレンズにすることで検出器6aの間隔を干渉縞L2の周期に整合させることが出来る。この場合、検出光学系5の倍率のみを変更可能なレンズ24をズームレンズとすることが望ましい。また、干渉縞L2の周期は、検出装置6の複数の検出器6aの間隔と整合するように、調整されてもよい。例えば、マスク15の開口部15a、15bの間隔を変更することで干渉縞L2の周期を変更することができる。
なお、本実施形態において、顕微鏡1は、試料面Saと平行な2方向に干渉縞L2を走査することで、干渉縞L2を2次元的に走査する。実施形態に係る顕微鏡1は、試料面Saと平行な2方向、及び試料面Saに垂直な1方向に干渉縞L2を走査することで、干渉縞L2を三次元的に走査してもよい。(干渉縞L2を三次元的に走査する場合、試料面Saと平行な2方向に干渉縞L2を走査する処理(以下、2次元処理という)については、上述の実施形態で説明した処理と同様である。顕微鏡1は、2次元処理をZ方向の位置を変更して繰り返すことにより、例えば、三次元的な超解像画像を生成可能である。後述の実施形態について同様に、顕微鏡1は、干渉縞L2を三次元的に走査してもよい。
第1実施形態によれば、検出部6aの間隔と干渉縞L2の縞間隔とが整合するように設定することで、検出部6aごとに得られる画像の実効PSFを揃える。そのため、画像処理部7により、2以上の検出部での検出結果に基づく画像を足し合わせることで、S/Nを確保しつつ、分解能が高い画像(例、超解像画像)を生成することができる。また、検出対象となる蛍光L3が対物レンズ21の焦点面近傍のみにおいて発生することから、試料Sの内部を含む任意の部分に設定した試料面Saでの画像データを高精度に取得することができる。また、観察する視野の位置(走査座標、走査ミラーの角度、視野角)に応じて、瞳ズレ補正素子110による瞳ズレ補正を行うので、瞳ズレによる分解能・セクショニング能力等の低下を防止しつつ、超解像画像を生成することができる。
[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。本実施形態において、画像処理部7(図5参照)は、周波数空間上のデータに対してフィルタリングを行って、画像を生成する。画像処理部7は、検出装置6から得られるデータに対してデコンボリューションを実行して、画像を生成する。画像処理部7は、上記のフィルタリングとして、検出装置6の検出部6aごとにデコンボリューションおよびアポダイゼーションを行って、画像を生成する。すなわち、画像処理部7は、周波数空間上のデータに対して、デコンボリューションを含むフィルタリングを行う。以下の説明において、適宜、デコンボリューションとアポダイゼーションの一連の処理を合わせて(総称して)、デコンボリューションと称することがある。
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。本実施形態において、画像処理部7(図5参照)は、周波数空間上のデータに対してフィルタリングを行って、画像を生成する。画像処理部7は、検出装置6から得られるデータに対してデコンボリューションを実行して、画像を生成する。画像処理部7は、上記のフィルタリングとして、検出装置6の検出部6aごとにデコンボリューションおよびアポダイゼーションを行って、画像を生成する。すなわち、画像処理部7は、周波数空間上のデータに対して、デコンボリューションを含むフィルタリングを行う。以下の説明において、適宜、デコンボリューションとアポダイゼーションの一連の処理を合わせて(総称して)、デコンボリューションと称することがある。
図12は、第2実施形態に係る顕微鏡の画像処理部の処理を示す図である。顕微鏡の各部については、適宜、図1あるいは図5を参照する。図12(A)は、デコンボリューション前のPSFであり、図6(A)と同様である。図12(A)において、検出装置6(図5参照)の検出部6aの間隔が干渉縞L2の間隔に合っていない。この場合、上記の式(6)で説明したように、検出部6aごとに得られる画像の実効PSF(実線)は検出器6aの位置によっては形状が崩れる。検出器6aごとの実効PSFは、設計値から理論計算すること、あるいは蛍光ビーズのような小物体を撮影することにより取得可能(推定可能)である。画像処理部7は、このようにして取得した実効PSFを用いて、検出部6aごとに得られる画像の実効PSFの形状の崩れ、および位置ずれを補正するようにデコンボリューションを実行する。
図12(B)はデコンボリューション後のPSFである。図12(B)の中央のグラフにおいて、符号Q4aは、図12(A)の中央のグラフに示す分布Q1aすなわち位置X1aに配置された検出部6aの実効PSFを、デコンボリューションして得られる実効PSFに対応する。ここでは、検出部6aの位置X1aと、分布Q2aのピーク位置X2aとのずれ量が所定値よりも小さく、デコンボリューション後の実効PSFに対応する分布Q4aは、デコンボリューション前の実効PSFに対応する分布Q1aとほぼ同じである。
また、図12(B)の左側のグラフにおいて、符号Q4bは、図12(A)の左側のグラフに示す分布Q1bすなわち位置X1bに配置された検出部6aの実効PSFを、デコンボリューションして得られる実効PSFに対応する。図12(B)の右側のグラフにおいて、符号Q4cは、図12(A)の右側のグラフに示す分布Q1cすなわち位置X1cに配置された検出部6aの実効PSFを、デコンボリューションして得られる実効PSFに対応する。このような一連の処理(デコンボリューション)によって、図12(B)の3つのグラフに示すように、検出器6aごとの実効PSFがほぼ同一となる。画像処理部7は、デコンボリューションの結果を用いて、画像を生成する。以下、画像処理部7の処理について、より詳しく説明する。
画像処理部7は、複数の検出部6aの少なくとも一部の検出結果を周波数空間上のデータへ変換し、その変換結果を用いて画像(例、超解像画像)を生成する。以下の説明において、複数の検出部6aの少なくとも一部の検出結果を周波数空間で表したデータを、適宜、周波数空間の成分という。画像処理部7は、複数の検出部6aの少なくとも一部の検出結果をフーリエ変換し、フーリエ変換により得られる周波数空間の成分を用いて画像を生成する。上記の式(5)をrsについてフーリエ変換すると、下記の式(9)が得られる。
式(9)の左辺のI~(r,ks)は、I(r,rs)をrsについてフーリエ変換したものである。右辺のOTFeff(r,ks)は、PSFeff(r,rs)をrsについてフーリエ変換したものであり、検出装置6の検出部6aごとの実効OTFを表す。また、右辺のObj~(ks)はObj(rs)をrsについてフーリエ変換したものである。
デコンボリューションには、ウィーナーフィルタやリチャードソン・ルーシー法など様々な方法が存在する。ここでは一例としてウィーナーフィルタを用いた処理を説明するが、画像処理部7は、その他の処理によってデコンボリューションを実行してもよい。ウィーナーフィルタによる、各検出部のデコンボリューションは、下記の式(10)で表される。
式(10)において、Obj~(r,ks)は検出装置6の検出部6aごとに推定した蛍光物質の分布(以下、推定蛍光物質分布という)である。wはノイズを抑制するためのウィーナーパラメータである。この処理により、検出装置6の2以上の検出部6aにおいて、推定蛍光物質分布Obj~(r,ks)がほぼ共通になる。すなわち、上記の処理により検出器6aごとの実効PSFの形状の崩れがおよび位置ずれが補正され、検出器6aごとの実効PSFがほぼ同一となる。画像処理部7は、下記の式(11)に示す処理によって、Obj~(r,ks)にアポダイゼーションを行い、検出装置6の検出部6aにおけるスペクトルを足し合わせ、超解像画像ISR(rs)を生成する。
式(11)において、A(ks)は画像の負値を抑制するためのアポダイゼーション関数であり、Obj~(r,ks)にA(ks)を掛けることをアポダイゼーションと呼ぶ。A(ks)の関数形は理論計算もしくはシミュレーション等により画像の負値を抑制するよう設計する。また、Fks
-1は、ksに関する逆フーリエ変換である。画像処理部7は、検出部6aごとのスペクトルを足し合わせた後に逆フーリエ変換を行うが、逆フーリエ変換を行ってから画像を足し合わせてもよい。画像処理部7は、式(10)および式(11)の処理において、検出部6aごとに独立してデコンボリューションした後に、検出部6aごとに画像を足し合わせる。画像処理部7は、下記の式(12)のように、2以上の検出部6aをまとめて、デコンボリューションしてもよい。
図13は、第2実施形態に係る観察方法を示すフローチャートである。ステップS11からステップS17の処理は、図11のステップS1からステップS7の処理と同様であるので、その説明を省略する。ステップS18において、画像処理部7は、各検出部の検出結果をフーリエ変換する。ステップS19において、画像処理部7は、デコンボリューションを実行する。ステップS20において、画像処理部7は、アポダイゼーションを実行する。アポダイゼーションは、デコンボリューションの一部の処理でもよい。画像処理部7は、ステップS21において、デコンボリューションの結果を用いて検出部6aごとの画像を足し合わせる。画像処理部7は、ステップS22において、ステップS21で得られた第1の画像(例、フーリエ画像)を逆フーリエ変換することで、第2の画像(例、超解像画像)を生成する。
第2実施形態によれば、画像処理部7により、各検出部の検出結果をフーリエ変換して、デコンボリューションを実行することで、検出部6aごとに得られる画像の実効PSFを揃える。そのため、画像処理部7により、デコンボリューションの結果を用いて検出部6aごとの画像を足し合わせることで、S/Nを確保しつつ、分解能が高い画像(例、超解像画像)を生成することができる。また、観察する視野の位置(走査座標、走査ミラーの角度、視野角)に応じて、瞳ズレ補正素子110による瞳ズレ補正が行われる。これにより、第1実施形態と同様、瞳ズレによる分解能・セクショニング能力等の低下を防止しつつ、超解像画像を生成することができる。
なお、画像処理部7は、第1実施形態で説明したように、足し合わせる検出部6aの範囲を変化させてもよい。また、画像処理部7は、第1実施形態で説明したように、1次元的にまたは2次元的に分解能を向上させてもよい。ここまでに説明してきた画像処理について、多光子励起蛍光を用いる場合も同様の考え方が適用できる。
[第3実施形態]
第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図14は、第3実施形態に係る顕微鏡の画像処理部の処理を示す図である。顕微鏡の各部については、適宜、図1あるいは図5を参照する。
第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図14は、第3実施形態に係る顕微鏡の画像処理部の処理を示す図である。顕微鏡の各部については、適宜、図1あるいは図5を参照する。
本実施形態において、画像処理部7(図5参照)は、第2実施形態と異なる画像処理によって、検出部6aごとの実効PSFの形状の崩れを補正する。図14(A)は、本実施形態に係る画像処理前のPSFであり、図6(A)と同様である。図14(A)において、検出装置6(図5参照)の検出部6aの間隔が干渉縞L2の間隔に合っていない。この場合、上記の式(6)で説明したように、検出部6aごとに得られる画像の実効PSF(実線)は検出器6aの位置によっては形状が崩れる。画像処理部7は、干渉縞L2の強度分布の部分的な分布(例、図14(A)左側のグラフに示すQ2b)のピーク位置が、検出部6aの位置と整合するように、干渉縞L2の強度分布の位相を画像処理によって実効的にシフトさせる。この処理を適宜、画像処理位相シフトと呼び、その位相シフト量を画像処理位相シフト量と呼ぶ。
図14(B)は、画像処理位相シフト処理後の検出部6aごとの実効PSFである。図14(B)の左側のグラフにおいて、分布Q2fは、図14(A)の分布Q2bのピーク位置X2bが検出部6aの位置X1bと一致するように、分布Q2の位相を画像処理位相シフトさせた分布である。分布Q2fのピーク位置X2fは、検出部6aの位置X1bとほぼ一致する。符号Q1fは、位相を画像処理位相シフトさせた分布Q2fと、位置X1bに配置された検出部6aの検出PSF(分布Q3b)とから得られる実効PSFに対応する分布である。分布Q1fは、実効PSFの形状の崩れが低減されている。
また、図14(B)の右側のグラフにおいて、分布Q2gは、図14(A)の分布Q2cのピーク位置X2cが検出部6aの位置X1cと一致するように、分布Q2の位相を画像処理位相シフトさせた分布である。分布Q2gのピーク位置X2gは、検出部6aの位置X1cとほぼ一致する。符号Q1gは、位相を画像処理位相シフトさせた分布Q2gと、位置X1cに配置された検出部6aの検出PSF(分布Q3c)とから得られる実効PSFに対応する分布である。分布Q1gは、実効PSFの形状の崩れが低減されている。
上述のような画像処理処理により、検出部6aごとの実効PSF(実線)の形状がほぼ同一となるように補正される。画像処理部7は、ほぼ同一の形状に補正された実効PSFを持つ検出部6aごとの画像を用いて、画像を生成する。
以下、画像処理部7の処理の流れについて、より詳しく説明する。検出装置6で得られる像I(r,rs)は、上記の式(4)で表される。式(4)に、上記の式(3)に示したill(r)を代入すると、下記の式(13)が得られる。
式(13)において、φは干渉縞L2の初期位相を示す。画像処理部7は、画像処理によって干渉縞L2の位相をディテクター座標に応じて変化させ、実効PSFの形状を揃える。顕微鏡1は、式(4)で説明したように、4次元の画像データI(r,rs)を取得する。画像処理部7は、I(r,rs)に対して4次元のフーリエ変換を行う。フーリエ変換によって得られる周波数空間の4次元のデータをI~(k,ks)で表す。画像処理部7は、I~(k,ks)から、下記の式(14)から式(16)のいずれかの条件を満たす領域の情報を抽出する。以下の説明において、式(14)の条件を満たす領域を0次成分の領域AR1aと称し、式(15)の条件を満たす領域を+1次成分の領域AR1bと称し、式(16)の条件を満たす領域を-1次成分の領域AR1cと称する。また、0次成分の領域AR1aのデータをI0
~(k,ks)で表し、+1次成分の領域AR1bのデータをI+1
~(k,ks)で表し、-1次成分の領域AR1cのデータをI-1
~(k,ks)で表す。I0
~(k,ks)、I+1
~(k,ks)、I-1
~(k,ks)は、それぞれ、フーリエ変換で得られる周波数空間上のデータである。I~(k,ks)からI0
~(k,ks)、I+1
~(k,ks)、I-1
~(k,ks)を分離する処理を、適宜、成分分離と称す。
図15は、第3実施形態において、成分分離に用いる周波数空間の領域を示す図である。ここでは、マスク15(図2参照)の開口15a、開口15bが円形である場合について説明する。マスク15の開口は円形以外の形状でもよい。0次成分の領域AR1a、+1次成分の領域AR1b、及び-1次成分の領域AR1cの範囲は、マスク15の開口が円形である場合、マスク15の開口が円形以外の形状である場合のいずれについても、数値シミュレーション、理論計算等で求めることができる。
図15(A)にはkxs-kys平面における各領域を示した。0次成分の領域AR1a、+1次成分の領域AR1b、-1次成分の領域AR1cは、それぞれ円形の領域である。0次成分の領域AR1a、+1次成分の領域AR1b、及び-1次成分の領域AR1cは、直径がいずれも同じである。0次成分の領域AR1aの直径は、4σkNA
exである。0次成分の領域AR1aは、原点を中心とする領域である。+1次成分の領域AR1bおよび-1次成分の領域AR1cは、それぞれ、中心がkxsの軸上の領域である。-1次成分の領域AR1cの中心と原点との距離Aは、2(1-σ)kNA
exである。+1次成分の領域AR1bは、0次成分の領域AR1aに関して-1次成分の領域AR1cと対称な位置の領域である。
図15(B)にはkxs-kx平面における各領域を示した。0次成分の領域AR1a、+1次成分の領域AR1b、及び-1次成分の領域AR1cは、それぞれ平行四辺形の領域である。
画像処理部7は、試料Sにおける励起光の光強度分布に基づいて、成分分離における周波数空間の領域を設定する。例えば、画像処理部7は、試料Sにおける励起光の光強度分布として試料面Saでの励起光の電場強度ill(r)に基づいて、互いに重複しない複数の領域を設定する。上記の複数の領域は、互いに重複しない3以上の領域を含む。例えば、上記の複数の領域は、第1領域として図15の領域AR1a、第2領域として図15の領域AR1b、第3領域として図15の領域AR1cを含む。画像処理部7は、周波数空間上のデータから、第1領域(領域AR1a)に属するデータ、第2領域(領域AR1b)に属するデータ、及び第3領域(領域AR1c)に属するデータのそれぞれを抽出することで、成分分離を行う。
画像処理部7は、I0
~(k,ks)、I+1
~(k,ks)、及びI-1
~(k,ks)をそれぞれ、4次元の逆フーリエ変換することによって、実空間の画像データを算出する。以下、I0
~(k,ks)を逆フーリエ変換して得られる画像データをI0(r,rs)で表す。また、I+1
~(k,ks)を逆フーリエ変換して得られる画像データをI+1(r,rs)で表す。また、I-1
~(k,ks)を逆フーリエ変換して得られる画像データをI-1(r,rs)で表す。画像処理部7は、I0(r,rs)、I+1(r,rs)、及びI-1(r,rs)のそれぞれに対して、下記の式(17A)から式(17C)に示す演算を行う。
式(17B)と式(17C)において、ψ(r)は検出装置6の検出部6aの位置rごとの画像処理位相シフト量を表す。画像処理部7は、上記の式(17A)から式(17C)の3式の演算結果について、下記の式(18)に示すように和を算出する。
上記の式(18)の演算から得られるI’(r,rs)は、検出部6aの位置rごとの実効PSFの形状の崩れが補正され、実効PSFの形状がほぼ同一となった画像となる。画像処理部7は、I’(r,rs)に対して、検出装置6の検出部6aごとの実効PSFの位置ずれを補正する。これにより、検出装置6の2以上の検出部6aで実効PSFをほぼ同一とすることができる。画像処理部7は、実効PSFがほぼ同一に補正された検出部6aごとの画像を足し合わせることによって、画像を生成する。
ここで、成分分離を行う領域の決定方法、画像処理位相シフト処理の画像処理位相シフト量の決定方法、実効PSFの位置ずれ補正方法、本手法によって得られる超解像効果について説明する。I(r,rs)に対して、r、rsについて4次元のフーリエ変換を行うと、下記の式(19)に示すI~(k,ks)が得られる。
式(19)において、Fr,rsはr、rsについてのフーリエ変換を表す。OTFdetは、PSFdetのフーリエ変換であり検出光学系5のOTFを表す。ill~は、illのフーリエ変換であり、OTFillはPSFillのフーリエ変換であり、Obj~はObjのフーリエ変換である。式(19)は、下記の式(20)に示すように、3つの項の和になっている。
ここで、式(20)の右辺第1項のI0
~(k,ks)を0次成分と称し、右辺第2項のI+1
~(k,ks)を+1次成分と称し、右辺第3項のI-1
~(k,ks)を-1次成分と称す。これは上記で説明した、0次成分の領域AR1aのデータI0
~(k,ks)、+1次成分の領域AR1bのデータI+1
~(k,ks)、-1次成分の領域AR1cのデータI-1
~(k,ks)と同一である。0次成分、+1次成分、-1次成分は、それぞれ、下記の式(21A)から式(21C)で表される。
ここで、0次成分、+1次成分、-1次成分が値も持つ領域の決定方法について述べる。式(20)において、OTFdet(k)の遮断周波数は2kNA
emで与えられる。また、OTFill(k)の遮断周波数は2σkNA
exで与えられる。したがって、OTFdet(k)は、│k│が2kNA
em以下である範囲でのみ値を持つ。同様に、OTFill(k-ks)は│k-ks│が2σkNA
e以下である範囲でのみ値を持つ。OTFill(k-ks-k0)は│k-ks-k0│が2σkNA
ex以下である範囲でのみ値を持つ。OTFill(k-ks+k0)は│k-ks+k0│が2σkNA
ex以下である範囲でのみ値を持つ。この領域を図示すると図15に示した形となる。
したがって、I~(k,ks)からI0
~(k,ks)、I+1
~(k,ks)、I-1
~(k,ks)を分離するためには、それぞれ、式(14)から式(16)のそれぞれに示した領域の値を抽出すればよい。なお、0次成分の領域AR1a、+1次成分の領域AR1b、-1次成分の領域AR1cは、それぞれ、式(14)から式(16)のそれぞれに示した領域よりも大きくてもよいし、小さくてもよい。また、マスク15の開口15a、開口15bが円形以外の場合も理論計算、シミュレーション等によりOTFdet、OTFillが値を持つ領域を算出することで成分分離を行う領域を決定できる。
I0
~(k,ks)、I+1
~(k,ks)、I-1
~(k,ks)のそれぞれを逆フーリエ変換により実空間に戻したものを、I0(r,rs)、I+1(r,rs)、I-1(r,rs)とする。上記の式(21A)から式(21C)をk,ksについて逆フーリエ変換すると以下の式(22A)から式(22C)が得られる。
画像処理部7は、成分分離および逆フーリエ変換の結果に対して、上記の式(17A)から式(17C)、式(18)に示した処理を行う。このようにして、ディテクター座標rに応じて干渉縞L2の位相が実効的にシフトされる(画像処理位相シフト処理)。画像処理位相シフト量は、例えば、PSFdet(r+rs)とPSFill(rs)の積によって得られる関数のピーク位置と干渉縞のピークとがほぼ一致するように、決定される。
画像処理位相シフト量は、例えば、下記のように決定される。画像処理部7は、ディテクター座標rで検出した信号の位置ずれ量を算出する。画像処理部7は、例えば、予めシミュレーションにより、PSFdet(r+rs)とPSFill(rs)の積によって得られる関数のピーク位置を求めることで、上記の位置ずれ量を算出する。ここで実効PSFの位置ずれはディテクター座標rに比例すると考えてよく、位置ずれの度合いを表すパラメーターをβとすると、実効PSFの位置ずれ量をr/βで表すことができる。
βの値は、PSFdet(r+rs)とPSFill(rs)との積によって得られる関数のピーク位置から算出されてもよいし、他の数値シミュレーションによって算出されてもよい。βが決まると、ディテクター座標に応じた画像処理位相シフト量が決まる。干渉縞L2の画像処理位相シフト量ψ(r)はPSFdet(r+rs)とPSFill(rs)との積によって得られる関数のピーク位置と、干渉縞L2の強度分布のピーク位置とが一致するように決定される。このような処理によって、画像処理位相シフト量は、例えば、ψ(r)=-2πk0・r/β-φとなる。初期位相φの値は、蛍光ビーズを用いて予め測定された値でもよいし、観察画像から推定される値でもよい。画像処理部7は、試料Sにおける励起光の光強度分布に基づいて、位相を変換する量(画像処理位相シフト量)を決定する。画像処理部7は、試料Sにおける励起光の光強度分布として試料面Saでの励起光の電場強度ill(r)に基づいて、画像処理位相シフト量を決定する。このように設定したψ(r)を用いることで、式(17A)から式(17C)、式(18)に示した処理後に検出器6aの位置rごとの実効PSFの形状の崩れが補正される。
画像処理部7は、上述のように画像処理位相シフト処理を行った後、検出器6aごとの実効PSFの位置ずれを補正する処理を行う。位置ずれの補正処理を行うと、検出装置6の検出部6aごとの画像の実効PSFがほぼ同一となる。画像処理部7は、検出装置6の検出部6aごとの画像を足し合わせることで、超解像画像ISR(rs)を生成する。この一連の処理は、下記の式(23)で表される。
式(23)において、PH(r)は、下記の式(24)で定義されるピンホール関数である。
rPHの値を調整することで、信号量およびセクショニング効果を調整することができる。rPHを大きくすると、信号量が増加する。また、rPHを小さくするとセクショニング能力が向上する。上式(23)の演算によって得られる画像の実効PSFであるPSFSR(rs)は下記の式(25)で表される。
干渉縞L2の周期方向、つまりk0方向に着目すると、式(25)より干渉縞L2の周期が小さいほどPSFeffの半値全幅は狭く、分解能が良くなることが分かる。つまり実施形態における干渉縞L2の周期方向に含まれる縞の数(明部)が多いほどPSFeffの半値全幅は狭くなり、分解能が良い。通常の蛍光顕微鏡の半値全幅は0.51λem/NAで与えられる。実施形態におけるPSFeffの半値全幅は、例えばσ=0.3の場合に0.3λex/NAとなり、通常の蛍光顕微鏡よりもPSFの半値全幅が1.7倍ほど狭く分解能が良い。実施形態における干渉縞L2の周期方向に含まれる明部の数は、例えばσ=0.3の場合に5である。実施形態におけるPSFeffの半値全幅は、例えばσ=0.4の場合は0.34λex/NAとなり、通常の蛍光顕微鏡よりもPSFの半値全幅が1.5倍ほど狭く分解能が良い。実施形態における干渉縞L2の周期方向に含まれる明部は、例えばσ=0.4の場合に3である。また、通常の共焦点顕微鏡のピンホールを十分に小さく絞った場合、通常の蛍光顕微鏡よりもPSFの半値全幅が1.4倍ほど狭く分解能が良いことが知られている。共焦点顕微鏡に対して、分解能向上効果の優位性を持つためには、通常の蛍光顕微鏡よりもPSFの半値全幅が1.5倍以上狭いことが望ましい。すなわち、実施形態において干渉縞L2の周期方向に含まれる明部は3以上であることが望ましい。他の実施形態においても同様である。
本実施形態において、スキャン間隔、検出装置6の検出部6aの間隔は、遮断周波数およびナイキストの定理に基づいて設定されてもよい。スキャン間隔は、干渉縞の周期方向においてλex/8NA以下に設定されてもよい。また、スキャン間隔は、干渉縞の周期方向と垂直な方向においてλex/4NA以下に設定されてもよい。また、検出装置6の検出部6aの間隔は、λem/4NA以下に設定されてもよい。検出光学系の倍率が1とは異なる場合は、検出光学系5の検出装置6側の開口数をNAdとして、例えば、検出部6aのサイズは、λem/4NAd以下に設定されてもよい。
図16は、第3実施形態に係る観察方法を示すフローチャートである。ステップS31からステップS37の処理は、図11のステップS1からステップS7の処理と同様であるので、その説明を省略する。ステップS38において、画像処理部7は、複数の検出部6aの少なくとも一部の検出結果をフーリエ変換する。ステップS38において、画像処理部7は、I(r,rs)に対して4次元のフーリエ変換を行う。ステップS39において、画像処理部7は、周波数空間において成分分離する。画像処理部7は、フーリエ変換により得られる周波数空間の成分を周波数空間の領域ごとに分離する。ステップS40において、画像処理部7は、分離された成分を逆フーリエ変換する。ステップS41において、画像処理部7は、位相シフト処理を実行する。画像処理部7は、ステップS42において、実効PSFの位置ずれを補正する。ステップS43において、画像処理部7は、ステップS42で位置ずれを補正して得られる画像を足し合わせることで、画像(例、超解像画像)生成する。
このように、本実施形態に係る画像処理部7は、成分分離によって得られるデータの少なくとも一部の位相を変換して画像を生成する。上述の説明において、画像処理部7は、実空間上のデータに対して位相シフト処理を実行する。すなわち、画像処理部7は、成分分離によって得られるデータとして、成分分離したデータ(周波数空間上のデータ)を逆フーリエ変換によって実空間上のデータに変換したデータ(実空間上のデータ)を用いる。なお、画像処理部7は、成分分離した周波数空間上のデータに対して、周波数空間において位相シフト処理を実行してもよい。また、ここまでに説明してきた画像処理について、多光子励起蛍光を用いる場合も同様の考え方が適用できる。
第3実施形態によれば、画像処理部7により、位相シフト処理を実行することで、検出部6aごとに得られる画像の実効PSFを揃える。そのため、画像処理部7により、位相シフト処理を実行して得られる検出部6aごとの画像を足し合わせることで、S/Nを確保しつつ、分解能が高い画像(例、超解像画像)を生成することができる。また、観察する視野の位置(走査座標、走査ミラーの角度、視野角)に応じて、瞳ズレ補正素子110による瞳ズレ補正が行われる。これにより、第1実施形態と同様、瞳ズレによる分解能・セクショニング能力等の低下を防止しつつ、超解像画像を生成することができる。
[第4実施形態]
第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。本実施形態において、画像処理部7(図5参照)は、第3実施形態で説明した成分分離を行った後、分離された成分についてデコンボリューションを行って画像を生成する。
第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。本実施形態において、画像処理部7(図5参照)は、第3実施形態で説明した成分分離を行った後、分離された成分についてデコンボリューションを行って画像を生成する。
上記の式(20)に式(21A)から式(21C)を代入すると、下記の式(26)が得られる。
式(26)において、OTF0(k,ks)、OTF+1(k,ks)、及びOTF-1(k,ks)は、下記の式(27A)から式(27C)で表される。
画像処理部7は、OTF0(k,ks)、OTF+1(k,ks)、及びOTF-1(k,ks)のそれぞれの推定値を用いて、デコンボリューションを行う。デコンボリューションには、ウィーナーフィルタやリチャードソン・ルーシー法など様々な方法がある。ここでは、デコンボリューションの一例としてウィーナーフィルタを用いた処理を説明するが、他の方法を用いたデコンボリューションでもよい。上記の式(26)について、ウィーナーフィルタによるデコンボリューションは、下記の式(28A)と式(28B)で表される。
式(28A)と式(28B)において、A(ks)は画像の負値を抑制するためのアポダイゼーション関数である。また、wは、ノイズを抑制するためのウィーナーパラメータである。Fks
-1はksに関する逆フーリエ変換である。画像処理部7は、上述のデコンボリューションの結果を用いて画像を生成する。
図17は、第4実施形態に係る観察方法を示すフローチャートである。ステップS51からステップS57の処理は、図11のステップS1からステップS7の処理と同様であり、その説明を省略する。ステップS58において、画像処理部7は、検出結果をフーリエ変換する。また、ステップS59において、画像処理部7は、周波数空間で成分を分離する。ステップS60において、画像処理部7は、ステップS59の処理によって分離された成分を用いて、デコンボリューションを行う。ステップS61において、画像処理部7は、アポダイゼーションを行う。ステップS62において、画像処理部7は、デコンボリューションおよびアポダイゼーションによって得られたデータに対して逆フーリエ変換を行う。画像処理部7は、逆フーリエ変換によって得られたデータを用いて画像を生成する。
以上のように、本実施形態に係る画像処理部7は、周波数空間において成分分離、デコンボリューション、及びアポダイゼーションを実行し、これらの処理によって得られたデータを実空間におけるデータに変換して画像を生成する。本実施形態において、画像処理部7は、検出装置6の検出部6aごとの実効PSFをほぼ一致させて位置ずれを補正する処理によらずに、画像を生成してもよい。
第4実施形態によれば、画像処理部7により、周波数空間において成分分離、デコンボリューション、及びアポダイゼーションを実行することで、検出部6aごとに得られる画像の実効PSFを揃える。そして、画像処理部7により、これらの処理によって得られたデータを実空間におけるデータに変換して画像を生成することで、S/Nを確保しつつ、分解能が高い画像(例、超解像画像)を生成することができる。また、観察する視野の位置(走査座標、走査ミラーの角度、視野角)に応じて、瞳ズレ補正素子110による瞳ズレ補正が行われる。これにより、第1実施形態と同様、瞳ズレによる分解能・セクショニング能力等の低下を防止しつつ、超解像画像を生成することができる。
本実施形態において、スキャン間隔、検出装置6の検出部6aの間隔は、遮断周波数およびナイキストの定理に基づいて設定されてもよい。スキャン間隔は、干渉縞の周期方向においてλex/8NA以下に設定されてもよい。また、スキャン間隔は、干渉縞の周期方向と垂直な方向においてλex/4NA以下に設定されてもよい。また、検出装置6の検出部6aの間隔は、λem/4NA以下に設定されてもよい。
なお、画像処理部7は、上記のkに関して積算の対象とする範囲を、全空間の範囲に設定してもよいし、全空間の一部の範囲に設定してもよい。また、画像処理部7は、フーリエ変換によってI0
~(k,ks)、I+1
~(k,ks)、I-1
~(k,ks)を演算する際に、rの範囲を限定してもよい。また、画像処理部7は、OTF0(k,ks)、OTF+1(k,ks)、及びOTF-1(k,ks)として、蛍光ビーズを用いた測定あるいは設計値を用いた数値シミュレーション等によって予め得られるデータを用いてもよいし、試料Sからの蛍光を検出装置6が検出した結果から得られるデータ(例、推定値)を用いてもよい。ここまでに説明してきた画像処理について、多光子励起蛍光を用いる場合も同様の考え方が適用できる。
[第5実施形態]
第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図18は、第5実施形態に係る顕微鏡1Aを示す図である。第5実施形態において、検出装置6Aは、複数の検出部6aが1次元的に配列されたラインセンサ(ラインディテクター)を含む。複数の検出部6aは、検出装置6Aにおいて1方向に配列されている。検出装置6Aは、試料面Saと光学的に共役な位置に配置される。複数の検出部6aが並ぶ方向(以下、配列方向という)は、干渉縞L2の周期方向と対応する方向に設定される。例えば、図18において、干渉縞の周期方向はX方向であり、複数の検出部6aの配列方向は、X方向に対応するXb方向に設定される。
第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図18は、第5実施形態に係る顕微鏡1Aを示す図である。第5実施形態において、検出装置6Aは、複数の検出部6aが1次元的に配列されたラインセンサ(ラインディテクター)を含む。複数の検出部6aは、検出装置6Aにおいて1方向に配列されている。検出装置6Aは、試料面Saと光学的に共役な位置に配置される。複数の検出部6aが並ぶ方向(以下、配列方向という)は、干渉縞L2の周期方向と対応する方向に設定される。例えば、図18において、干渉縞の周期方向はX方向であり、複数の検出部6aの配列方向は、X方向に対応するXb方向に設定される。
第5実施形態に係る顕微鏡1Aは、λ/2波長板30と、光軸の周りで光路を回転させる光路回転部31とを備える。λ/2波長板30は、光路回転部31による光路の回転角に基づいて、光路回転部31を通る偏光を回転させる。光路回転部31は、照明光学系4においてマスク15から試料Sまでの間の光路に配置される。光路回転部31は、例えば、照明光学系4の光路において励起光L1がほぼ平行光になる位置に配置される。光路回転部31は、例えば、照明光学系4において励起光L1が通り且つ検出光学系5において蛍光L3が通る位置に配置される。光路回転部31は、例えば、ダイクロイックミラー16と試料Sとの間の光路に配置される。λ/2波長板30は、光路回転部31に対して試料Sと同じ側に配置されてもよいし、光路回転部31に対して試料Sと反対側(例、励起光の光源と同じ側)に配置されてもよい。
光路回転部31は、例えば、ダブプリズムなどのイメージローテーターである。光路回転部31は、照明光学系4の光軸の周りで回転可能に設けられる。光路回転部31は、駆動部32によって駆動されて回転する。光路回転部31としてダブプリズムを用いる場合、ダブプリズムを照明光学系4の光軸の周りでθ°回転させると、ダブプリズムからの光出射側(試料S側)における光路は、ダブプリズムへの光入射側(光源3側)における光路に対して、照明光学系4の光軸の周りで2×θ°回転する。これにより、試料Sに対する励起光L1の入射面は、Z方向の周りで2×θ°回転し、干渉縞L2の周期方向は、Z方向の周りで2×θ°回転する。例えば、干渉縞L2の周期方向を90°変更する場合、駆動部32は、光路回転部31を照明光学系4の光軸の周りで45°回転させる。このように、光路回転部31は、試料に対する干渉縞の方向を変更する縞方向変更部に含まれる。
λ/2波長板30は、照明光学系4の光軸の周りで回転可能に設けられる。λ/2波長板30は、光路回転部31と連動して回転する。λ/2波長板30は、光路回転部31の回転角に基づいて定められる角度だけ回転する。例えば、λ/2波長板30は、光路回転部31と固定(例、一体化)され、光路回転部31とともに回転する。この場合、λ/2波長板30は、光路回転部31の回転角と同じ角度だけ回転する。
λ/2波長板30を照明光学系4の光軸の周りでθ°回転させると、励起光L1の偏光方向は、光入射側(光源3側)における偏光方向に対して、照明光学系4の光軸の周りで2×θ°回転する。これにより、試料Sに入射する際の励起光L1の偏光状態は、S偏光になる。
また、図18の光路回転部31は、像回転部にも含まれる。像回転部は、試料Sの像(例、試料Sからの蛍光の像)を複数の検出部6aに対して、検出光学系5の光軸の周りで回転させる。すなわち、縞方向変更部と像回転部とは、同一の部材(光学部材)として光路回転部31を含む。光路回転部31は、照明光学系4の光路のうち蛍光が入射する位置に配置される。像回転部は、光路回転部31によって蛍光の像を回転させる。光路回転部31は、検出装置6Aにおける複数の検出部6aの配列方向に対する干渉縞L2の周期方向を調整する。光路回転部31としてダブプリズムを用いる場合、ダブプリズムを照明光学系4の光軸の周りでθ°回転させると、干渉縞L2の周期方向がZ方向の周りで2×θ°回転する。そして、試料Sからの蛍光L3の光路は、ダブプリズムへの光入射側(試料S側)に対して、光出射側(検出装置6A側)において-2×θ°回転する。
ダブプリズムを回転させると、ダブプリズムを介して試料Sへ向かう光の光路が回転し、試料Sに対する干渉縞L2の周期方向が変化する。また、試料Sからダブプリズムを介して検出装置6Aへ向かう光の光路は、試料Sへ向かう光の光路と反対向きに同じ角度だけ回転する。したがって、検出装置6Aにおける複数の検出部6a(例、ラインディテクター)の像を、検出光学系5を介して試料面Saに投影した場合、複数の検出部6aが並ぶ方向と干渉縞の周期方向とは、ダブプリズムによって干渉縞の周期方向を変更した場合でも常に一致する。よって、検出装置6Aは、干渉縞L2の周期方向の変更前と変更後とで同じように、蛍光L3を検出可能である。画像処理部7は、検出装置6Aの検出結果に基づいて、第1実施形態から第4実施形態で説明した処理によって画像(例、超解像画像)を生成する。
なお、第1実施形態に係る顕微鏡1においては、駆動部22がマスク15を回転させることで干渉縞L2の周期方向を変更するが、上記の光路回転部31(例、ダブプリズム)によって干渉縞L2の周期方向を変更してもよい。また、干渉縞L2の周期方向を変更する縞方向変更部は、駆動部22および光路回転部31のいずれとも異なる形態でもよい。例えば、ステージ2は、Z方向の周りで回転可能に設けられ、その回転によって試料Sに対する干渉縞L2の方向を変更してもよい。この場合、ステージ2は、試料Sに対する干渉縞L2の方向を変更する縞方向変更部に含まれる。
図19に示す顕微鏡1Bは、第5実施形態に係る顕微鏡1Aの変形例であり、図18に示す顕微鏡1Aに対して光路回転部31が設けられる位置が異なる。図19に示す顕微鏡1Bにおいて、縞方向変更部は、第1実施形態と同様であり、マスク15および駆動部22を含む。図18に示す顕微鏡1Aにおいて、光路回転部31は縞方向変更部と像回転部とを兼ねているが、図19に示す顕微鏡1Bにおいて、光路回転部31は縞方向変更部と別に設けられる。図19に示す顕微鏡1Bにおいて、光路回転部31は、検出光学系5の光路のうち照明光学系4の光路と重複しない位置に配置される。言い換えると、光路回転部31は、励起光L1が入射せず、蛍光L3が入射する位置に配置される。光路回転部31は、ダイクロイックミラー16と検出装置6Aとの間の光路に配置される。
図19に示す顕微鏡1Bでは、駆動部22がマスク15および偏光子14を回転させることで、干渉縞L2の周期方向を変更する。駆動部32は、マスク15および偏光子14の少なくとも一方の回転角に基づいて定まる角度だけ、光路回転部31を回転させる。顕微鏡1は、駆動部32が光路回転部31を回転させることで、検出装置6Aに投影される像の方向を複数の検出部6aが並ぶ方向に対して整合させる。
第5実施形態によれば、第1実施形態から第4実施形態で説明したいずれかの処理によって、検出部6aごとに得られる画像の実効PSFを揃えることができる。そのため、S/Nを確保しつつ、分解能が高い画像(例、超解像画像)を生成することができる。また、観察する視野の位置(走査座標、走査ミラーの角度、視野角)に応じて、瞳ズレ補正素子110による瞳ズレ補正が行われる。これにより、第1実施形態から第4実施形態と同様、瞳ズレによる分解能・セクショニング能力等の低下を防止しつつ、超解像画像を生成することができる。
[第6実施形態]
第6実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図20は、第6実施形態に係る顕微鏡1Cを示す図である。第6実施形態に係る顕微鏡1Cは、遮光部材33を備える。遮光部材33は、試料面Saと光学的に共役な位置またはその近傍に配置される。第6実施形態において、検出装置6Aは、第5実施形態と同様に、複数の検出部6aが1次元的に配列されたラインセンサを含む。検出装置6Aは、試料面Saと光学的に共役な位置に配置され、遮光部材33は、検出装置A6の近傍に配置される。遮光部材33は、試料面Saと共役な位置またはその近傍に配置されてもよい。
第6実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図20は、第6実施形態に係る顕微鏡1Cを示す図である。第6実施形態に係る顕微鏡1Cは、遮光部材33を備える。遮光部材33は、試料面Saと光学的に共役な位置またはその近傍に配置される。第6実施形態において、検出装置6Aは、第5実施形態と同様に、複数の検出部6aが1次元的に配列されたラインセンサを含む。検出装置6Aは、試料面Saと光学的に共役な位置に配置され、遮光部材33は、検出装置A6の近傍に配置される。遮光部材33は、試料面Saと共役な位置またはその近傍に配置されてもよい。
遮光部材33は、蛍光L3が通る開口33aを有し、開口33aの周囲において蛍光L3を遮光する。開口33aは、検出装置6Aにおける複数の検出部6aの配列方向(Xb方向)に延びている。開口33aは、例えば矩形状のスリットである。遮光部材33は、開口33aの長辺が複数の検出部6aの配列方向とほぼ平行になるように、配置される。遮光部材33は、開口33aの寸法と形状の一方または双方が可変でもよい、例えば、遮光部材33は、光を遮る領域を可変な機械式の絞り、あるいは空間光変調器(SLM)などでもよい。なお、開口33aの寸法と形状の一方または双方が固定でもよい。
第6実施形態において、検出装置6Aは、遮光部材33の開口33aを通った蛍光L3を検出する。画像処理部7は、検出装置6の検出結果に基づいて、画像を生成する。画像処理部7が行う処理は、第1実施形態から第4実施形態で説明した処理のいずれでもよい。ここでは、画像処理によって干渉縞L2の強度分布の位相を実行的にシフトさせる処理について、説明する。
本実施形態において、検出装置6Aの検出結果に相当する画像データI(x,rs)は、下記の式(29)で表される。
I(x,rs)は、検出装置6Aにおける検出部6aの位置に相当するディテクター座標x、及びスキャン座標(xs,ys)を独立変数に持つ3次元のデータである。式(29)において、PHy(ys)は遮光部材33の影響を表すピンホール関数である。PHy(ys)は、下記の式(30)で表される。
式(30)において、Dyは、Yb方向(図20参照)における遮光部材33の開口33aの幅の半分である。すなわち、Yb方向(図20参照)における遮光部材33の開口33aの幅を2Dyとしている。
なお、本実施形態において説明する画像処理部7の処理は、図18に示したように遮光部材33が設けられていない場合についても適用可能である。遮光部材33が設けられていない場合、Dyが無限大であることに相当し、ysの全範囲においてPHy(ys)=1としてもよい。また、遮光部材33が設けられていない場合、検出部6aに入射する際の蛍光L3の光路のYb方向の幅は、検出部6aのYb方向の寸法に相当し、Dyの値として検出部6aのYb方向の寸法の半分の値を用いてもよい。
上記の式(29)をx、xs、ysについてフーリエ変換すると、下記の式(31)が得られる。式(31)において、PHy
~(kys)はPHy(ys)のフーリエ変換を表す。また、kyは、コンボリューションの積分変数を表す。
ここでは、説明の便宜上、照明形状が上記の式(3)で表されるとし、干渉縞L2の周期方向は、X方向であるとする。式(31)のill~(kx-kxs,ky-kys)は、下記の式(32)で表される。式(32)において、φは、干渉縞L2の初期位相を表す。
式(32)を式(31)に代入して整理すると、I~(kx,kxs,kys)は、下記の式(33A)から式(33D)で表される。
式(33A)から式(33D)において、I~
0(kx,kxs,kys)は、第3実施形態で説明した0次成分に相当し、I~
+1(kx,kxs,kys)は+1次成分に相当し、I~
-1(kx,kxs,kys)は-1次成分に相当する。I~
0(kx,kxs,kys)、I~
+1(kx,kxs,kys)、I~
-1(kx,kxs,kys)が値をもつ領域は、互いに異なる。
図21は、第6実施形態において、成分分離に用いる周波数空間の領域を示す図である。0次成分、+1次成分、及び-1次成分のそれぞれが値を持つ領域のkys方向における範囲は、PHy
~およびOTFdetに依存する。図21には、マスク15(図2参照)の開口15a、開口15bが円形の場合について、各成分が値を持つ領域を示した。マスク15の開口が円形以外の形状である場合、illのフーリエ変換を求め、式(31)に基づいて各成分が値を持つ領域の範囲を算出することが可能である。各成分が値を持つ領域の範囲を算出する手法としては、解析的な計算でもよいし、数値シミュレーション等でもよい。
図21において、0次成分の領域AR1a、+1次成分の領域AR1b、-1次成分の領域AR1cは、kxs-kys面においてそれぞれ長円形状の領域である。0次成分の領域AR1a、+1次成分の領域AR1b、及び-1次成分の領域AR1cは、kxs-kys面においてkxs方向の幅がいずれも同じである。0次成分の領域AR1aの幅は、4σkNA
exである。0次成分の領域AR1aは、原点を中心とする領域である。+1次成分の領域AR1bおよび-1次成分の領域AR1cは、それぞれ、中心がkxsの軸上の領域である。-1次成分の領域AR1cの中心と原点との距離は、2(1-σ)kNA
exである。+1次成分の領域AR1cは、0次成分の領域AR1aに関して-1次成分の領域AR1cと対称な位置の領域である。
画像処理部7は、I~(kx,kxs,kys)から各成分を抽出する。例えば、画像処理部7は、I~(kx,kxs,kys)から0次成分の領域AR1aのデータを抽出することによって、I0
~(kx,kxs,kys)を分離する。また、画像処理部7は、I~(kx,kxs,kys)から+1次成分の領域AR1bのデータを抽出することによって、I+1
~(kx,kxs,kys)を分離する。また、画像処理部7は、I~(kx,kxs,kys)から-1次成分の領域AR1cのデータを抽出することによって、I-1
~(kx,kxs,kys)を分離する。
画像処理部7は、成分分離により得られたI0
~(kx,kxs,kys)、I+1
~(kx,kxs,kys)、及びI-1
~(kx,kxs,kys)のそれぞれについて逆フーリエ変換を行って、実空間における各成分のデータを算出する。I0
~(kx,kxs,kys)を逆フーリエ変換したデータをI0(x,xs,ys)で表し、I+1
~(kx,kxs,kys)を逆フーリエ変換したデータをI+1(x,xs,ys)で表し、I-1
~(kx,kxs,kys)を逆フーリエ変換したデータをI-1(x,xs,ys)で表す。
画像処理部7は、上述のようにして得られた実空間における各成分のデータの少なくとも一部を用いて、検出装置6Aの検出部6aごとの実効PSFが揃うように、ディテクター座標に合わせて干渉縞の位相を画像処理によって実効的にシフトする。画像処理部7は、下記の式(34A)から式(34C)、式(35)に示す演算によって、画像処理位相シフト処理を行う。
また、画像処理部7は、画像処理位相シフト処理の後、第3実施形態と同様に、位置ずれを補正する補正処理を行う。また、画像処理部7は、補正処理後に、各検出部の画像を足し合わせることによって超解像画像を生成する。ここまでに説明してきた画像処理について、多光子励起蛍光を用いる場合も同様の考え方が適用できる。
第6実施形態によれば、第1実施形態から第4実施形態で説明したいずれかの処理によって、検出部6aごとに得られる画像の実効PSFを揃えることができる。そのため、S/Nを確保しつつ、分解能が高い画像(例、超解像画像)を生成することができる。また、観察する視野の位置(走査座標、走査ミラーの角度、視野角)に応じて、瞳ズレ補正素子110による瞳ズレ補正が行われる。これにより、第1実施形態から第4実施形態と同様、瞳ズレによる分解能・セクショニング能力等の低下を防止しつつ、超解像画像を生成することができる。
[第7実施形態]
第7実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図22は、第7実施形態に係る顕微鏡1Dを示す図である。第7実施形態に係る顕微鏡1Dは、駆動部22および駆動部34を備える。駆動部22は、第1実施形態と同様である。駆動部22は、マスク15を回転させ、干渉縞L2の周期方向を変更する。駆動部22は、試料Sに対する干渉縞L2の方向を変更する縞方向変更部に含まれる。
第7実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図22は、第7実施形態に係る顕微鏡1Dを示す図である。第7実施形態に係る顕微鏡1Dは、駆動部22および駆動部34を備える。駆動部22は、第1実施形態と同様である。駆動部22は、マスク15を回転させ、干渉縞L2の周期方向を変更する。駆動部22は、試料Sに対する干渉縞L2の方向を変更する縞方向変更部に含まれる。
第7実施形態において、検出装置6Aは、第6実施形態と同様に、複数の検出部6aが1次元的に配列されたラインセンサを含む。検出装置6Aは、試料面Saと光学的に共役な位置に配置され、遮光部材33は、検出装置6Aの近傍に配置される。第7実施形態において、検出装置6Aは、Zb方向の周りで回転可能である。駆動部34は、Zb方向の周りで検出装置6を回転させる。駆動部34は、検出装置6Aにおける検出部6aの配列方向が干渉縞L2の周期方向と対応するように、検出装置6Aを回転させる。例えば、駆動部22がマスク15を90°回転させる場合、干渉縞L2の周期方向が90°変化するので、駆動部34は、検出装置6Aを90°回転させる。
また、駆動部34は、検出装置6Aと遮光部材33との相対位置が維持されるように、遮光部材33を回転させる。例えば、遮光部材33と検出装置6Aとは一体化されており、駆動部34は、遮光部材33と検出装置6Aとを一体的に回転させる。
検出装置106は、遮光部材33の開口33aを通った蛍光L3を検出する。第5実施形態で説明したように、第1実施形態から第4実施形態で説明した画像処理は、ディテクター座標に関する処理を1次元の座標系に対応した画像処理とすることが可能である。そのため、第1実施形態から第4実施形態で説明した画像処理は、第5実施形態と同様に、第7実施形態の場合にも適用することが可能である。画像処理部7は、検出装置106の検出結果に基づいて、第1実施形態から第4実施形態で説明したいずれかの処理によって画像(例、超解像画像)を生成する。
第7実施形態によれば、第1実施形態から第4実施形態で説明したいずれかの処理によって、検出部6aごとに得られる画像の実効PSFを揃えることができる。そのため、S/Nを確保しつつ、分解能が高い画像(例、超解像画像)を生成することができる。また、観察する視野の位置(走査座標、走査ミラーの角度、視野角)に応じて、瞳ズレ補正素子110による瞳ズレ補正が行われる。これにより、第1実施形態から第4実施形態と同様、瞳ズレによる分解能・セクショニング能力等の低下を防止しつつ、超解像画像を生成することができる。
なお、第7実施形態に係る顕微鏡1Dは、検出装置6Aを回転させる代わりに、図19に示した光路回転部31を備えてもよい。また、顕微鏡1Dは、図18に示したように遮光部材33を備えなくてもよい。
[第8実施形態]
第8実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図23は、第8実施形態に係る顕微鏡1Eを示す図である。上述の実施形態において、瞳面P0(図2(C)参照)上で照明瞳が2極(2つの領域)に分かれる例を説明したが、照明瞳はその他の形態でもよい。ここでは、照明瞳が瞳面上で4極(4つの領域)に分かれる形態について説明する。
第8実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図23は、第8実施形態に係る顕微鏡1Eを示す図である。上述の実施形態において、瞳面P0(図2(C)参照)上で照明瞳が2極(2つの領域)に分かれる例を説明したが、照明瞳はその他の形態でもよい。ここでは、照明瞳が瞳面上で4極(4つの領域)に分かれる形態について説明する。
第8実施形態に係る照明光学系4Aは、光ファイバー11の光出射側に、コリメーターレンズ12、λ/2波長板35、偏光分離素子36、ミラー37、マスク38(開口部材)、ミラー39、マスク40(開口部材)、及び偏光分離素子41を備える。さらに、第8実施形態に係る照明光学系4Aは、第1実施形態と同様に、瞳ズレ補正装置100、ダイクロイックミラー16、リレー光学系17、走査部18、レンズ19、レンズ20、及び対物レンズ21を備える。なお、対物レンズ21の光軸21aは、照明光学系4Aの光軸4Aaと一致している。
光ファイバー11から出射した励起光L1は、コリメーターレンズ12によってほぼ平行光に変換され、λ/2波長板35に入射する。λ/2波長板35を通った励起光L1は、第1方向の直線偏光である励起光L1c、および第2方向の直線偏光である励起光L1dを含む。λ/2波長板35は、励起光L1cの光量と励起光L1dの光量とが所定の比率になるように、その光学軸(進相軸、遅相軸)の方向が設定される。
λ/2波長板35を通った励起光L1(励起光L1cおよび励起光L1d)は、偏光分離素子36に入射する。偏光分離素子36は、コリメーターレンズ12の光軸12aに対して傾いた偏光分離膜36aを有する。偏光分離膜36aは、第1方向の直線偏光が反射し、第2方向の直線偏光が透過する特性を有する。偏光分離素子36は、例えば、偏光ビームスプリッタプリズム(PBSプリズム)である。上記の第1方向の直線偏光は、偏光分離膜36aに対するS偏光である。上記の第2方向の直線偏光は、偏光分離膜36aに対するP偏光である。
偏光分離膜36aに対するS偏光である励起光L1cは、偏光分離膜36aで反射し、ミラー37を介してマスク38に入射する。偏光分離膜36aに対するP偏光である励起光L1dは、偏光分離膜36aを透過し、ミラー39を介してマスク40に入射する。マスク38およびマスク40は、蛍光物質を励起する励起光を複数の光束に分割する光束分割部である。マスク38およびマスク40については、後に図24を参照して説明する。
マスク38を通った励起光L1cおよびマスク40を通った励起光L1dは、それぞれ、偏光分離素子41に入射する。偏光分離素子41は、励起光L1cの光路および励起光L1dの光路に対して傾いた偏光分離膜41aを有する。偏光分離膜41aは、第1方向の直線偏光が反射し、第2方向の直線偏光が透過する特性を有する。偏光分離素子41は、例えば、偏光ビームスプリッタプリズム(PBSプリズム)である。上記の第1方向の直線偏光は、偏光分離膜41aに対するS偏光である。上記の第2方向の直線偏光は、偏光分離膜41aに対するP偏光である。
励起光L1cは、偏光分離膜41aに対してS偏光になっており、偏光分離膜41aで反射してダイクロイックミラー16に入射する。励起光L1dは、偏光分離膜41aに対するP偏光になっており、偏光分離膜41aを透過してダイクロイックミラー16に入射する。なお、偏光分離素子36および偏光分離素子41の一方または双方は、PBSプリズムでなくてもよい。偏光分離素子36および偏光分離素子41の一方または双方は、TE偏光とTM偏光とで反射、透過が異なるフォトニック結晶などでもよい。
図24は、第8実施形態に係るマスクおよび励起光の偏光状態を示す図である。図24(A)において、Xc方向、Yc方向、Zc方向は、それぞれ、試料面Sa(図23参照)におけるX方向、Y方向、Z方向に対応する方向である。マスク38は、開口38aおよび開口38bを有する。開口38aおよび開口38bは、Xc方向に並んでいる。開口38aおよび開口38bは、例えば円形であるが、円形以外の形状でもよい。マスク38は、対物レンズ21の瞳面P0と光学的に共役な瞳共役面P1の位置またはその近傍に配置される。
図24(B)において、Xd方向、Yd方向、Zd方向は、それぞれ、試料面Sa(図23参照)におけるX方向、Y方向、Z方向に対応する方向である。マスク40は、瞳面共役面またはその近傍に配置される。マスク40は、開口40aおよび開口40bを有する。開口40aおよび開口40bは、Yd方向に並んでいる。開口40aおよび開口40bは、例えば円形であるが、円形以外の形状でもよい。マスク38またはマスク40は、対物レンズ21の瞳面P0と光学的に共役な瞳共役面P1の位置またはその近傍に配置される。対物レンズ21の瞳面P0と光学的に共役な瞳共役面の近傍とは、瞳共役面を含む領域のうち励起光L1が平行光線と見なせる範囲である。例えば、励起光L1がガウスビームの場合は、ビームウェストの位置からレイリー長の1/10以内の範囲であれば十分に平行光線と見なすことが出来る。レイリー長は励起光L1の波長をλ、ビームウェスト半径をw0としたとき、πw0
2/λで与えられる。例えば、励起光L1の波長が1μm、ビームウェスト半径が1mmの時、レイリー長はおよそ3mとなり、マスク38またはマスク40は対物レンズ21の瞳面P0と光学的に共役な瞳共役面の近傍300mm以内に配置されてもよい。マスク38またはマスク40は、瞳面P0またはその近傍に配置されてもよい。
図24(C)において、符号AR2aは、対物レンズ21の瞳面P0において、マスク38の開口38aを通った励起光L1cが入射する領域である。符号AR2bは、瞳面P0において、マスク38の開口38bを通った励起光L1cが入射する領域である。領域AR2a、領域AR2bにおける矢印は、入射する励起光L1cの偏光方向を示す。領域AR2aと領域AR2bとは、X方向に並んでいる。
領域AR2aに入射する励起光L1cおよび領域AR2bに入射する励起光L1cは、それぞれ、Y方向の直線偏光である。領域AR2aに入射する励起光L1cと領域AR2bに入射する励起光L1cとは、偏光方向が同じであり、試料面Sa(図23参照)において互いに干渉する。この干渉によって、試料面Saには、周期方向がX方向の干渉縞が形成される。試料面Saに対する励起光L1cの入射面は、XZ面であり、励起光L1cは、試料SにS偏光で入射する。
また、図24(C)において、符号AR2cは、瞳面P0において、マスク40の開口40aを通った励起光L1dが入射する領域である。符号AR2dは、瞳面P0において、マスク40の開口40bを通った励起光L1dが入射する領域である。領域AR2c、領域AR2dにおける矢印は、入射する励起光L1dの偏光方向を示す。領域AR2cと領域AR2dとは、Y方向に並んでいる。
領域AR2cに入射する励起光L1dおよび領域AR2dに入射する励起光L1dは、それぞれ、X方向の直線偏光である。領域AR2cに入射する励起光L1dと領域AR2dに入射する励起光L1dとは、偏光方向が同じであり、試料面Sa(図23参照)において互いに干渉する。この干渉によって、試料面Saには、周期方向がY方向の干渉縞が形成される。試料面Saに対する励起光L1dの入射面は、YZ面であり、励起光L1cは、試料SにS偏光で入射する。
図23の説明に戻り、瞳ズレ補正装置100は、偏光分離素子41からの光束(マスク38により分割される励起光L1cおよびマスク40により分割される励起光L1d)を、必要に応じてその進行方向と垂直な方向にシフトさせることにより瞳ズレ補正を行う。試料面Saには、励起光L1cの干渉による干渉縞と、励起光L1dの干渉による干渉縞とを合成した干渉縞L2が形成される。なお、励起光L1cと励起光L1dとで偏光方向が互いにほぼ直交するので、励起光L1cと励起光L1dとの干渉は抑制される。
検出装置6は、試料Sからの蛍光L3を、検出光学系5を介して検出する。検出装置6は、第1実施形態で説明したように、Xb方向とYb方向との2方向に複数の検出部6aが配列されたイメージセンサである。画像処理部7は、検出装置6の検出結果に基づいて、第1実施形態から第4実施形態で説明したいずれかの処理によって画像(例、超解像画像)を生成する。ここでは、画像処理によって干渉縞L2の強度分布の位相を実行的にシフトさせる処理について説明する
図25は、第8実施形態に係る瞳共役面、及び成分分離に用いる周波数空間の領域を示す図である。図25(A)では、瞳共役面P1を波数座標空間で表している。図25(A)に示すkNA
ex(点線で書かれた円)は、対物レンズ21の瞳半径である。励起光L1cが入射する領域AR2aおよび領域AR2bと、励起光L1dが入射する領域AR2cおよび領域AR2dとは、ここではそれぞれ円形であるとするが、円形に限られない。領域ARaから領域ARdの各領域の半径は、σkNA
exである。領域ARaから領域ARdの各領域の中心と、対物レンズ21の光軸21aとの距離は、(1-σ)kNA
exである。領域AR2aの中心と領域AR2bの中心との距離は、例えば2(1-σ)kNA
exであるが、この値に限らない。また、領域AR2cの中心と領域AR2dの中心との距離は、例えば2(1-σ)kNA
exであるが、この値に限らない。
試料面Saでの電場強度ill(r)は、下記の式(36)で表される。式(36)において、k0x、k0yは、それぞれ干渉縞L2の波数ベクトルである。k0xは、k0x=(k0,0)で表される。k0yは、k0y=(0,k0)で表される。k0x、k0yの成分であるk0は、k0=2(1-σ)kNA
exで表される。
第8実施形態においては、照明瞳が4極であり、周期方向がX方向の干渉縞と周期方向がY方向の干渉縞との足し合わせになる。検出装置6によって得られる画像データI(r,rs)は、下記の式(37)で表される。
画像処理部7は、式(36)のI(r,rs)をr,rsについて、下記の式(38)に示すように4次元フーリエ変換する。
式(38)において、OTFdetは、PSFdetのフーリエ変換であり、検出光学系5のOTFを表す。また、ill~は、illのフーリエ変換である。また、OTFillは、PSFillのフーリエ変換である。φx、φyは、それぞれ、干渉縞L2のX方向の初期位相、干渉縞L2のY方向の初期位相である。Obj~は、Objのフーリエ変換である。式(38)は、下記の式(39)に示すように、5つの項の和になっている。
式(39)の右辺の各項は、下記の式(40A)から式(40E)で表される。
ここで、I0
~(k,ks)を0次成分と称し、I~
+1,x(k,ks)をX方向の+1次成分と称し、I~
-1,x(k,ks)をX方向の-1次成分と称する。また、I~
+1,y(k,ks)をY方向の+1次成分と称し、I~
-1,y(k,ks)をY方向の-1次成分と称する。図25(B)において、符号AR3aは、0次成分のデータが存在する領域(以下0次成分の領域という)である。符号AR3bは、X方向の+1次成分のデータが存在する領域(以下、X方向の+1次成分の領域という)である。符号AR3cは、X方向の-1次成分のデータが存在する領域(以下、X方向の-1次成分の領域という)である。符号AR3dは、Y方向の+1次成分のデータが存在する領域(以下、Y方向の+1次成分の領域という)である。符号AR3eは、Y方向の-1次成分のデータが存在する領域(以下、Y方向の-1次成分の領域という)である。
0次成分の領域AR3aは、下記の式(41)で表される。
X方向の+1次成分の領域AR3bは、下記の式(42)で表される。
X方向の-1次成分の領域AR3cは、下記の式(43)で表される。
Y方向の+1次成分の領域AR3dは、下記の式(44)で表される。
Y方向の-1次成分の領域AR3eは、下記の式(45)で表される。
画像処理部7は、フーリエ変換によって得られたI~(k,ks)から、フィルタリングによって各成分を抽出する。例えば、画像処理部7は、I~(k,ks)のうち、上記の式(41)を満たす領域におけるデータを、0次成分として抽出する。また、画像処理部7は、I~(k,ks)のうち、上記の式(42)を満たす領域におけるデータを、X方向の+1次成分として抽出する。また、画像処理部7は、I~(k,ks)のうち、上記の式(43)を満たす領域におけるデータを、X方向の-1次成分として抽出する。また、画像処理部7は、I~(k,ks)のうち、上記の式(44)を満たす領域におけるデータを、Y方向の+1次成分として抽出する。また、画像処理部7は、I~(k,ks)のうち、上記の式(45)を満たす領域におけるデータを、Y方向の-1次成分として抽出する。
画像処理部7は、抽出した各成分を逆フーリエ変換することによって、実空間における各成分のデータを算出する。ここでは、実空間における0次成分をI0(r,rs)で表し、実空間におけるX方向の+1次成分をI+1,x(r,rs)で表し、実空間におけるX方向の-1次成分をI-1,x(r,rs)で表す。また、実空間におけるY方向の+1次成分をI+1,y(r,rs)で表し、実空間におけるY方向の-1次成分をI-1,y(r,rs)で表す。
画像処理部7は、上述のようにして得られた実空間における各成分のデータの少なくとも一部を用いて、検出装置6の検出部6aごとの実効PSFが揃うように、ディテクター座標に合わせて干渉縞の位相を画像処理によって実効的にシフトする(画像処理位相シフト処理)。画像処理部7は、下記の式(46A)から式(46E)に示す演算によって、実空間におけるX方向の+1次成分、X方向の-1次成分、Y方向の+1次成分、及びY方向の-1次成分のそれぞれについて、位相をシフトする。
式(46B)から式(46E)において、ψx(r)は、X方向の+1次成分および-1次成分のそれぞれに対する画像処理位相シフト量である。ψy(r)は、Y方向の+1次成分および-1次成分のそれぞれに対する位相シフト量である。上記の位相シフト量は、例えば、PSFdet(r+rs)とPSFill(rs)との積によって得られる関数のピーク位置と、干渉縞L2のピーク位置とが一致するように設定される。
画像処理部7は、成分ごとの位相シフト処理の後に、下記の式(47)に示すように各成分を足し合わせる。
上述の画像処理位相シフト処理によって、検出装置6の検出部6aごとに実効PSFがほぼ揃ったデータが得られる。画像処理部7は、画像処理位相シフト処理の後に、検出部6aごとの位置ずれを補正する補正処理を行う。そして、画像処理部7は、補正処理されたデータを足し合わせることで、超解像画像を生成する。
なお、成分分離に用いる領域は、上記の式(42)から式(45)に示した領域に限定されない。成分分離に用いる領域は、上記の式(42)から式(45)に示した領域よりも大きくてもよいし、小さくてもよい。また、マスク38の開口38aおよび開口38b、マスク40の開口40aおよび開口40bの少なくとも1つは、円形でなくてもよい。成分分離に用いる領域は、マスクの開口が円形である場合、マスクの開口が円形以外の形状である場合のいずれについても、数値シミュレーション、理論計算等で求めることができる。
なお、画像処理部7が行う処理は、第1実施形態から第4実施形態で説明した処理のいずれでもよい。例えば、第4実施形態で説明した周波数空間でのデコンボリューションを適用する場合、上記の式(28)では3成分であったが、本実施形態では、0次成分、X方向の+1次成分、X方向の-1次成分、Y方向の+1次成分、及びY方向の-1次成分の5成分を用いればよい。ここまでに説明してきた画像処理について、多光子励起蛍光を用いる場合も同様の考え方が適用できる。
第8実施形態によれば、第1実施形態から第4実施形態で説明したいずれかの処理によって、検出部6aごとに得られる画像の実効PSFを揃えることができる。そのため、S/Nを確保しつつ、分解能が高い画像(例、超解像画像)を生成することができる。また、観察する視野の位置(走査座標、走査ミラーの角度、視野角)に応じて、瞳ズレ補正素子110による瞳ズレ補正が行われる。これにより、第1実施形態から第4実施形態と同様、瞳ズレによる分解能・セクショニング能力等の低下を防止しつつ、超解像画像を生成することができる。
[第9実施形態]
第9実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図26は、第9実施形態に係る顕微鏡1Fを示す図である。第9実施形態に係る顕微鏡1Fは、第8実施形態に係る顕微鏡1Eと同様の構成である。第9実施形態に係る顕微鏡1Fは、図18で説明したλ/2波長板30および光路回転部31を備える。光路回転部31は、駆動部32によって駆動され、照明光学系4Aの光軸の周りで回転する。光路回転部31が回転すると、励起光L1cの光路および励起光L1dの光路は、それぞれ、照明光学系4Aの光軸の周りで回転する。その結果、試料面Saに形成される干渉縞L2の周期方向は、Z方向の周りで回転する。
第9実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図26は、第9実施形態に係る顕微鏡1Fを示す図である。第9実施形態に係る顕微鏡1Fは、第8実施形態に係る顕微鏡1Eと同様の構成である。第9実施形態に係る顕微鏡1Fは、図18で説明したλ/2波長板30および光路回転部31を備える。光路回転部31は、駆動部32によって駆動され、照明光学系4Aの光軸の周りで回転する。光路回転部31が回転すると、励起光L1cの光路および励起光L1dの光路は、それぞれ、照明光学系4Aの光軸の周りで回転する。その結果、試料面Saに形成される干渉縞L2の周期方向は、Z方向の周りで回転する。
図27は、第9実施形態に係る励起光の偏光状態を示す図である。図27(A)において、瞳面P0上で励起光L1cが入射する領域AR4aは、X方向に並んでいる。また、瞳面P0上で励起光L1dが入射する領域AR4bおよび領域AR4bは、Y方向に並んでいる。
図27(B)は、図27(A)の状態から、ダブプリズム(図26の光路回転部31)およびλ/2波長板30が22.5°回転した状態に相当する。図27(B)において、瞳面P0上で励起光L1cが入射する領域AR4aは、X方向から45°回転した方向に並んでいる。この状態において、試料面Saにおける励起光L1cの干渉縞の周期方向は、X方向から45°回転した方向になる。また、瞳面P0上で励起光L1dが入射する領域AR4bは、Y方向から45°回転した方向に並んでいる。この状態において、試料面Saにおける励起光L1dの干渉縞の周期方向は、Y方向から45°回転した方向になる。
図26の説明に戻り、本実施形態において、検出装置6は、干渉縞L2の周期方向が変更される前後のそれぞれにおいて、試料Sからの蛍光L3を検出する。画像処理部7は、干渉縞L2の周期方向の変更前における検出装置6の検出結果と、干渉縞L2の周期方向の変更後における検出装置6の検出結果とに基づいて、第1実施形態から第4実施形態で説明したいずれかの処理によって画像(例、超解像画像)を生成する。なお、光路回転部31は、図19で説明したように、ダイクロイックミラー16と検出装置6との間の光路に配置されてもよい。
第9実施形態によれば、第1実施形態から第4実施形態で説明したいずれかの処理によって、検出部6aごとに得られる画像の実効PSFを揃えることができる。そのため、S/Nを確保しつつ、分解能が高い画像(例、超解像画像)を生成することができる。また、観察する視野の位置(走査座標、走査ミラーの角度、視野角)に応じて、瞳ズレ補正素子110による瞳ズレ補正が行われる。これにより、第1実施形態から第4実施形態と同様、瞳ズレによる分解能・セクショニング能力等の低下を防止しつつ、超解像画像を生成することができる。
[第10実施形態]
第10実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。第9実施形態に係る顕微鏡1Fは、光路回転部31によって干渉縞L2の周期方向を変更するが、干渉縞L2の周期方向を変更する縞方向変更部は、光路回転部31と別の態様でもよい。
第10実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。第9実施形態に係る顕微鏡1Fは、光路回転部31によって干渉縞L2の周期方向を変更するが、干渉縞L2の周期方向を変更する縞方向変更部は、光路回転部31と別の態様でもよい。
図28は、第10実施形態に係る顕微鏡1Gを示す図である。図29は、第10実施形態に係るマスクを示す図である。第10実施形態に係る顕微鏡1Gは、駆動部45および駆動部46を備える。マスク38は、照明光学系4Aの光軸の周りで回転可能である。マスク38は、駆動部45に駆動されて、回転する(図29(A)参照)。図29(A)において、マスク38は、時計周りに45°回転している。
また、マスク40は、照明光学系4Aの光軸の周りで回転可能である。マスク40は、駆動部46に駆動されて、回転する(図29(B)参照)。駆動部46は、駆動部45がマスク38を回転させる角度と同じ角度だけ、マスク40を回転させる。図29(B)において、マスク40は、時計周りに45°回転している。これにより、試料面Saにおける干渉縞L2の周期方向は、Z方向の周りで45°回転する。
偏光分離素子41とダイクロイックミラー16との間の光路には、λ/2波長板48が設けられる。λ/2波長板48は、駆動部49によって駆動され、照明光学系4の光軸の周りで回転する。λ/2波長板48および駆動部49は、励起光L1cおよび励起光L1dのそれぞれについて、S偏光で試料Sに入射するように調整する。
本実施形態において、検出装置6は、第9実施形態と同様、干渉縞L2の周期方向が変更される前後のそれぞれにおいて、試料Sからの蛍光L3を検出する。画像処理部7は、干渉縞L2の周期方向の変更前における検出装置6の検出結果と、干渉縞L2の周期方向の変更後における検出装置6の検出結果とに基づいて、第1実施形態から第4実施形態で説明したいずれかの処理によって画像(例、超解像画像)を生成する。
第10実施形態によれば、第1実施形態から第4実施形態で説明したいずれかの処理によって、検出部6aごとに得られる画像の実効PSFを揃えることができる。そのため、S/Nを確保しつつ、分解能が高い画像(例、超解像画像)を生成することができる。また、観察する視野の位置(走査座標、走査ミラーの角度、視野角)に応じて、瞳ズレ補正素子110による瞳ズレ補正が行われる。これにより、第1実施形態から第4実施形態と同様、瞳ズレによる分解能・セクショニング能力等の低下を防止しつつ、超解像画像を生成することができる。
[第11実施形態]
第11実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図30は、第11実施形態に係る顕微鏡1Hを示す図である。第11実施形態に係る顕微鏡1Hは、その照明光学系4Bの構成が第1実施形態に係る照明光学系4と異なっており、その他は第1実施形態の顕微鏡1(図1参照)と同様の構成である。
第11実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図30は、第11実施形態に係る顕微鏡1Hを示す図である。第11実施形態に係る顕微鏡1Hは、その照明光学系4Bの構成が第1実施形態に係る照明光学系4と異なっており、その他は第1実施形態の顕微鏡1(図1参照)と同様の構成である。
第11実施形態に係る照明光学系4Bは、光ファイバー11の光出射側に、コリメーターレンズ12、λ/4波長板13、偏光子14を備える。偏光子14は、駆動部22Aから供給されるトルクによってコリメーターレンズ12の光軸12aの周りに単独で回転可能である。さらに、第11実施形態に係る照明光学系4Bは、光束分割反射装置200、ダイクロイックミラー16、リレー光学系17、走査部18、レンズ19、レンズ20、及び対物レンズ21を備える。なお、対物レンズ21の光軸21aは、照明光学系4Bの光軸4Baと一致している。
光束分割反射装置200は、図31に示すように、ピクセル化された多数のマイクロミラー211(一部のみ付番)を備えたDMD(digital mirror device)210を有して構成される。DMD210は、各マイクロミラー211の傾斜角度を、少なくとも2つの角度(一方をON角度、他方をOFF角度と称する)の間で切り替えられるように構成されている。そしてDMD210は、DMD210に入射した光束を、ON角度に設定されたマイクロミラー211(ONミラーともいう)によって所定の方向に反射される光束(ON光ともいう)と、OFF状態の角度に設定されたマイクロミラー211(OFFミラーともいう)によって別の方向に反射される光束(OFF光ともいう)とに分割することができる。またDMD210は、ONミラーとOFFミラーとの設定パターン(配置パターン)を変更することにより、ON光の位置をシフトさせることができる。本実施形態では、例えば図31に示すように、DMD210の入射面の領域内にONミラー領域(円形や楕円形の領域)が2つ(3以上とすることも可)設けられる。この2つのONミラー領域から反射される光が次述する励起光L1a,L1b(図30参照)となる。2つのONミラー領域の位置を変更することにより、励起光L1a,L1bの位置をシフトさせることができる。
第11実施形態に係る顕微鏡1Hにおいて、光束分割反射装置200(DMD210)は、偏光子14からの励起光L1がDMD210に入射し、その励起光L1を、ダイクロイックミラー16に向かう、ON光としての2つの励起光L1a,L1bに分割できるように配置される。励起光L1が入射した時DMD210からは、ダイクロイックミラー16には向かわないOFF光も反射される。顕微鏡1Hでは、このOFF光が迷光とならないように、吸光材などによりOFF光を処理することが望ましい。また光束分割反射装置200(DMD210)は、ダイクロイックミラー16に向かう励起光L1a,L1bを、その進行方向と垂直な方向にシフトさせることにより瞳ズレ補正を行うことができる。このように光束分割反射装置200(DMD210)は、第1実施形態等におけるマスク15と同様の光束分割機能と、瞳ズレ補正装置100(瞳ズレ補正素子110)と同様の瞳ズレ補正機能(光束シフト機能)とを有する。すなわち光束分割反射装置200(DMD210)は、光束分割部と光束シフト部(調整部)とを兼用する。光束分割反射装置200(DMD210)におけるONミラーとOFFミラーの配置パターンの切替え等は、制御部8により制御される。
光束分割反射装置200(DMD210)からの励起光L1a,L1bは、第1実施形態と同様に、ダイクロイックミラー16、リレー光学系17、走査部18、レンズ19、レンズ20、及び対物レンズ21を介して試料Sに入射する。検出装置6は、試料Sからの蛍光を、検出光学系5を介して検出する。画像処理部7は、検出装置6の検出結果に基づいて、第1実施形態から第4実施形態で説明したいずれかの処理によって画像(例、超解像画像)を生成する。なお、第1実施形態から第4実施形態で説明した各処理のフローにおける瞳ズレ補正素子は、DMD210を含むものとする。
上記の各実施形態において、走査部18は、上述の形態に限定されない。例えば、ステージ2は、対物レンズ21に対してY方向に移動するYステージを含み、走査部18は、偏向ミラー18bの代わりにYステージを含んでもよい。この場合、走査部18は、偏向ミラー18aによって試料Sを励起光L1でX方向に走査し、Yステージの移動によって試料Sを励起光L1でY方向に走査してもよい。この場合、偏向ミラー18aは、対物レンズ21の瞳面P0と光学的に共役な瞳共役面とほぼ同じ位置に配置されてもよい。
また、ステージ2は、対物レンズ21に対してX方向に移動するXステージを含み、走査部18は、偏向ミラー18aの代わりにXステージを含んでもよい。この場合、走査部18は、上記のXステージの移動によって試料Sを励起光L1でX方向に走査し、偏向ミラー18bによって試料Sを励起光L1でY方向に走査してもよい。この場合、偏向ミラー18bは、対物レンズ21の瞳面P0と光学的に共役な瞳共役面とほぼ同じ位置に配置されてもよい。
また、ステージ2は、対物レンズ21に対してX方向に移動するXステージと、対物レンズ21に対してY方向に移動するYステージとを含み、走査部18は、上記のXステージおよびYステージを含んでもよい。この場合、走査部18は、上記のXステージの移動によって試料Sを励起光L1でX方向に走査し、上記のYステージの移動によって試料Sを励起光L1でY方向に走査してもよい。
上述の実施形態においては、試料Sを干渉縞で走査する走査方向がX方向およびY方向の2方向であり、照明光学系4は、試料Sを干渉縞で2次元的に走査する。なお、試料Sを干渉縞で走査する走査方向は、X方向、Y方向、及びZ方向の3方向でもよい。例えば、顕微鏡1は、試料Sを干渉縞でX方向およびY方向に走査して2D画像を取得する2D処理を実行し、例えば、対物レンズ21およびステージ2の少なくとも一方を移動させて、干渉縞が生成されるZ方向の位置を変更して2D処理を繰り返すことで、試料Sを干渉縞で三次元的に走査してもよい。顕微鏡1は、試料Sを干渉縞で三次元的に走査することで、Z方向の位置が異なる複数の2D画像を取得し、3D画像(例、Z-stack)を生成してもよい。試料Sを干渉縞で三次元的に走査する場合、照明光学系4がX方向およびY方向に走査し、対物レンズ21およびステージ2の少なくとも一方の移動によってZ方向に走査してもよい。また、照明光学系4が試料Sを干渉縞で三次元的に走査してもよい。
本実施形態において、検出装置6は、第1実施形態と同様、干渉縞L2の周期方向が変更される前後のそれぞれにおいて、試料Sからの蛍光L3を検出する。画像処理部7は、干渉縞L2の周期方向の変更前における検出装置6の検出結果と、干渉縞L2の周期方向の変更後における検出装置6の検出結果とに基づいて、第1実施形態から第4実施形態で説明したいずれかの処理によって画像(例、超解像画像)を生成する。
第11実施形態によれば、第1実施形態から第4実施形態で説明したいずれかの処理によって、検出部6aごとに得られる画像の実効PSFを揃えることができる。そのため、S/Nを確保しつつ、分解能が高い画像(例、超解像画像)を生成することができる。また、観察する視野の位置(走査座標、走査ミラーの角度、視野角)に応じて、光束分割反射装置200(DMD210)による瞳ズレ補正が行われる。これにより、瞳ズレによる分解能・セクショニング能力等の低下を防止しつつ、超解像画像を生成することができる。また、光束分割反射装置200(DMD210)が、光束分割部と光束シフト部(調整部)とを兼用するので、顕微鏡1Hの構成を簡易化することができる。
[第12実施形態]
第12実施形態について説明する。本実施形態では、第1実施形態の顕微鏡1による画像取得のフローを示し、その効果を説明する。本実施形態の画像取得フローでは試料Sの所定の範囲(XY方向)を撮影(観察)する。所定の範囲とは、例えば図32中の太枠内の範囲であり、この例では所定の範囲内に、走査を要する撮影範囲(観察領域)としてA1,A2,B1,B2の4つの撮影範囲(上述の観察領域に相当する)が存在する。各撮影範囲は、第3実施形態の説明で述べた遮断周波数およびナイキストの定理に基づくスキャン間隔とスキャンピクセル数に関係した範囲に設定される。これらの撮影範囲の画像取得(画像生成)をそれぞれ行うためには、走査ミラー(偏向ミラー18a,18b)の角度範囲を変更することにより撮影範囲を変更する。例えば撮影範囲A1および撮影範囲A2の画像取得を行うためには、撮影範囲A1用の第1の角度範囲で撮影範囲A1を2次元的に走査し、第1の角度範囲とは異なる、撮影範囲A2用の第2の角度範囲で撮影範囲A2を2次元的に走査することで撮影範囲の変更を行う。このようにして撮影範囲をA1,A2,B1,B2と変更することにより、図32に太枠で示す所定の範囲の画像取得を行うことができる。
第12実施形態について説明する。本実施形態では、第1実施形態の顕微鏡1による画像取得のフローを示し、その効果を説明する。本実施形態の画像取得フローでは試料Sの所定の範囲(XY方向)を撮影(観察)する。所定の範囲とは、例えば図32中の太枠内の範囲であり、この例では所定の範囲内に、走査を要する撮影範囲(観察領域)としてA1,A2,B1,B2の4つの撮影範囲(上述の観察領域に相当する)が存在する。各撮影範囲は、第3実施形態の説明で述べた遮断周波数およびナイキストの定理に基づくスキャン間隔とスキャンピクセル数に関係した範囲に設定される。これらの撮影範囲の画像取得(画像生成)をそれぞれ行うためには、走査ミラー(偏向ミラー18a,18b)の角度範囲を変更することにより撮影範囲を変更する。例えば撮影範囲A1および撮影範囲A2の画像取得を行うためには、撮影範囲A1用の第1の角度範囲で撮影範囲A1を2次元的に走査し、第1の角度範囲とは異なる、撮影範囲A2用の第2の角度範囲で撮影範囲A2を2次元的に走査することで撮影範囲の変更を行う。このようにして撮影範囲をA1,A2,B1,B2と変更することにより、図32に太枠で示す所定の範囲の画像取得を行うことができる。
ここで図33のフローを参照して、図32の所定の範囲(A1,A2,B1,B2の撮影範囲)の画像生成および画像表示を行う場合について説明する。本フローによる画像取得は、第1実施形態の顕微鏡1により行うこととし、顕微鏡1の各部については、適宜、図1から図5を参照する。
図33のフローでは、まず、ステップS101において、顕微鏡1の制御部8は干渉縞L2の周期方向を第1の方向(例えば0°)に設定する。制御部8は、マスク15を駆動部22により回転させることで干渉縞L2の周期方向を第1の方向に設定する。次いで、ステップS102において、制御部8は走査ミラー(偏向ミラー18a,18b)の角度の初期位置を更新する。走査ミラーの角度の初期位置とは例えば走査の開始位置であり、例えば図32において撮影範囲A1を走査する場合であれば、走査の開始位置(初期位置)は例えばA1Sである。このような更新を行うことにより、後のステップS105において制御部8が設定する走査ミラーの角度の初期位置をA1Sとし、制御部8はステップS106以降において撮影範囲A1の画像取得を行う。
次に、ステップS103において制御部8は、瞳ズレ補正が必要かどうかを判定する。この判定は、例えば図34に示すテーブルを参照して行う。テーブル中のdegx1~degx4は、例えば図1の偏向ミラー18aの角度範囲(図35を参照)であり、例えば試料Sにおける励起光L1が入射するX方向位置に関連する。テーブル中のdegy1~degy4は、例えば図1の偏向ミラー18bの角度範囲であり、例えば試料Sにおける励起光L1が入射するY方向位置に関連する。図34のテーブルは、偏向ミラー18aおよび偏向ミラー18bの角度範囲に対する、瞳ズレ補正素子110の補正量(設定量)を紐づけるものであり、例えば第1実施形態の説明で述べた、瞳ズレ量の許容値δx
lim、δy
limに関連して決定される。ステップS103では、まず走査ミラー(偏向ミラー18aおよび偏向ミラー18b)の角度の初期位置に基づき瞳ズレ補正素子110の補正量を決定し、この補正量を瞳ズレ補正素子110に与えるかどうかを判定する。例えば、走査ミラーの角度の初期位置(例えば、A1S)が、例えばdegx2およびdegy3に相当する場合には、瞳ズレ補正素子110の補正量を、図34のテーブルから補正量(32)と決定する。ステップS103において、瞳ズレ補正素子110が補正量(32)と異なる状態に設定されている場合には瞳ズレ補正が必要と判定する(ステップS103:Yes)。そしてステップS104において補正量(32)と一致する状態となるように瞳ズレ補正素子110を設定することにより、瞳ズレ補正を行う。一方、瞳ズレ補正素子110の設定状態が補正量(32)と一致している場合には瞳ズレ補正(瞳ズレ補正素子110の設定状態の変更)は不要と判定する(ステップS103:No)。なお、瞳ズレ補正素子110の補正量は、上述した瞳ズレ補正量と関連して設定される。
次に、ステップS105において制御部8は、例えば図32の撮影範囲A1を走査するため、走査ミラーの角度を初期位置とする。例えば制御部8は、走査ミラーを撮影範囲A1の初期位置A1S(図32を参照)に対応する角度に設定する。ステップS106~S109については、図11のフローにおけるステップS4~S7と同様の内容であり、例えば図32の撮影範囲A1の走査を行い、試料Sからの蛍光を検出する。ステップS109において顕微鏡1の制御部8が、走査ミラーの角度変更を実行しないと判定した場合(ステップS109:No)には、ステップS110において制御部8は干渉縞L2の周期方向が第1の方向(例えば0°)であるか否かを判定する。ここで、例えば周期方向が第1の方向であった場合(ステップS110:Yes)には、ステップS111において制御部8は干渉縞L2の周期方向を第2の方向(例えば120°)に設定する。その後、ステップS105において制御部8は、走査ミラーの角度を初期位置(例えばA1S)とし、干渉縞L2の周期方向を第2の方向とした走査を行う(ステップS106~S109)。
一方、ステップS110において、例えば干渉縞L2の周期方向が第2の方向であった場合(ステップS110:No)には、ステップS112において制御部8は、干渉縞L2の周期方向が第2の方向(例えば120°)であるか判定をする。ここで、例えば周期方向が第2の方向であった場合(ステップS112:Yes)には、ステップS113において制御部8は干渉縞L2の周期方向を第3の方向(例えば240°)に設定する。その後、ステップS105において制御部8は、走査ミラーの角度を初期位置(例えばA1S)とし、干渉縞L2の周期方向を第3の方向とした走査を行う(ステップS106~S109)。
これに対し、ステップS112において、例えば干渉縞L2の周期方向が第3の方向であった場合(ステップS112:No)には、ステップS114において顕微鏡1の画像生成部7は、第1実施形態、第2実施形態、第3実施形態または第4実施形態に基づいた画像生成を行う。ここで生成される画像は例えば超解像画像であり、干渉縞L2の周期方向である第1の方向、第2の方向および第3の方向に分解能が向上した(超解像効果が得られた)画像である。ステップS114において画像生成を行った後、ステップS115において、制御部8は画像生成部7が生成した画像を、顕微鏡1の表示部10に表示する。
次に、ステップS116において制御部8は、所定の撮影範囲について走査が完了したか否かの判定を行う。例えば、まだ撮影範囲が残っている場合(ステップS116:No)にはステップS101に戻り、干渉縞L2の周期方向を第1の方向とする。さらにステップS102において制御部8は走査ミラーの角度の初期位置を更新(例えばA1SからA2Sに更新)する。このような更新を行うことによりステップS105において制御部8が設定する走査ミラーの角度の初期位置をA2Sとし、制御部8はステップS106以降において撮影範囲A2の画像取得を行う。なお、制御部8は、ステップS102において走査ミラーの角度の初期位置を更新(例えばA1SからA2Sに更新)した後、ステップS103において瞳ズレ補正が必要かどうかの判定を、例えば図34のテーブルを参照して行い、必要に応じて瞳ズレ補正を実施する(ステップS104)。
撮影範囲B1およびB2について画像取得を行うときも同様に、制御部8はステップS102において走査ミラーの角度の初期位値をB1SおよびB2Sへと更新する。このような更新を行うことによりステップS105で制御部8が設定する走査ミラーの角度の初期位値をB1SおよびB2Sとし、制御部8はステップS106以降において撮影範囲B1およびB2について画像取得を行う。なお、ステップS116において所定の撮影範囲について走査が完了している場合(ステップS116:Yes)は、撮影終了となる。
このようにして、図32の撮影範囲A1(初期位置A1S)の画像生成(画像取得)、撮影範囲A2(初期位置A2S)の画像生成(画像取得)、撮影範囲B1(初期位置B1S)の画像生成(画像取得)、および撮影範囲B2(初期位置B2S)の画像生成(画像取得)を行うことができる。
図33のフローでは、上述のように、ある第1の撮影範囲(例えばA1)において、干渉縞L2の周期方向を第1の方向、第2の方向、第3の方向と切り替えて走査、画像生成を行い、第2の撮影範囲(例えばA2)において、干渉縞L2の周期方向を第1の方向、第2の方向、第3の方向と切り替えて走査、画像生成を行う。これにより、複数の周期方向を切り替えつつ、高精度な走査結果を得ることができ、画像生成結果の精度が向上する。また、図33のフローによれば、例えば図32に示す全ての撮影範囲(A1,A8,H1,H8に囲まれた範囲)の画像取得も可能である。この場合も、複数の周期方向を切り替えつつ、高精度な走査結果を得ることができ、画像生成結果の精度が向上する。
なお、本実施形態では、第1実施形態に適用する場合を例にとって説明したがもちろんこれに限らない。本実施形態は、第2実施形態、第3実施形態、第4実施形態、第5実施形態、第6実施形態、第7実施形態、第8実施形態、第9実施形態、第10実施形態、第11実施形態に対しても適用可能である。なお、図34のテーブルは対物レンズの倍率やNAや瞳径に応じて用意しておき、使い分けてもよい。例えば、対物レンズの倍率やNAや瞳径に応じて、図33のステップS103において参照するテーブルを変更してもよい。
また、補正量の決定に当たり参照する図34のテーブルにおいて、補正量は偏向ミラー18aの角度範囲degx1~degx4および偏向ミラー18bの角度範囲degy1~degy4に関係した値としたが、もちろんこれに限らない。例えば、degx1~degx4を偏向ミラー18aの離散的な角度としてもよい。その場合、例えば、偏向ミラー18aの角度をdegx1とdegx2の中間の値であるdegxnとした場合、degx1とdegx2から決まるそれぞれの補正量を線形補完して求めた補正量nを、瞳ズレ補正素子110に与える補正量としてもよい。さらに、補正量の決定に当たり図34に示すようなテーブルを用いなくともよい。テーブルを用いない場合にはステップS102において制御部8は、第1実施形態の説明において述べたような瞳ズレ補正量ΔxおよびΔyの計算を行い、補正量を算出してもよい。
本実施形態では、干渉縞L2の周期方向の変更を、第1の撮影範囲(例えばA1)において第1の方向、第2の方向、第3の方向の順で行い、第2の撮影範囲(例えばA2)においても第1の方向、第2の方向、第3の方向の順で行ったが、これに限らない。例えば、干渉縞L2の周期方向の変更を、第1の撮影範囲(例えばA1)においては第1の方向、第2の方向、第3の方向の順で行い、第2の撮影範囲(例えばA2)においては第3の方向、第2の方向、第1の方向の順で行ってもよい。これにより、干渉縞L2の周期方向の変更回数を減らすことできる。
本実施形態では撮影範囲A1,A2,B1,B2の4つを所定の範囲としたが、この所定の範囲は例えば観察者(顕微鏡1の使用者)が設定するものである。また本実施形態では各撮影範囲の走査の順序をA1,A2,B1,B2の順としたが、走査の順序はどのような順序としてもよい。例えば走査の順序をA1,B1,B2,A2の順としてもよいし、例えば図34のテーブルに基づき瞳ズレ補正素子110の駆動回数(補正回数)が最小となるように走査の順序を決定してもよい。
[第13実施形態]
第13実施形態について説明する。本実施形態では、第1実施形態の顕微鏡1による画像取得のフローを図36に示し、その効果を説明する。図36に示す、本実施形態の画像取得フローでは試料Sの所定の範囲(XY方向)を撮影するが、撮影範囲の変更と干渉縞L2の周期方向の設定の順序が第12実施形態とは異なる。所定の範囲とは、第12実施形態と同様に、例えば図32中の太枠内の範囲であり、この所定の範囲内に、走査を要する撮影範囲としてA1,A2,B1,B2の4つの撮影範囲が存在する。図36のフローにおいて、ステップS201からステップS209、ステップS211からステップS216、及びステップS210については、それぞれ、図33のフローにおけるステップS101からステップS109、ステップS110からステップS113、及びステップS116について、第12実施形態の説明で述べたのと同様の内容であり、適宜説明を省略する。
第13実施形態について説明する。本実施形態では、第1実施形態の顕微鏡1による画像取得のフローを図36に示し、その効果を説明する。図36に示す、本実施形態の画像取得フローでは試料Sの所定の範囲(XY方向)を撮影するが、撮影範囲の変更と干渉縞L2の周期方向の設定の順序が第12実施形態とは異なる。所定の範囲とは、第12実施形態と同様に、例えば図32中の太枠内の範囲であり、この所定の範囲内に、走査を要する撮影範囲としてA1,A2,B1,B2の4つの撮影範囲が存在する。図36のフローにおいて、ステップS201からステップS209、ステップS211からステップS216、及びステップS210については、それぞれ、図33のフローにおけるステップS101からステップS109、ステップS110からステップS113、及びステップS116について、第12実施形態の説明で述べたのと同様の内容であり、適宜説明を省略する。
図36のフローでは、まずステップS201において図1の顕微鏡1の制御部8が干渉縞L2の周期方向を第1の方向(例えば0°)に設定する。次いで、ステップS202において、制御部8は走査ミラー(偏向ミラー18a,18b)の角度の初期位置を更新する。走査ミラーの角度の初期位置とは例えば走査の開始位置であり、第12実施形態と同様に、例えば図32において撮影範囲A1を走査する場合であれば、走査の開始位置(初期位置)は例えばA1Sである。
次に、ステップS203において制御部8は、瞳ズレ補正が必要かどうかを判定する。この判定は、第12実施形態と同様に、例えば図34のテーブルを参照して行う。例えば、走査ミラーの角度の初期位置(例えば、A1S)が、例えばdegx2およびdegy3に相当する場合には、瞳ズレ補正素子110の駆動量を、図34のテーブルから補正量(32)と決定する。そして、瞳ズレ補正素子110の駆動量が補正量(32)と異なっている場合には瞳ズレ補正が必要と判定し(ステップS203:Yes)、ステップS204において補正量(32)となるように瞳ズレ補正素子110を駆動することにより、瞳ズレ補正を行う。
次に、ステップS205において制御部8は、例えば図32の撮影範囲A1を走査するため、走査ミラーの角度を初期位置とする。例えば制御部8は、走査ミラーを撮影範囲A1の初期位置A1Sに対応する角度に設定する。ステップS206~S209については、図11のフローにおけるのステップS4~S7と同様の内容であり、例えば図32の撮影範囲A1の走査を行い、試料Sからの蛍光を検出する。
ステップS209において顕微鏡1の制御部8が走査ミラーの角度変更を実行しないと判定した場合(ステップS209:No)には、ステップS210において制御部8は、所定の撮影範囲について走査が完了したか否かの判定を行う。例えば、まだ撮影範囲が残っている場合(ステップS210:No)にはステップS202に戻り、ステップS202において制御部8は走査ミラーの角度の初期位置を更新(例えばA1SからA2Sに更新)する。このとき干渉縞L2の周期方向は第1の方向のままである。すなわち、このような更新を行うことにより、干渉縞L2の周期方向は第1の方向のまま、ステップS205において制御部8が設定する走査ミラーの角度の初期位置をA2Sとし、制御部8はステップS206以降において撮影範囲A2の画像取得を行う。なお、ステップS202において制御部8は走査ミラーの角度の初期位置を更新(例えばA1SからA2Sに更新)した後、ステップS203において瞳ズレ補正が必要かどうかの判定を、例えば図34のテーブルを参照して行い、必要に応じて瞳ズレ補正を実行する(ステップS204)。
このようにして干渉縞L2の周期方向を第1の方向としたまま、撮影範囲をA1からA2に変更する。同様に、干渉縞L2の周期方向を第1の方向としたまま、撮影範囲B1およびB2についても走査を行う。ステップS210において所定の撮影範囲について走査が完了した場合、つまり干渉縞L2の周期方向を第1の方向として撮影範囲A1,A2,B1,B2の走査が完了した場合(ステップS210:Yes)、ステップS211において制御部8は、干渉縞L2の周期方向が第1の方向であるか否かの判定を行う。ここで、例えば周期方向が第1の方向であった場合(ステップS211:Yes)には、ステップS212において制御部8は干渉縞L2の周期方向を第2の方向(例えば120°)に設定する。その後ステップS202において制御部8は撮影範囲A1を走査するため、走査ミラーの初期位置をA1Sとする。このようにして干渉縞L2の周期方向を第2の方向として、撮影範囲A1の走査を行う。同様に、干渉縞L2の周期方向を第2の方向としたまま、撮影範囲A2,B1,B2についても走査を行う。
さらに、ステップS210において、所定の撮影範囲について走査が完了した場合、つまり干渉縞L2の周期方向を第2の方向として撮影範囲A1,A2,B1,B2の走査が完了した場合(ステップS210:Yes)、ステップS211において制御部8は、干渉縞L2の周期方向が第1の方向であるか判定を行う。ここで、周期方向が第1の方向でない場合、例えば周期方向が第2の方向であった場合(ステップS211:No)には、ステップS213において制御部8は、干渉縞L2の周期方向が第2の方向であるか否かの判定を行う。ここで、周期方向が第2の方向であった場合(ステップS213:Yes)には、ステップS214において制御部8は干渉縞L2の周期方向を第3の方向(例えば240°)に設定する。その後ステップS202において制御部8は撮影範囲A1を走査するため、走査ミラーの初期位置をA1Sとする。このようにして干渉縞L2の周期方向を第3の方向として、撮影範囲A1の走査を行う。同様に、干渉縞L2の周期方向を第3の方向としたまま、撮影範囲A2,B1,B2についても走査を行う。
さらに、ステップS210において、所定の撮影範囲について走査が完了した場合、つまり干渉縞L2の周期方向を第3の方向として撮影範囲A1,A2,B1,B2の走査が完了した場合(ステップS210:Yes)、ステップS211において制御部8は、干渉縞L2の周期方向が第1の方向であるか否かの判定を行う。周期方向が第1の方向でない場合、例えば周期方向が第3の方向であった場合(ステップS211:No)には、ステップS213において制御部8は干渉縞L2の周期方向が第2の方向であるか否かの判定を行う。ここで、周期方向が第2の方向でない場合、例えば周期方向が第3の方向であった場合(ステップS213:No)には、撮影範囲A1,A2,B1,B2において、干渉縞L2の周期方向を第1の方向、第2の方向および第3の方向とした走査を完了したとする。そして、ステップS215において顕微鏡1の画像処理部7は、第1実施形態、第2実施形態、第3実施形態または第4実施形態に基づいた画像生成をそれぞれの撮影範囲について行う。ここで生成される画像は例えば超解像画像であり、干渉縞L2の周期方向が第1の方向、第2の方向および第3の方向に分解能が向上した(超解像効果が得られた)画像である。ステップS215において画像生成を行った後、ステップS216において、制御部8は画像生成部7が生成した画像を、顕微鏡1の表示部10に表示する。
このようにして、図32の撮影範囲A1(初期位置A1S)の画像生成(画像取得)、撮影範囲A2(初期位置A2S)の画像生成(画像取得)、撮影範囲B1(初期位置B1S)の画像生成(画像取得)、および撮影範囲B2(初期位置B2S)の画像生成(画像取得)を行うことができる。
図36のフローでは、上述のように、干渉縞L2の周期方向を第1の方向として、第1の撮影範囲(例えばA1)、第2の撮影範囲(例えばA2)、第3の撮影範囲(例えばB1)、第4の撮影範囲(例えばB2)と撮影範囲を変更して走査、画像生成を行い、続けて干渉縞L2の周期方向を第2の方向として、第1の撮影範囲(例えばA1)、第2の撮影範囲(例えばA2)、第3の撮影範囲(例えばB1)、第4の撮影範囲(例えばB2)と撮影範囲を変更して走査、画像生成を行い、続けて干渉縞L2の周期方向を第3の方向として、第1の撮影範囲(例えばA1)、第2の撮影範囲(例えばA2)、第3の撮影範囲(例えばB1)、第4の撮影範囲(例えばB2)と撮影範囲を変更して走査、画像生成を行う。このように走査を行うことで、干渉縞L2の周期方向の変更を最小にすることができ、周期方向の変更に伴う時間を最小とすることでスループットを向上することができる。
また、図36のフローによれば、例えば図32に示す全ての撮影範囲(A1,A8,H1,H8に囲まれた範囲)の画像取得も可能である。この場合も、干渉縞L2の周期方向を第1の方向として、撮影範囲を順次変更して全ての撮影範囲の走査、画像生成を行い、続けて干渉縞L2の周期方向を第2の方向として、撮影範囲を順次変更して全ての撮影範囲の走査、画像生成を行い、続けて干渉縞L2の周期方向を第3の方向として、撮影範囲を順次変更して全ての撮影範囲の走査、画像生成を行う。このように走査を行うことで、干渉縞L2の周期方向の変更を最小にすることができ、周期方向の変更に伴う時間を最小とすることでスループットを向上することができる。
なお、本実施形態では、第1実施形態に適用する場合を例にとって説明したがもちろんこれに限らない。本実施形態は、第2実施形態、第3実施形態、第4実施形態、第5実施形態、第6実施形態、第7実施形態、第8実施形態、第9実施形態、第10実施形態、第11実施形態に対しても適用可能である。
本実施形態では撮影範囲A1,A2,B1,B2の4つを所定の範囲としたが、この所定の範囲は例えば観察者(顕微鏡1の使用者)が設定するものである。また本実施形態では各撮影範囲の走査の順序をA1,A2,B1,B2の順としたが、走査の順序はどのような順序としてもよい。例えば走査の順序をA1,B1,B2,A2の順としてもよいし、例えば図34のテーブルに基づき瞳ズレ補正素子の駆動回数(補正回数)が最小となるように走査の順序を決定してもよい。
上述のように本実施形態では、干渉縞L2の複数の周期方向について撮影範囲の変更、走査を行った後に画像生成部7による画像生成を行い、表示部10への表示を行う。この場合、観察者(顕微鏡1の使用者)は、図36のフローの処理が完了するまで画像を表示部にて確認できないことになる。この点に鑑みた変形例のフローを図37に示す。図37のフローは、図36のフローと比べて、ステップS215とステップS216の実施位置が異なっている。以下、図37のフローについて説明する。
図37のフローでは、例えば干渉縞L2の周期方向が第1の方向の場合(ステップS201)に撮影範囲A1の走査を行い(ステップS205~S209)、画像生成部7は第1実施形態、第2実施形態、第3実施形態または第4実施形態に基づいた画像生成を行い(ステップS215)、制御部8は生成した画像を表示部10に表示する(ステップS216)。この時に表示部10に表示されるのは、図38(A)に示すように、撮影範囲A1における干渉縞L2の周期方向が第1の方向である場合の検出結果に基づき画像生成部7により生成された画像である。この生成画像は干渉縞L2の周期方向が第1の方向について分解能が向上した(超解像効果が得られた)画像である。
引き続き制御部8は、干渉縞L2の周期方向が第1の方向のまま、撮影範囲A2の走査を行い、画像生成部7における画像生成を行い(ステップS215)、表示部10に表示を行う(ステップS216)。この時に表示部10に表示されるのは図38(B)に示すように、撮影範囲A1における干渉縞L2の周期方向が第1の方向について分解能が向上した(超解像効果が得られた)画像と、撮影範囲A2における干渉縞L2の周期方向が第1の方向について分解能が向上した(超解像効果が得られた)画像である。また制御部8は、干渉縞L2の周期方向が第1の方向のまま、撮影範囲B1,B2についても走査を行い、画像生成部7における画像生成を行い(ステップS215)、表示部10に表示を行う(ステップS216)。この時(撮影範囲B2の走査完了後)に表示部10に表示されるのは、例えば図38(C)に示すように、干渉縞L2の周期方向が第1の方向について分解能が向上した(超解像効果が得られた)、撮影範囲A1,A2,B1,B2における各画像である。
さらにステップS210において所定の撮影範囲について走査が完了した場合、つまり干渉縞L2の周期方向を第1の方向として撮影範囲A1,A2,B1,B2の走査が完了した場合(ステップS210:Yes)、ステップS212において制御部8は、干渉縞L2の周期方向を第2の方向に設定する。その後ステップS205~S209において制御部8は撮影範囲A1を走査する。このように干渉縞L2の周期方向を第2の方向として撮影範囲A1の走査を行い、画像生成部7における画像生成を行い(ステップS215)、表示部10に表示を行う(ステップS216)。この時に表示部10に表示されるのは、例えば図38(D)に示すように、撮影範囲A1については、干渉縞L2の周期方向が第1の方向である場合の検出結果と、干渉縞L2の周期方向が第2の方向の検出結果である場合の検出結果という2つの検出結果を用いて画像生成部7により生成された画像である。この生成画像は干渉縞L2の周期方向が第1の方向と第2の方向について分解能が向上した(超解像効果が得られた)画像である。
このように図37のフローでは、干渉縞L2の周期方向をある方向に設定した状態において、ある撮影範囲の走査が完了するたびに、その検出結果を用いて画像生成を行い、その生成画像(途中段階の画像)を表示部10に表示する。そのため観察者(顕微鏡1の使用者)は、図37のフローの処理が完了する前の段階で表示部10に表示された画像を見ることによって、例えば光源3の励起光L1のパワーが適切かどうかを確認することができる。
[変形例]
以下、変形例について説明する。上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図39及び図40は、変形例に係る照明瞳を示す図である。
以下、変形例について説明する。上述の実施形態と同様の構成については、適宜、同じ符号を付してその説明を省略あるいは簡略化する。図39及び図40は、変形例に係る照明瞳を示す図である。
照明瞳は、図2において2極であり、図25において4極であるが、図39(A)において3極である。符号AR5aから符号AR5cは、それぞれ、瞳面P0において励起光が入射する領域である。この場合、領域AR5aに入射した励起光と領域AR5bに入射した励起光との第1干渉縞と、領域AR5bに入射した励起光と領域AR5cに入射した励起光との第2干渉縞と、領域AR5cに入射した励起光と領域AR5aに入射した励起光との第3干渉縞とが形成される。試料面Saには、上記の第1干渉縞と第2干渉縞と第3干渉縞とを合成した干渉縞が形成される。この干渉縞は、第1干渉縞の周期方向と、第2干渉縞の周期方向と、第3干渉縞の周期方向とがそれぞれ周期方向であり、周期方向が3方向であるので、3方向において超解像効果を得ることができる。なお、照明瞳は、5以上の極を有してもよい。
また、照明瞳は、図2などにおいて円形であるが、その他の形状でもよい。図39(B)および図39(C)において、符号AR6は、励起光が入射する領域である。図39(B)の領域AR6は、対物レンズ21の光軸21aを中心とする円の一部である円AR6aと、円弧AR6aの両端を結ぶ直線AR6bとに囲まれる領域である。また、図39(C)の領域AR6は、対物レンズ21の光軸21aを中心とする円の一部である円弧と、円弧AR6aと対称な曲線AR6cとに囲まれる領域である。
図39(B)あるいは図39(C)の形状の照明瞳である場合、円形の照明瞳である場合と比較して、干渉縞が形成されない方向の分解能が良くなり、セクショニングも良くなる。また、図39(B)の形状の照明瞳である場合、図39(C)の形状の照明瞳である場合と比較して、干渉縞が形成されない方向の分解能が良くなり、セクショニングも良くなる。また、図39(C)の形状の照明瞳である場合、図39(B)の形状の照明瞳である場合と比較して、干渉縞が形成される方向の分解能がよい。
図40(A)において、照明瞳は、図39(B)に示した形状の照明瞳を4極にした形態である。図40(B)において、照明瞳は、図39(C)に示した形状の照明瞳を4極にした形態である。なお、円形以外の形状の照明瞳である場合についても、励起光が入射する複数の領域の数(極の数)は、2以上の任意の数に設定される。また、瞳面P0において励起光が入射する複数の領域のうち、1つの領域の形状が他の領域の形状と異なってもよい。また、瞳面P0において励起光が入射する複数の領域のうち、1つの領域の寸法が他の領域の寸法と異なってもよい。また、瞳面P0において励起光が入射する複数の領域は、対物レンズ21の光軸21aに関して非対称に配置されてもよい。
照明瞳の各極の形状、寸法、及び配置は、例えば、図2に示したマスク15の開口の形状、寸法、及び配置を設計することで実現可能である。また、マスク15は、光を遮る領域が可変な機械式の絞り、あるいは空間光変調器(SLM)などでもよい。
図41は、第1の変形例に係る顕微鏡1Iを示す図である。図41では、顕微鏡の変形例として、第1実施形態に係る顕微鏡1に適用した形態を示しているが、他の実施形態の顕微鏡にも適用可能である。図41において、照明光学系4Cは、光ファイバー11からダイクロイックミラー16へ向かう順に、コリメーターレンズ50、λ/2波長板51、レンズ52、回折格子53、レンズ54、マスク15、及び瞳ズレ補正装置100を備える。さらに、照明光学系4Cは、第1実施形態と同様に、ダイクロイックミラー16、リレー光学系17、走査部18、レンズ19、レンズ20、及び対物レンズ21を備える。なお、対物レンズ21の光軸21aは、照明光学系4Cの光軸4Caに含まれる。コリメーターレンズ50は、光ファイバー11からの励起光L1をほぼ平行光に変換する。λ/2波長板51は、試料Sに入射する際の励起光L1の偏光状態を調整する。レンズ52は、励起光L1を回折格子53に集光する。
回折格子53は、励起光L1を回折によって複数の光束に分岐させる。回折格子53は、蛍光物質を励起する励起光を複数の光束に分割する光束分割部である。回折格子53はレンズ52の焦点もしくは焦点近傍の位置に配置される。つまり、回折格子53は試料面Saと共役な面もしくはその近傍に配置される。焦点近傍とは、レンズ52で集光される光の焦点深度程度の範囲内のことである。例えば、レンズ52によって集光される光の波長が1μm、NAが0.03の場合、焦点深度は1mm程度となるため、回折格子53はレンズ52の焦点近傍1mm以内に配置されればよい。上記の複数の光束は、0次回折光、+1次回折光、及び-1次回折光を含む。レンズ54は、0次回折光、+1次回折光、及び-1次回折光をそれぞれほぼ平行光に変換する。マスク15は、0次回折光を遮光し、かつ、+1次回折光の少なくとも一部と-1次回折光の少なくとも一部とが通るように設けられる。このような形態においては、マスク15を透過する励起光L1の光量を増やすことができる。なお、回折格子53は、0次回折光が発生しないように設計されてもよい。また、マスク15を設けないような構成をとってもよい。
図42および図43は、それぞれ、変形例に係る偏光調整部を示す図である。照明光学系4(図1参照)は、図1に示したダイクロイックミラー16などの反射部材によって光路が折れ曲がるが、図42、図43においては、照明光学系4を、光軸4a(図1参照)が直線になるように展開して示した。図42、図43において、Z方向は光軸4aと平行な方向であり、X方向およびY方向は、それぞれ、光軸4aと垂直な方向である。
図42において、照明光学系4は、λ/4波長板61、マスク15、及びλ/4波長板62を含む。光ファイバー11から出射した励起光L1は、ほぼX方向の直線偏光であり、λ/4波長板61に入射する。なお、光ファイバー11とλ/4波長板61との間の光路に、透過軸がX方向の偏光子(例、偏光板)が設けられてもよい。
λ/4波長板61の進相軸は、+Z側から見た場合にX方向を反時計回りに45°回転させた方向に設定される。λ/4波長板61を通った励起光L1は、円偏光となりマスク15に入射する。マスク15の開口15a、開口15bを通った励起光L1は、円偏光であり、λ/4波長板62に入射する。λ/4波長板62の進相軸は、+Z側から見た場合にX方向を時計回りに45°回転させた方向に設定される。λ/4波長板62を通った励起光L1は、X方向の直線偏光となり、試料面Saに照射される。
マスク15は、第1実施形態で説明したように、光軸4aの周りで回転可能に設けられる。マスク15が回転すると、干渉縞の周期方向が変化する。例えば、図42の状態において、マスク15の開口15aと開口15bとはY方向に並んでおり、干渉縞の周期方向はY方向になる。図42の状態からマスク15が90°回転すると、干渉縞の周期方向は90°回転して、X方向になる。
λ/4波長板62は、光軸4aの周りで回転可能である。λ/4波長板62は、マスク15と同じ角度だけ回転するように、設けられる。例えば、λ/4波長板62は、マスク15と一体化され、マスク15と一体的に回転する。例えばマスク15が90°回転すると、λ/4波長板62は、90°回転して、その進相軸がλ/4波長板61の進相軸と平行になる。この場合、λ/4波長板62を通った励起光L1は、Y方向の直線偏光になる。試料面に対する励起光L1の入射面は、干渉縞の周期方向と平行であり、試料面に入射する際の励起光L1が干渉縞の周期方向と垂直な直線偏光であるので、励起光L1は、S偏光の状態で試料面Saに照射される。
このように、λ/4波長板62は、試料に入射する際の励起光の偏光状態を調整する偏光調整部に含まれる。このような偏光調整部は、図1で説明した態様に比べて、励起光L1の光量のロスを低減することができる。
図43において、照明光学系4は、偏光子65、マスク15、及びλ/2波長板66を含む。光ファイバー11か出射した励起光L1は、ほぼX方向の直線偏光であり、偏光子65に入射する。偏光子65は、透過軸がX方向に設定される。偏光子65を通った励起光L1は、X方向の直線偏光であり、マスク15に入射する。マスク15の開口15a、開口15bを通った励起光L1は、X方向の直線偏光であり、λ/2波長板66に入射する。λ/2波長板66の進相軸は、+Z側から見た場合にX方向を時計回りに45°回転させた方向に設定される。λ/2波長板66を通った励起光L1は、Y方向の直線偏光となり、試料面Saに照射される。
マスク15は、第1実施形態で説明したように、光軸4aの周りで回転可能に設けられる。マスク15が回転すると、干渉縞の周期方向が変化する。例えば、図43の状態において、マスク15の開口15aと開口15bとはX方向に並んでおり、干渉縞の周期方向はX方向になる。図43の状態からマスク15が90°回転すると、干渉縞の周期方向は90°回転して、Y方向になる。
λ/2波長板66は、光軸4aの周りで回転可能である。λ/2波長板66は、マスク15の回転角の半分の角度だけ回転するように、設けられる。例えばマスク15が90°回転すると、λ/2波長板66は、45°回転する。この場合、λ/2波長板66を通った励起光L1は、X方向の直線偏光になる。試料面Saに対する励起光L1の入射面は、干渉縞の周期方向と平行であり、試料面Saに入射する際の励起光L1が干渉縞の周期方向と垂直な直線偏光であるので、励起光L1は、S偏光の状態で試料面Saに照射される。このように、λ/2波長板66は、試料Sに入射する際の励起光L1の偏光状態を調整する偏光調整部に含まれる。このような偏光調整部は、図1で説明した態様に比べて、励起光L1の光量のロスを低減することができる。
上記の各実施形態および変形例で説明した偏光調整部では、照明光(励起光L1)が偏光調整部を通過した直後に直線偏光となるように構成されているが、完全な直線偏光でなくてもよい。また、途中の光学系で発生する偏光状態の変化を補正するための、λ/2波長板、λ/4波長板などの追加の偏光素子が偏光調整部に加えられてもよい。
図44は、第2の変形例に係る顕微鏡1Jを示す図である。第2の変形例に係る顕微鏡1Jは、第1実施形態に係る顕微鏡1と略同様の構成である。顕微鏡1Jは、顕微鏡1におけるレンズ24に代えて変倍レンズ25を備えている。変倍レンズ25は、異なる焦点距離のレンズを切り替える形式のものとしてもよいしズームレンズとしてもよい。対物レンズ21を切り替える場合は、対物レンズ21の瞳径に合わせて変倍レンズ25を異なる焦点距離のレンズに切り替える、もしくはズーム倍率を変更してもよい。対物レンズ21の切替えに合わせて、マスク15の形状を切り替えてもよい。レンズ23の焦点距離・ズーム倍率は、検出光学系5の検出装置6側の開口数をNAdとしたとき、検出装置6の検出部6aの間隔をλem/4NAd以下に設定されることが望ましい。
各実施形態に係る顕微鏡は、イメージセンサを含む検出装置6,6Aを備える場合、検出光学系5の光軸の周りで試料Sの像を回転させる像回転部を備えてよい。縞方向を回転した場合に、試料Sの像を回転することによって縞周期と検出部6aの位置を整合させることができる。また、マスク15を光軸と垂直な方向に動かすことで、瞳ズレ補正を行うようにしてもよい。
各実施形態に係る顕微鏡は、励起光L1によって形成される干渉縞L2の位相をシフトさせて、干渉縞L2を複数の位相状態に設定することが可能な位相変調部を備えてもよい。以降、励起光L1によって形成される干渉縞L2の位相をシフトさせることを、位相の変更と呼ぶことがある。図45は、第3の変形例に係る顕微鏡を示す図である。
第3の変形例に係る顕微鏡1Kは、対物レンズ21の瞳面P0と光学的に共役な瞳共役面の近傍において、光束分割部によって分割された光束ごとに異なる光路長を有する光路を経由させることで、干渉縞L2の位相の変更を行う。図45では、顕微鏡の変形例として、第1実施形態に係る顕微鏡1に適用した形態を示しているが、他の実施形態の顕微鏡にも適用可能である。
第3の変形例に係る顕微鏡1Kは、第1実施形態に係る顕微鏡1と同様の構成である。第3の変形例に係る顕微鏡1Kは、位相変調部70を備える。位相変調部70は、位相変調素子71と、駆動部78とを含む。位相変調素子71は、マスク15と瞳ズレ補正装置100の間に配置される。位相変調素子71は、所定のガラス板に対して切削等の除去加工を行うことにより、円形の板状に形成される。位相変調素子71は、位相変調素子71の中心軸が照明光学系4の光軸4aと一致するように配置される。駆動部78は、位相変調素子71を照明光学系4の光軸の周りで回転させる。なお、位相変調素子71は、照明光学系4における平行光束の光路のうち、検出光学系5の光路と重複しない部分に配置されていればよい。
図46は、位相変調素子71の詳細を示す図である。図46(A)は位相変調素子を図45のZa方向に垂直な方向(例えばXa方向)から見た図である。図46(B)~図46(D)は位相変調素子を図45のZa方向から見た図であり、1つの位相変調素子71が中心Cnを中心として相互に異なる角度だけ回転した状態を表している。略円板形状の位相変調素子71は、厚さが異なる3つの領域(領域71c、領域71d、領域71e)を有しており、各領域を透過する光束の間に位相差を与える。
図46(B)に示す回転角度の位相変調素子71の場合、開口15aを通った励起光L1aと開口15bを通った励起光L1bは、共に領域71cを透過するため、位相差は付加されない。言い換えると、励起光L1aと励起光L1bの間には所定の第1の位相差φ1=0[rad]が付加される。
一方、図46(C)に示す回転角度の位相変調素子71の場合、励起光L1aは領域71cを透過し、励起光L1bは領域71dを透過するため、励起光L1aと励起光L1bの間には所定の第2の位相差φ2(例えば2π/3[rad])が付加される。また、図46(D)に示す回転角度の位相変調素子71の場合、励起光L1aは領域71cを透過し、励起光L1bは領域71eを透過するため、励起光L1aと励起光L1bの間には所定の第3の位相差φ3(例えば4π/3[rad])が付加される。
したがって、位相変調素子71の回転角度を、図46(B)の状態から図46(C)および図46(D)の状態に順次変更することによって、励起光L1aと励起光L1bの間の位相差を順次変更することができ、干渉縞L2の明暗の位相を変更することができる。なお、上述の例では、図46(B)に示した位相変調素子71の回転角度においては、励起光L1aと励起光L1bの間に位相差が付加されないものとした。しかし、これに限らず、3つの回転角度のいずれにおいても、励起光L1aと励起光L1bの間に、それぞれ値の異なる位相差が付加される構成としてもよい。この場合にも、励起光L1aと励起光L1bとの間に付加される位相差が、上記の3つの回転角度において一例として相互に2π/3[rad]ずつ異なるようにすることもできる。
なお、励起光L1aと励起光L1bとの間に付加される位相差は、上述の3つの回転角度において必ずしも2π/3[rad]ずつ異ならなくてもよい。また、位相変調素子71の各領域71c~71eは、上述のように位相変調素子71自体の厚さを領域毎に異ならせたものに限られるわけではなく、均一な厚さのガラス円板の少なくとも2カ所の領域に所定の厚さの薄膜を形成したものであっても良い。
上述のように、位相変調素子71によって干渉縞L2の位相を変化させることが可能である。干渉縞の位相を変化させるということは、上記の式(3)の右辺において、PSFill(r)を変化させることなく、余弦関数の引数である2πk0・rを2πk0・r+φへと変化させることに相当する。ここで、φは励起光L1aと励起光L2bの間の位相差である。PSFill(r)が変化しないことは、干渉縞L2の強度分布のエンベロープ(包絡線)が変化しないことを意味する。したがって、位相変調素子は干渉縞L2の強度分布のエンベロープ(包絡線)を変化させることなく、干渉縞L2の強度分布の明暗の位相を変化させる。
上述した位相変調部70を利用することで、第3実施形態で説明した画像処理の成分分離とは異なる態様の成分分離を行うことが可能となる。第3実施形態で説明したように、検出装置6で得られる像I(r,rs)は、上記の式(13)で表される。式(13)において、φは干渉縞L2の初期位相を示す。位相変調部70を利用した干渉縞L2の位相の変更によって、式(13)における初期位相φの値が変化するが、変化したφの値を位相差と呼ぶこともできる。すなわち、所定の位相差φを与えた状態で画像データを取得しても、得られる画像データは式(13)で与えられる。なお、所定の位相差φの値は0を含む。所定の位相差φを与えた状態で画像データを取得した場合に、画像処理部7によるスキャン座標rsに対する2次元フーリエ変換によって得られるデータをI~(r,ks;φ)とすると、I~(r,ks;φ)は下記の式(48)で表される。
式(48)において、OTF’det(r,ks)=ei2πksrOTFdet(ks)である。また、OTFdetはPSFdetのフーリエ変換であり検出光学系のOTFを表し、OTFillはPSFillのフーリエ変換であり、Obj~はObjのフーリエ変換である。
式(48)のI~(r,ks;φ)は下記の式(49A)に示すように3つの項の和になっており、以下の式(49B)から式(49D)で示すように、それぞれの項を、0次成分I~
0(r,ks)、+1次成分I~
+1(r,ks)、-1次成分I~
-1(r,ks)と呼ぶ。
第3の変形例に係る顕微鏡1Kは、位相変調部70を利用した干渉縞L2の位相の変更によって、干渉縞L2の位相を所定の位相から変化させ、干渉縞L2の所定の位相に対する位相差を、第1の位相差φ1、第2の位相差φ2、および第3の位相差φ3とした場合の画像データをそれぞれ取得する。第1の位相差φ1に対応するI~(r,ks;φ1)、第2の位相差φ2に対応するI~(r,ks;φ2)、および第3の位相差φ3に対応するI~(r,ks;φ3)は、下記の式(50A)から式(50C)のように表される。
式(50A)から式(50C)は、3つの未知数I0
~(r,ks)、I+1
~(r,ks)、I-1
~(r,ks)に対する連立方程式となっている。画像処理部7は、この連立方程式を解くことで、取得データI~(r,ks;φ1)、I~(r,ks;φ2)、I~(r,ks;φ3)より、I0
~(r,ks)、I+1
~(r,ks)、I-1
~(r,ks)を求める。この処理が第3実施形態で説明した画像処理の成分分離に相当する。画像処理部7は、I0
~(r,ks)、I+1
~(r,ks)、I-1
~(r,ks)を逆フーリエ変換することで、第3実施形態で説明したI0(r,rs)、I+1(r,rs)、I-1(r,rs)を得ることができる。そして、画像処理部7は、第3実施形態における成分分離された実空間の画像データを算出する処理以降、第3実施形態の場合と同様の処理を行う。これにより、成分分離における周波数空間の領域を設定しなくても、式(50A)から式(50C)の連立方程式を解くことで、成分分離に相当する処理を行うことができ、検出部6aの位置(ディテクター座標r)ごとの実効PSFの形状の崩れを補正することが可能である。
図47は、第3の変形例に係る顕微鏡1Kを用いた観察方法を示すフローチャートである。ステップS301において、観察領域を決定する。この観察領域は例えば観察者(顕微鏡1Kの使用者)が決定するものである。例えば、観察者は図47の表示部10に対し、任意の領域を入力部9により入力することで、観察領域を決定する。決定された観察領域(その位置情報)に基づき、顕微鏡1Kの制御部8は、ステップS302において瞳ズレ補正素子110による瞳ズレ補正量を算出する。そして制御部8は、算出した瞳ズレ補正量に基づき、ステップS303において瞳ズレ補正装置100に対し瞳ズレ補正素子の設定を行わせる。
ステップS304において、顕微鏡1Kの制御部8は、干渉縞L2の周期方向を設定する。制御部8は、マスク15を駆動部22により回転させ、マスク15の回転に応じて位相変調素子71を駆動部78により回転させることで、干渉縞L2の周期方向を設定する。ステップS305において、制御部8は、干渉縞L2の位相を設定する。制御部8は、位相変調素子71を駆動部78により回転させることで干渉縞L2の位相を設定する。ステップS306において、制御部8は、走査ミラー(偏向ミラー18a,18b)の角度を設定する。照明光学系4は、ステップS306で設定された走査ミラーの角度によって定まる試料上の位置に、励起光を干渉縞L2として照射する。ステップS307において、試料Sの蛍光物質は、励起光の干渉縞L2で励起される。ステップS308において、検出装置6は、複数の検出部6aごとに、試料Sからの蛍光を、検出光学系5を介して検出する。
ステップS309において、制御部8は、走査ミラーの角度変更を実行するか否かを判定する。制御部8は、予定された観察領域の一部についてステップS306からステップS308の処理が終了していないと判定した場合に、ステップS309において走査ミラーの角度変更を実行すると判定する(ステップS309;Yes)。制御部8は、走査ミラーの角度変更を実行すると判定した場合(ステップS309;Yes)、ステップS306の処理に戻り、制御部8は、走査ミラーの角度を予定された次の角度に設定する。そして、ステップS307からステップS309の処理が繰り返される。
制御部8は、ステップS309において、予定された観察領域の全てについてステップS306からステップS308の処理が終了したと判定した場合に、走査ミラーの角度変更を実行しないと判定する(ステップS309;No)。走査ミラーの角度変更を実行しないと制御部8が判定した場合(ステップS309;No)、ステップS310において、制御部8は、干渉縞L2の位相の変更を実行するか否かを判定する。
制御部8は、予定された干渉縞の3つの位相の一部についてステップS305からステップS309の処理が終了していないと判定した場合に、ステップS310において干渉縞L2の位相の変更を実行すると判定する(ステップS310;Yes)。制御部8は、干渉縞L2の位相の変更を実行すると判定した場合(ステップS310;Yes)、ステップS305の処理に戻り、制御部8は、干渉縞L2の位相を予定された次の位相に設定する。そして、ステップS306からステップS310の処理が繰り返される。このようにして、照明光学系4は、干渉縞の位相を変化させた3つの干渉縞について、励起光の干渉縞L2で試料Sを2次元的に走査する。
制御部8は、ステップS310において、予定された干渉縞の3つの位相の全てについてステップS305からステップS309の処理が終了したと判定した場合に、干渉縞L2の位相の変更を実行しないと判定する(ステップS310;No)。干渉縞L2の位相の変更を実行しないと制御部8が判定した場合(ステップS310;No)、ステップS311において、画像処理部7は、画像処理を行って画像(例、超解像画像)を生成する。
ステップS312において、制御部8は、干渉縞L2の周期方向の変更を実行するか否かを判定する。制御部8は、予定された干渉縞L2の周期方向の一部についてステップS304からステップS311の処理が終了していないと判定した場合に、ステップS312において干渉縞L2の周期方向の変更を実行すると判定する(ステップS312;Yes)。制御部8は、干渉縞L2の周期方向の変更を実行すると判定した場合(ステップS312;Yes)、ステップS304の処理に戻り、制御部8は、干渉縞L2の周期方向を予定された次の周期方向に設定する。そして、ステップS305からステップS312の処理が繰り返される。
制御部8は、ステップS312において、予定された干渉縞L2の周期方向の全てについてステップS304からステップS311の処理が終了したと判定した場合に、干渉縞L2の周期方向の変更を実行しないと判定する(ステップS312;No)。干渉縞L2の周期方向の変更を実行しないと制御部8が判定した場合(ステップS312;No)、処理を終了する。これにより、干渉縞L2の周期方向を変化させた画像を生成することができる。
図48は、画像処理部7による画像処理のサブフローを示すフローチャートである。ステップS321において、画像処理部7は、検出装置6の複数の検出部6aの少なくとも一部を選択する。ステップS322において、画像処理部7は、ステップS321で選択した、複数の検出部6aの少なくとも一部の検出結果をフーリエ変換する。画像処理部7は、所定の位相差φを与えたI(r,rs;φ)に対して2次元のフーリエ変換を行う。ステップS323において、画像処理部7は、上記の式(50A)~(50C)で表される連立方程式を解くことで、第3実施形態における成分分離に相当する処理を行う。ステップS324において、画像処理部7は、分離された成分を逆フーリエ変換する。ステップS325において、画像処理部7は、画像処理位相シフト処理を実行する。画像処理部7は、ステップS326において、実効PSFの位置ずれを補正する。ステップS327において、画像処理部7は、ステップS326で位置ずれを補正して得られる画像を足し合わせることで、画像(例、超解像画像)生成する。
ステップS328において、制御部8は、検出部6aの選択変更を実行するか否かを判定する。制御部8は、予定された検出部6aの組み合わせの一部についてステップS321からステップS327の処理が終了していないと判定した場合に、ステップS328において検出部6aの選択変更を実行すると判定する(ステップS328;Yes)。制御部8は、検出部6aの選択変更を実行すると判定した場合(ステップS328;Yes)、ステップS321の処理に戻り、制御部8は、複数の検出部6aの他の少なくとも一部を選択する。そして、ステップS322からステップS328の処理が繰り返される。
制御部8は、ステップS328において、予定された検出部6aの組み合わせの全てについてステップS321からステップS327の処理が終了したと判定した場合に、検出部6aの選択変更を実行しないと判定する(ステップS328;No)。検出部6aの選択変更を実行しないと制御部8が判定した場合(ステップS328;No)、図47のフロー(ステップS312)に戻る。これにより、選択する検出部6aを変えた画像を生成することができる。
上述の観察方法において、第3の変形例に係る顕微鏡1Kおよび、これを用いた観察方法によれば、第3実施形態の成分分離に相当する処理を行うことが可能であるため、画像処理部7により、位相シフト処理を実行することで、検出部6aごとに得られる画像の実効PSFを揃えることができる。そのため、画像処理部7により、位相シフト処理を実行して得られる検出部6aごとの画像を足し合わせることで、S/Nを確保しつつ、分解能が高い画像(例、超解像画像)を生成することができる。また、観察する視野の位置(走査座標、走査ミラーの角度、視野角)に応じて、瞳ズレ補正素子110による瞳ズレ補正が行われる。これにより、第1実施形態と同様、瞳ズレによる分解能・セクショニング能力等の低下を防止しつつ、超解像画像を生成することができる。
上述の各実施形態において、画像処理部7は、例えばコンピュータシステムを含む。画像処理部7は、記憶部に記憶されている画像処理プログラムを読み出し、この画像処理プログラムに従って各種の処理を実行する。この画像処理プログラムは、コンピュータに、検出装置6,6Aの検出結果に基づいて画像を生成することを実行させる。上記の検出装置6,6Aの検出結果は、光源3からの光を複数の光束に分割し、複数の光束の少なくとも一部の光束の干渉によって生成される干渉縞L2によって、試料Sを複数の方向において走査し、試料Sからの光が入射する検出光学系5を介して、複数の検出部6aを含む検出装置6,6Aによって、試料Sからの光を検出して得られる。
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。
1 顕微鏡(第1実施形態)
1A 顕微鏡(第5実施形態)
1B 顕微鏡(第5実施形態の変形例)
1C 顕微鏡(第6実施形態)
1D 顕微鏡(第7実施形態)
1E 顕微鏡(第8実施形態)
1F 顕微鏡(第9実施形態)
1E 顕微鏡(第10実施形態)
1G 顕微鏡(第11実施形態)
1H 顕微鏡(第12実施形態)
1I 顕微鏡(第1の変形例)
1J 顕微鏡(第2の変形例)
1K 顕微鏡(第3の変形例)
3 光源 4,4A~4C 照明光学系
5 検出光学系 6,6A 検出装置
6a 複数の検出部 7 画像処理部
8 制御部 9 入力部
10 表示部 100 瞳ズレ補正装置
110 瞳ズレ補正素子 111,112 平行平板ガラス
200 光束分割反射装置 210 DMD
L2 干渉縞
1A 顕微鏡(第5実施形態)
1B 顕微鏡(第5実施形態の変形例)
1C 顕微鏡(第6実施形態)
1D 顕微鏡(第7実施形態)
1E 顕微鏡(第8実施形態)
1F 顕微鏡(第9実施形態)
1E 顕微鏡(第10実施形態)
1G 顕微鏡(第11実施形態)
1H 顕微鏡(第12実施形態)
1I 顕微鏡(第1の変形例)
1J 顕微鏡(第2の変形例)
1K 顕微鏡(第3の変形例)
3 光源 4,4A~4C 照明光学系
5 検出光学系 6,6A 検出装置
6a 複数の検出部 7 画像処理部
8 制御部 9 入力部
10 表示部 100 瞳ズレ補正装置
110 瞳ズレ補正素子 111,112 平行平板ガラス
200 光束分割反射装置 210 DMD
L2 干渉縞
Claims (37)
- 試料に含まれる蛍光物質を励起するための光を複数の光束に分割する光束分割部、前記複数の光束の少なくとも一部が干渉して形成される干渉縞を前記試料の複数の方向において走査する走査部および、前記複数の光束の少なくとも一部が対物レンズの瞳面に入射する入射位置を調整する調整部、を有する照明光学系と、
前記試料からの蛍光が入射する検出光学系と、
前記検出光学系を介して前記試料からの蛍光を検出する複数の検出部を有する検出装置と、
前記複数の検出部のうち少なくとも2つの検出部での検出結果を用いて画像を生成する画像処理部とを備える顕微鏡。 - 観察領域に基づいて前記調整部の設定を行う制御部を備える請求項1に記載の顕微鏡。
- 前記制御部は、前記走査部による走査位置に関連して生じる前記入射位置のズレ量に基づいて前記設定部の設定を行う請求項2に記載の顕微鏡。
- 前記制御部は、前記走査部による走査位置と前記調整部の設定量とが関連づけられた情報に基づき前記調整部の設定を行う請求項2または3に記載の顕微鏡。
- 観察領域を指定するための入力部を備える請求項1~4のいずれか一項に記載の顕微鏡。
- 前記走査部は、複数の観察領域に対して、観察領域ごとに決められた前記調整部の設定量に基づいて前記調整部の設定を行う請求項1~5のいずれか一項に記載の顕微鏡。
- 前記制御部は、前記観察領域を変更する場合に、前記調整量の設定を行う請求項6に記載の顕微鏡。
- 前記干渉縞は、前記干渉縞の周期方向において3以上の明部を有する請求項1~7のいずれか一項に記載の顕微鏡。
- 前記光束分割部は、複数の開口部を有する開口部材を有し、
前記開口部材は、前記対物レンズの瞳面、前記瞳面の近傍、瞳共役面、または前記瞳共役面の近傍に配置される請求項1~8のいずれか一項に記載の顕微鏡。 - 前記調整部は、角度変更可能な平行平板ガラスを有して構成される調整用素子を備え、
前記調整用素子は、前記対物レンズの瞳共役面、または前記瞳共役面の近傍に配置される請求項1~9のいずれか一項に記載の顕微鏡。 - 前記光束分割部は、回折格子を有し、
前記回折格子は、前記試料と共役な位置、または前記試料と共役な位置の近傍に配置される請求項1~10のいずれか一項に記載の顕微鏡。 - 前記光束分割部および前記調整部は、角度変更可能な複数のマイクロミラーを備えたDMDを有して構成される請求項1~9のいずれか一項に記載の顕微鏡。
- 前記検出装置は、前記複数の検出部が1方向に配列されたラインセンサを有する請求項1~12のいずれか一項に記載の顕微鏡。
- 前記検出装置は、前記複数の検出部が2方向に配列されたイメージセンサを有する請求項1~12のいずれか一項に記載の顕微鏡。
- 前記試料に対する前記干渉縞の方向を変更する縞方向変更部を備える請求項1~14のいずれか一項に記載の顕微鏡。
- 前記試料の像を前記複数の検出部に対して、前記検出光学系の光軸の周りで回転させる像回転部を備える請求項1~15のいずれか一項に記載の顕微鏡。
- 前記像回転部は、前記検出光学系のうち前記照明光学系と重複しない光路に配置される請求項15に記載の顕微鏡。
- 前記試料に対する前記干渉縞の方向を変更する縞方向変更部と、
前記試料の像を前記複数の検出部に対して、前記検出光学系の光軸の周りで回転させる像回転部とを備え、
前記縞方向変更部と前記像回転部とが同一の部材により構成される請求項1~14のいずれか一項に記載の顕微鏡。 - 前記試料に入射する際の前記光の偏光状態を調整する偏光調整部を備える請求項1~18のいずれか一項に記載の顕微鏡。
- 前記複数の検出部の位置は、前記検出光学系の倍率および前記干渉縞の周期に基づいて設定される請求項1~19のいずれか一項に記載の顕微鏡。
- 前記画像処理部は、前記検出光学系の倍率および前記干渉縞の周期に基づいて前記複数の検出部のうちから選択される、前記少なくとも2つの検出部での検出結果を用いて画像を生成する請求項1~20のいずれか一項に記載の顕微鏡。
- 前記画像処理部は、前記複数の検出部のうち少なくとも2つの検出部から得られるデータを、当該少なくとも2つの検出部の位置に基づいて補正する請求項1~21のいずれか一項に記載の顕微鏡。
- 前記画像処理部は、前記複数の検出部のうち少なくとも2つの検出部から得られるデータを、周波数空間上のデータへ変換する請求項1~19のいずれか一項に記載の顕微鏡。
- 前記画像処理部は、前記複数の検出部のうち少なくとも2つの検出部から得られるデータを、フーリエ変換によって前記周波数空間上のデータへ変換する請求項23に記載の顕微鏡。
- 前記画像処理部は、前記周波数空間上のデータに対してフィルタリングを行って、前記画像を生成する請求項23または24に記載の顕微鏡。
- 前記画像処理部は、前記周波数空間上のデータを前記周波数空間の複数の領域に分離することにより複数の成分に分離して、前記画像を生成する請求項23~25のいずれか一項に記載の顕微鏡。
- 前記画像処理部は、前記干渉縞の光強度分布に基づいて、前記周波数空間上のデータを前記周波数空間の複数の領域に分離する請求項26に記載の顕微鏡。
- 前記複数の領域は、互いに重複しないように設定される請求項26または27に記載の顕微鏡。
- 前記照明光学系は、前記干渉縞の位相を変更する位相変調素子を含み、
前記画像処理部は、前記干渉縞が複数の位相状態の各状態にあるときに前記検出部により検出された検出結果の前記周波数空間上のデータを複数の成分に分離して、前記画像を生成する請求項23~25のいずれか一項に記載の顕微鏡。 - 前記画像処理部は、前記複数の成分に分離することにより得られるデータの少なくとも一部の位相を変換して、前記画像を生成する請求項26~29のいずれか一項に記載の顕微鏡。
- 前記画像処理部は、前記複数の検出部のうち少なくとも2つの検出部の位置および前記干渉縞の光強度分布に基づいて、前記位相を変換する量を決定する請求項30に記載の顕微鏡。
- 前記画像処理部は、前記位相を変換したデータを検出部の位置に基づいて補正して前記画像を生成する請求項30または31に記載の顕微鏡。
- 前記画像処理部は、前記複数の検出部のうち少なくとも2つの検出部から得られるデータに対してデコンボリューションを実行して、前記画像を生成する請求項23~29のいずれか一項に記載の顕微鏡。
- 前記画像処理部は、前記複数の検出部のうち少なくとも2つの検出部から得られるデータに対して、当該少なくとも2つの検出部の位置および前記干渉縞の光強度分布に基づいて前記デコンボリューションを実行する請求項33に記載の顕微鏡。
- 前記走査部は、第1の方向の干渉縞で前記複数の観察領域を走査した後、第2の方向の干渉縞で前記複数の観察領域を走査する請求項6~34のいずれか一項に記載の顕微鏡。
- 前記制御部は、前記第1の方向の干渉縞に関する情報を用いて生成された各観察領域の前記画像を表示部に表示させ、前記第1の方向の干渉縞および前記第2の方向の干渉縞に関する情報を用いて生成された各観察領域の前記画像を表示部に表示させる請求項35に記載の顕微鏡。
- 試料に含まれる蛍光物質を励起するための光を複数の光束に分割することと、
前記複数の光束の少なくとも一部が干渉して形成される干渉縞を前記試料の複数の方向において走査することと、
前記複数の光束の少なくとも一部が対物レンズの瞳面に入射する入射位置を調整することと、
励起によって生じた前記試料からの蛍光を、複数の検出部を用いて検出することと、
前記複数の検出部のうち少なくとも2つの検出部での検出結果を用いて画像を生成することとを含む観察方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2019/008976 WO2020179040A1 (ja) | 2019-03-06 | 2019-03-06 | 顕微鏡および観察方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2019/008976 WO2020179040A1 (ja) | 2019-03-06 | 2019-03-06 | 顕微鏡および観察方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2020179040A1 true WO2020179040A1 (ja) | 2020-09-10 |
Family
ID=72337748
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2019/008976 Ceased WO2020179040A1 (ja) | 2019-03-06 | 2019-03-06 | 顕微鏡および観察方法 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2020179040A1 (ja) |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010088418A1 (en) * | 2009-01-29 | 2010-08-05 | The Regents Of The University Of California | High resolution structured illumination microscopy |
| JP2010271522A (ja) * | 2009-05-21 | 2010-12-02 | Nikon Corp | 非線形光学顕微鏡 |
| JP2012108372A (ja) * | 2010-11-18 | 2012-06-07 | Olympus Corp | 顕微鏡装置 |
| JP2015055706A (ja) * | 2013-09-11 | 2015-03-23 | 株式会社ニコン | 構造化照明装置及び構造化照明顕微鏡装置 |
| WO2015052936A1 (ja) * | 2013-10-09 | 2015-04-16 | 株式会社ニコン | 構造化照明顕微鏡装置 |
| WO2015118634A1 (ja) * | 2014-02-05 | 2015-08-13 | 株式会社ニコン | 照明装置、観察装置及び観察方法 |
| JP2016105126A (ja) * | 2014-12-01 | 2016-06-09 | 横河電機株式会社 | 顕微鏡装置 |
| WO2017094184A1 (ja) * | 2015-12-04 | 2017-06-08 | オリンパス株式会社 | 走査型顕微鏡および顕微鏡画像取得方法 |
| WO2017199407A1 (ja) * | 2016-05-19 | 2017-11-23 | 株式会社ニコン | 顕微鏡 |
-
2019
- 2019-03-06 WO PCT/JP2019/008976 patent/WO2020179040A1/ja not_active Ceased
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010088418A1 (en) * | 2009-01-29 | 2010-08-05 | The Regents Of The University Of California | High resolution structured illumination microscopy |
| JP2010271522A (ja) * | 2009-05-21 | 2010-12-02 | Nikon Corp | 非線形光学顕微鏡 |
| JP2012108372A (ja) * | 2010-11-18 | 2012-06-07 | Olympus Corp | 顕微鏡装置 |
| JP2015055706A (ja) * | 2013-09-11 | 2015-03-23 | 株式会社ニコン | 構造化照明装置及び構造化照明顕微鏡装置 |
| WO2015052936A1 (ja) * | 2013-10-09 | 2015-04-16 | 株式会社ニコン | 構造化照明顕微鏡装置 |
| WO2015118634A1 (ja) * | 2014-02-05 | 2015-08-13 | 株式会社ニコン | 照明装置、観察装置及び観察方法 |
| JP2016105126A (ja) * | 2014-12-01 | 2016-06-09 | 横河電機株式会社 | 顕微鏡装置 |
| WO2017094184A1 (ja) * | 2015-12-04 | 2017-06-08 | オリンパス株式会社 | 走査型顕微鏡および顕微鏡画像取得方法 |
| WO2017199407A1 (ja) * | 2016-05-19 | 2017-11-23 | 株式会社ニコン | 顕微鏡 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5136422B2 (ja) | 顕微鏡装置及び画像処理方法 | |
| JP7063337B2 (ja) | 顕微鏡および観察方法 | |
| JP4835750B2 (ja) | 顕微鏡装置 | |
| JP5888416B2 (ja) | 構造化照明顕微鏡装置 | |
| JP4831072B2 (ja) | 顕微鏡装置 | |
| US8019136B2 (en) | Optical sectioning microscopy | |
| US7977625B2 (en) | Method and assembly for optical reproduction with depth discrimination | |
| US9588045B2 (en) | Method for generating a microscope image and microscope | |
| US12196938B2 (en) | Microscope | |
| EP2681606B1 (en) | Variable orientation illumination-pattern rotator | |
| US20150124073A1 (en) | Illumination optical system and microscope | |
| US20120019647A1 (en) | Method and configuration for the optical detection of an illuminated specimen | |
| JP2007199397A (ja) | 顕微鏡装置 | |
| JP4844137B2 (ja) | 顕微鏡装置 | |
| JP2007279287A (ja) | 構造化照明光学系、及びそれを備えた構造化照明顕微鏡 | |
| WO2020179040A1 (ja) | 顕微鏡および観察方法 | |
| JP6413364B2 (ja) | 照明光学系及び顕微鏡装置 | |
| WO2020179032A1 (ja) | 顕微鏡および観察方法 | |
| WO2020179039A1 (ja) | 顕微鏡および観察方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19918251 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 19918251 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |