[go: up one dir, main page]

WO2024104806A1 - Method for determining image errors of high-resolution imaging systems by wave front measurement - Google Patents

Method for determining image errors of high-resolution imaging systems by wave front measurement Download PDF

Info

Publication number
WO2024104806A1
WO2024104806A1 PCT/EP2023/080813 EP2023080813W WO2024104806A1 WO 2024104806 A1 WO2024104806 A1 WO 2024104806A1 EP 2023080813 W EP2023080813 W EP 2023080813W WO 2024104806 A1 WO2024104806 A1 WO 2024104806A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging system
illumination
image
design matrix
imaging
Prior art date
Application number
PCT/EP2023/080813
Other languages
German (de)
French (fr)
Inventor
Katie Louise Capelli
Rainer Hoch
Martin Schumann
Original Assignee
Carl Zeiss Smt Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Smt Gmbh filed Critical Carl Zeiss Smt Gmbh
Publication of WO2024104806A1 publication Critical patent/WO2024104806A1/en

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70591Testing optical components
    • G03F7/706Aberration measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/005Testing of reflective surfaces, e.g. mirrors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/30Testing of optical devices, constituted by fibre optics or optical waveguides
    • G01M11/33Testing of optical devices, constituted by fibre optics or optical waveguides with a light emitter being disposed at one fibre or waveguide end-face, and a light receiver at the other end-face
    • G01M11/331Testing of optical devices, constituted by fibre optics or optical waveguides with a light emitter being disposed at one fibre or waveguide end-face, and a light receiver at the other end-face by using interferometer

Definitions

  • the imaging system is also referred to as a projection system, which together with an illumination system that illuminates the mask forms a projection exposure system, such as is used in particular for microlithography in the manufacture of semiconductor components.
  • a projection system which together with an illumination system that illuminates the mask forms a projection exposure system, such as is used in particular for microlithography in the manufacture of semiconductor components.
  • Imaging quality of an imaging system can be determined or possible image errors of the imaging system can be detected in a spatially resolved manner. Using this information, individual optical elements of the imaging system can then be identified and reworked in such a way that after reinsertion into the imaging system, the image fields have been reduced in such a way that the imaging quality of the imaging system can be increased to a desired level.
  • One method for determining possible image errors is the wavefront detection of illumination beams diffracted multiple times by gratings.
  • illumination rays from known positions in the object-side pupil plane of the imaging system are transmitted to a first diffraction grating arranged in the object-side field plane by the imaging system to a second diffraction grating arranged in the image-side field plane, so that an interferometric image of the illumination rays is produced in the image-side pupil plane, which can be detected with a suitable sensor.
  • the object of the present invention is therefore to create a method and a computer program product for determining image errors in high-resolution imaging systems in which the possible disadvantages from the state of the art do not occur or only occur to a reduced extent.
  • the invention is achieved by a method according to the main claim and a computer program product according to the independent claim.
  • Advantageous further developments are the subject of the dependent claims.
  • the invention relates to a method for determining image errors of high-resolution imaging systems by wavefront measurement, wherein an illumination source is arranged in an object-side pupil plane of the imaging system, a first diffraction grating is arranged in an object-side field plane lying between the illumination source and the imaging system, an interferogram sensor is arranged in an image-side pupil plane and a second diffraction grating is arranged in an image-side field plane lying between the imaging system and the interferogram sensor, wherein one of the two diffraction gratings is arranged in the Field plane in which it is arranged, comprising the steps of: - illuminating the first diffraction grating with illumination beams generated by the illumination source starting from known positions in the object-side pupil plane; - capturing the image of the illumination beam resulting from the diffraction gratings and the imaging system on the interferogram sensor, also comprising second and higher order diffractions; - repeating the above steps with
  • the invention relates to a computer program product or a set of computer program products comprising program parts which, when loaded into a computer or into interconnected computers for calculation, can be used to calculate a design matrix representing the ideal optical properties of the imaging system, wherein the design matrix comprises at least Zero-, first- and second-order diffractions, and are designed to determine values reflecting the image errors of the imaging system on the basis of the images captured by the interferogram sensor and the design matrix.
  • the design matrix comprises at least Zero-, first- and second-order diffractions, and are designed to determine values reflecting the image errors of the imaging system on the basis of the images captured by the interferogram sensor and the design matrix.
  • the illumination can be arranged in an object-side pupil plane, for example, while an object-side field plane can be the reticle plane, for example.
  • the “image-side pupil plane” and “image-side field plane” refer to planes that lie on the side of the imaging system on which the image of an object is usually expected.
  • a camera can be arranged in an image-side pupil plane.
  • An image-side field plane can be the wafer plane, for example.
  • the invention is based on the knowledge that the assumption widespread in the prior art that it is sufficient to consider only the zero- and first-order diffraction in order to determine the imaging quality of an imaging system by wavefront measurement - which is why the known algorithms for determining a design matrix of an imaging system are ultimately limited to these orders - does not result in sufficient accuracy for all applications.
  • post-processing measures determined on the basis of such a design matrix can also result in sufficient imaging quality of the object being examined. imaging system cannot be guaranteed for all applications.
  • the core of the invention is to map the imaging properties of an imaging system as precisely as possible in a design matrix, so that a comparison with recorded interferometric images of exposure rays yields more precise information on possible imaging errors, from which suitable post-processing measures for increasing the imaging quality can be derived more reliably.
  • the actual determination of interferometric images is carried out in a similar way to the known prior art: starting from an illumination source arranged in an object-side pupil plane of the imaging system, defined illumination rays - i.e. those with a known position on and orientation relative to the pupil plane - are emitted into the imaging system.
  • the illumination beam has the same or a comparable wavelength as the illumination provided for the later use of the imaging system.
  • the imaging system is a projection exposure system for microlithography
  • the illumination beam preferably has a wavelength comparable to that provided for exposure during microlithography. In an imaging system provided for EUV microlithography, the wavelength for the illumination beam is therefore, for example, in the range from 5 nm to 30 nm.
  • the illumination source can be arranged directly in the pupil plane; however, it is also possible for the element actually generating the light to be arranged outside the said pupil plane, with optical elements directing the light generated away from the pupil plane into the Pupil plane so that it can be assumed for further consideration that the illumination rays emanating from the pupil plane were generated by an illumination source arranged on the pupil plane. In this case, one can also speak of a "virtual illumination source" on the pupil plane.
  • the illumination beam Before the illumination beam enters the imaging system, it has to pass through a first diffraction grating arranged in the appropriate object-side field plane of the imaging system.
  • the first diffraction grating can be designed in accordance with the state of the art and in particular have a pattern that has been proven there.
  • the incident illumination beam is "fanned out" into the various diffractions of zero, first, second and higher orders, whereby the individual diffractions can be viewed as separate beams according to their order starting from the first diffraction grating, which at least for the most part enter the imaging system and are imaged by it.
  • the imaging system is a projection system for microlithography
  • the first diffraction grating can be arranged, for example, in the plane in which the mask to be projected (also called a reticle) is usually arranged.
  • the first diffraction grating can also be referred to as a reticle diffraction grating.
  • a second diffraction grating is arranged in an image-side field plane of the imaging system, which is also designed as known from the prior art. With the help of this second diffraction grating, the beam paths of the individual diffractions transmitted through the imaging system are diffracted again.
  • At least one of the two diffraction gratings can be moved in the field plane in which it is arranged in order to generate different diffraction patterns depending on the position.
  • the imaging system is a projection system for microlithography
  • the second diffraction grating can be arranged, for example, in the plane in which the semiconductor wafer is usually arranged, onto which the image of the mask or reticle is to be projected.
  • the second diffraction grating is also called a sensor diffraction grating in the context of the present invention.
  • a single pupil plane can be assumed in a model consideration, in which, for example, the numerical aperture of the imaging system can also be defined.
  • parameters of a Zernike polynomial can be determined using appropriate fitting methods for the recorded wavefront images, with any deviation from ideal values (such as zero) providing an indication of an imaging error.
  • the parameters determined in this way can be used together with the design matrix and knowledge of the actual structure of the imaging system to identify post-processing measures for the imaging system or individual elements thereof with which the imaging errors can be reduced.
  • Methods for determining necessary or advantageous post-processing measures for an imaging system e.g. the projection system of a microlithography system, based on a design matrix are known in the state of the art.
  • a representation of the beam paths at the pupil planes in Cartesian coordinates scaled to the angle of refraction is used, ie an integer coordinate step in the Cartesian system of a pupil plane corresponds to a step by the angle of diffraction between two adjacent diffractions and the zero point in the Cartesian coordinate system coincides with a diffraction beam.
  • the coordinates for the object-side pupil plane in which the illumination source is arranged and the objective pupil plane describing the imaging system are scaled to the angle of refraction of the first diffraction grating, while the coordinates for the image-side pupil plane in which the interferogram sensor is arranged are scaled based on the angle of refraction of the second diffraction grating.
  • the angle of refraction of the second diffraction grating is generally a multiple of the angle of refraction of the first diffraction grating corresponding to the magnification factor of the imaging system.
  • the scaled coordinates are defined as follows: Object-side pupil plane: Objective pupil plane: ( ⁇ ⁇ , ⁇ ⁇ ) Image-side pupil plane: ( ⁇ ⁇ , ⁇ ⁇ ) [0034]
  • the design matrix which initially reflects the wave fronts in the objective pupil plane from the images recorded by the interferogram sensor, which can then in turn be used to identify imaging errors of the imaging system or individual components therein and appropriate post-processing measures to reduce the imaging errors.
  • the design matrix can be formulated as with where these derivatives are linearized around the point at which the Zernike factors ⁇ ⁇ .. ⁇ ⁇ are equal to zero.
  • ⁇ ⁇ ( ⁇ ⁇ , ⁇ ⁇ ) is the n-th Zernike polynomial evaluated for the point ⁇ ⁇ ⁇ , ⁇ ⁇ ⁇ and the phase at the point in question - after determining the Zernike parameters - results from the sum of the Zernike polynomials.
  • the complex conjugable functions ⁇ ⁇ ( ⁇ , ⁇ ) and ⁇ ⁇ ( ⁇ , ⁇ ) are the complex diffraction spectra of the first or reticle diffraction grating and the second or sensor diffraction grating for the respective diffraction orders in the x and y directions, whereby the two functions can in turn be set up separately for the x and y directions (cf. indices when used in the formulas above).
  • denotes the numerical aperture of the imaging system.
  • ⁇ ⁇ denotes the aperture of the illumination.
  • ⁇ and ⁇ ⁇ represent the diffraction order at the – depending on the index – first or reticle diffraction grating or second or sensor diffraction grating in the x- or y-direction.
  • a vector of the Zernike parameters can be determined based on measured interferogram images with suitable x and y phase steps for each measuring point of the interferogram sensor and - for example - the method of (possibly weighted) least squares: or.
  • ⁇ ⁇ is the phase resulting from the interferogram at the respective point in the object-side pupil plane.
  • the interferogram sensor can be, for example, a two-dimensional CCD array sensor or an active pixel sensor.
  • Figure 1 a schematic representation of a projection exposure system for microlithography with a projection system as the imaging system
  • Figure 2 model representation of the imaging system from Figure 1 for determining image errors, as the basis of the invention
  • Figure 3 schematic representation of the improvement in the accuracy of a design matrix determined according to the invention compared to the prior art.
  • a projection exposure system 1 for microlithography is shown in a schematic meridional section.
  • the projection exposure system 1 comprises an illumination system 10 and a projection system 20.
  • the illumination system 10 comprises an exposure radiation source 13 which, in the exemplary embodiment shown, emits illumination radiation at least comprising useful light in the EUV range, i.e. in particular with a wavelength between 5 nm and 30 nm.
  • the exposure radiation source 13 can be a plasma source, for example an LPP source (laser produced plasma) or a DPP source (gas discharged produced plasma). It can also be a synchrotron-based radiation source.
  • the exposure radiation source 13 can also be a free-electron laser (FEL).
  • FEL free-electron laser
  • the collector 14 can be a collector with one or more ellipsoidal and/or hyperboloidal reflection surfaces.
  • the at least one reflection surface of the collector 14 can be exposed to the illumination radiation in grazing incidence (GI), i.e. with angles of incidence greater than 45°, or in normal incidence (NI), i.e. with angles of incidence less than 45°.
  • GI grazing incidence
  • NI normal incidence
  • the collector 14 can be used on the one hand to optimize its reflectivity for the useful radiation and on the other hand, it can be structured and/or coated to suppress stray light.
  • the illumination radiation propagates through an intermediate focus in an intermediate focal plane 15.
  • the intermediate focal plane 15 can in principle be used for the - also structural - separation of the illumination system 10 into a radiation source module, having the exposure radiation source 13 and the collector 14, and the illumination optics 16 described below. With a corresponding separation, the radiation source module and illumination optics 16 then together form a modularly constructed illumination system 10.
  • the illumination optics 16 comprise a deflection mirror 17.
  • the deflection mirror 17 can be a flat deflection mirror or alternatively a mirror with an effect that influences the beam beyond the pure deflection effect.
  • the deflection mirror 15 can be designed as a spectral filter that separates a useful light wavelength of the illumination radiation from false light of a different wavelength.
  • the deflection mirror 17 deflects the radiation from the exposure radiation source 13 onto a first facet mirror 18. If the first facet mirror 18 is arranged - as in the present case - in a plane of the illumination optics 16 that is optically conjugated to the reticle plane 12 as a field plane, it is also referred to as a field facet mirror. [0061]
  • the first facet mirror 18 comprises a plurality of micromirrors (not shown in detail) that can be individually pivoted about two axes running perpendicular to one another. for the controllable formation of facets.
  • the first facet mirror 18 is therefore a microelectromechanical system (MEMS system), as is also described, for example, in DE 102008 009 600 A1.
  • MEMS system microelectromechanical system
  • a second facet mirror 19 is arranged downstream of the first facet mirror 18, so that a double-faceted system is produced, the basic principle of which is also referred to as a honeycomb condenser (fly's eye integrator). If the second facet mirror 19 - as in the illustrated embodiment - is arranged in a pupil plane of the illumination optics 16, it is also referred to as a pupil facet mirror.
  • the second facet mirror 19 can also be arranged at a distance from a pupil plane of the illumination optics 4, whereby the combination of the first and second facet mirrors 18, 19 results in a specular reflector, as described, for example, in US 2006/0132747 A1, EP 1614 008 B1 and US 6,573,978.
  • the second facet mirror 19 also comprises a plurality of micromirrors that can be individually pivoted about two axes running perpendicular to one another. For further explanation, reference is made to DE 102008 009 600 A1.
  • the individual facets of the first facet mirror 18 are imaged in the object field 11, whereby this is usually only an approximate image.
  • the second facet mirror 19 is the last bundle-forming or actually the last mirror for the illumination radiation in the beam path in front of the object field 11.
  • One of the facets of the second facet mirror 19 is exactly one of the facets of the first facet mirror 18 to form an illumination channel for illuminating the object field 11. This can result in particular in illumination according to the Köhler principle.
  • the facets of the first facet mirror 18 are each imaged by an associated facet of the second facet mirror 19, superimposed on one another, to illuminate the object field 5.
  • the illumination of the object field 11 is as homogeneous as possible. It preferably has a uniformity error of less than 2%. The field uniformity can be achieved by superimposing different illumination channels.
  • the intensity distribution in the entrance pupil of the projection system 20 described below can also be set.
  • This intensity distribution is also referred to as the illumination setting.
  • the second facet mirror 19 is not arranged exactly in a plane that is optically conjugated to a pupil plane of the projection system 20.
  • the pupil facet mirror 19 can be arranged tilted relative to a pupil plane of the projection system 20, as is described, for example, in DE 102017 220 586 A1.
  • the second facet mirror 19 is arranged in a surface that is conjugated to the entrance pupil of the projection system 20. Deflecting mirror 17 and the two facet mirrors 18, 19 are arranged tilted both relative to the object plane 12 and relative to each other.
  • a transmission optics comprising one or more mirrors can be provided in the beam path between the second facet mirror 19 and the object field 11.
  • the transmission optics can in particular comprise one or two mirrors for vertical incidence (NI mirrors, normal incidence mirrors) and/or one or two mirrors for grazing incidence (GI mirrors, gracing incidence mirrors).
  • the projection system 20 comprises a plurality of mirrors 25, M i , which are numbered according to their arrangement in the beam path of the projection exposure system 1.
  • the projection system 20 comprises six mirrors 25, M 1 to M 6 . Alternatives with four, eight, ten, twelve or another number of mirrors 25, M i are also possible.
  • the penultimate mirror 25, M 5 and the last mirror 25, M 6 each have a passage opening for the illumination radiation, which means that the projection system 20 shown is a double-obscured optics.
  • the projection system 20 has a image-side numerical aperture, which is greater than 0.3 and which can also be greater than 0.6 and which can be, for example, 0.7 or 0.75.
  • the reflection surfaces of the mirrors 25, M i can be designed as free-form surfaces without a rotational symmetry axis.
  • the reflection surfaces of the mirrors 25, M i can also be designed as aspherical surfaces with exactly one rotational symmetry axis of the reflection surface shape.
  • the mirrors 25, M i can, just like the mirrors of the illumination optics 16, have highly reflective coatings for the illumination radiation. These coatings can be designed as multilayer coatings, in particular with alternating layers of molybdenum and silicon.
  • the projection system 20 has a large object-image offset in the y-direction between a y-coordinate of a center of the object field 11 and a y-coordinate of the center of the image field 21. This object-image offset in the y-direction can be approximately as large as a z-distance between the object plane 12 and the image plane 22.
  • the projection system 20 can in particular be designed anamorphically, ie it has in particular different imaging scales ⁇ x , ⁇ y in the x and y directions.
  • a magnification ratio ⁇ of 0.25 corresponds to a reduction in the ratio 4:1, while a magnification ratio ⁇ of 0.125 results in a reduction in the ratio 8:1.
  • a positive sign for the magnification ratio ⁇ means an image without image inversion, a negative sign means an image with image inversion.
  • Other image scales are also possible.
  • Image scales ⁇ x , ⁇ y with the same sign and absolutely the same in the x and y directions are also possible.
  • the number of intermediate image planes in the x and y directions in the beam path between the object field 11 and the image field 21 can be the same or different, depending on the design of the projection system 20. Examples of projection systems 20 with different numbers of such intermediate images in the x and y directions are known from US 2018/0074303 A1.
  • the projection system 20 can in particular have a homocentric entrance pupil. This can be accessible. But it can also be inaccessible.
  • a reticle 30 also called a mask
  • a reticle 30 also called a mask
  • the reticle 30 is held by a reticle holder 31.
  • the reticle holder 31 can be displaced in particular in a scanning direction via a reticle displacement drive 32.
  • the scanning direction runs in the x-direction.
  • a structure on the reticle 30 is imaged onto a light-sensitive layer of a wafer 35 arranged in the region of the image field 21 in the image plane 22.
  • the wafer 35 is held by a wafer holder 36.
  • the wafer holder 36 can be displaced in particular along the x-direction via a wafer displacement drive 37.
  • the displacement of the reticle 30 on the one hand via the reticle displacement drive 32 and the wafer 35 on the other hand via the wafer displacement drive 37 can be synchronized with each other.
  • the projection exposure system 1 shown in Figure 1 according to the above description essentially represents known prior art.
  • the projection system 20, which represents an extremely high-resolution imaging system 20 has no or only minor image errors.
  • the imaging quality of the imaging system 20 by means of a wavefront measurement and, if necessary, to carry out post-processing on the imaging system 20 or its various optical elements, namely the mirrors M 1 to M 6 , until the desired imaging quality is achieved.
  • the invention provides that second order diffraction and/or further higher orders are also taken into account.
  • a determination of interferometric images is carried out which is basically known from the prior art, but in which second or higher order diffractions are also imaged.
  • the determination of interferometric images takes place starting from an illumination source arranged in an object-side pupil plane 100 of the imaging system 20, with the defined illumination beam 101 - ie, the position on and orientation relative to the pupil plane 100 is known - is emitted into the imaging system 20.
  • the illumination beam 101 is a beam of the same wavelength as that used in the projection exposure system 1 according to Figure 1.
  • the exposure system 10 of the projection exposure system 1 can even be used as a source for the illumination beam 101 and form a virtual illumination source: if the facet mirror 19 (see Figure 1) is arranged in the pupil plane 101 of the imaging system 20, suitable illumination beams 101 can be introduced into the imaging system by appropriately controlling the facet mirrors 18, 19 of the illumination system 10, which can be viewed as emanating from the pupil plane 101, even if the actual exposure radiation source 13 is arranged at a distance from it. Due to the identity of the exposure radiation source 13, an illumination beam 101 generated in this way then has the same wavelength that is later used when exposing semiconductor wafers and thus when the imaging system is actually used for its intended purpose.
  • the illumination beam 101 Before the illumination beam 101 actually enters the imaging system 20, it has to pass through a first diffraction grating 103 arranged in the appropriate object-side field plane 102 of the imaging system.
  • the incident illumination beam 101 is "fanned out" into the various diffractions of zeroth, first, second and higher orders, whereby the individual diffractions can be viewed as separate beams 104 according to their order starting from the first diffraction grating 103, which at least for the most part enter the imaging system 20 and are imaged by it.
  • the diffraction grating 103 can in particular be a reflective diffraction grating, as is known from the prior art, which can be arranged, for example, in the reticle plane 12 of the projection exposure system 1. It is essential that the first diffraction grating 103 is arranged in an image-side field plane of the imaging system 20.
  • a second diffraction grating 106 is arranged in an image-side field plane 105 of the imaging system 20, with which the beam paths of the individual diffractions 104 transmitted by the imaging system 20 are diffracted again. The second diffraction grating 106 can be moved in the field plane 105.
  • the second diffraction grating 105 can be arranged in particular in the image plane 22, wherein the wafer holder 36 with the wafer displacement drive 37 can be used to move the second diffraction grating 106.
  • the mathematical model according to Figure 2a assumes a single pupil plane 107, in which the numerical aperture 108 of the imaging system 20 can also be defined, regardless of its design and, for example, the actual number of intermediate pupil or field planes.
  • the interferogram sensor 110 is a two-dimensional CCD array sensor.
  • various images of the wave fronts of defined illumination beams 101 can be determined.
  • a design matrix can be determined algorithmically - as explained in detail in the general part of the description. In order to avoid detailed repetitions in this regard, reference is made to the part of the description mentioned for an explanation of the creation of the design matrix.
  • the design matrix can then be used to determine image errors of the imaging system together with the images captured by the interferogram sensor. Individual optical elements of the imaging system 20 can then be specifically post-processed in order to further increase the image quality.
  • Figure 3 shows an example of the improvements in the accuracy of the design matrix that can be achieved by the method according to the invention compared to the prior art: the Zernike coefficients determined by the method according to the invention (filled columns) reflect the imaging errors much more accurately than the Zernike coefficients determined according to the prior art (line). Accordingly, necessary post-processing can also be defined more precisely, which overall results in a higher imaging quality.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)

Abstract

The invention relates to a method for determining image errors of high-resolution imaging systems by wave front measurement and to a corresponding computer program product. According to the invention, in order to determine image errors of an imaging system, a design matrix is used that takes into consideration diffractions of the second order and/or higher orders in addition to diffractions of the zero and first order. Imaging errors can then be determined more accurately on the basis of imaging system images recorded by an interferogram sensor of known, twice-diffracted illumination beams.

Description

07.11.2023/BR Verfahren zur Ermittlung von Bildfehlern hochauflö- sender Abbildungssysteme per Wellenfrontmessung [0001] Die vorliegende Anmeldung beansprucht die Priorität der Deutschen Patentanmeldung 102022 212 136.8, angemeldet am 15. November 2022. Der Inhalt dieser Deutschen Patentanmeldung wird durch Bezugnahme („incorporation by reference“) mit in den vorliegenden Anmeldungstext aufgenommen. [0002] Die Erfindung betrifft ein Verfahren zur Ermittlung von Bildfehlern hochauflösender Abbildungssysteme per Wellenfront- messung sowie ein entsprechendes Computerprogrammprodukt. [0003] Bei Anwendungen, wie der Mikrolithografie, werden be- sonders hochauflösende Abbildungssysteme verwendet, um die Struktur einer Maske (auch als Retikel bezeichnet) verklei- nernd auf ein mit einer lichtempfindlichen Schicht beschichte- tes Substrat zu übertragen. Das Abbildungssystem wird dabei auch als Projektionssystem bezeichnet, welches zusammen mit einem Beleuchtungssystem, welches die Maske beleuchtet, eine Projektionsbelichtungsanlage bildet, wie sie insbesondere für die Mikrolithografie bei der Herstellung von Halbleiterbauele- menten verwendet wird. [0004] Damit die in der Regel bereits sehr feinen Strukturen einer Maske ordnungsgemäß durch das Abbildungssystem, ggf. verkleinernd, abgebildet werden, sind die an dem Abbildungs- system beteiligten optischen Elemente, wie Spiegel oder Lin- sen, hochgenau zu fertigen. Trotz der hochgenauen Fertigung der einzelnen optischen Elemente zeigt sich, dass es bei deren Zusammenspiel in einem Abbildungssystem dennoch zu kleinen, bspw. bei der Herstellung von Halbleitern aber äußerst rele- vanten Abweichung in der Abbildung kommt, die auch als Bild- fehler bezeichnet werden. [0005] Aus dem Stand der Technik sind Verfahren bekannt, mit denen die Abbildungsqualität eines Abbildungssystems ermittelt bzw. mögliche Bildfehler des Abbildungssystems ortsaufgelöst aufgedeckt werden können. Mithilfe dieser Informationen lassen sich dann einzelne optische Elemente des Abbildungssystems identifizieren und derart nachbearbeiten, dass nach dem Wie- dereinsetzen in das Abbildungssystem die Bildfelder derart re- duziert worden sind, dass die Abbildungsqualität des Abbil- dungssystems auf ein gewünschtes Maß gesteigert werden kann. [0006] Ein Verfahren zur Ermittlung von möglichen Bildfehlern ist die Wellenfronterfassung von mehrfach gitter-gebeugten Be- leuchtungsstrahlen. Dabei werden Beleuchtungsstrahlen von be- kannten Positionen in der objektseitigen Pupillenebene des Ab- bildungssystems auf ein in der objektseitigen Feldebene ange- ordneten erstes Beugungsgitter durch das Abbildungssystem auf ein in der bildseitigen Feldebene angeordnetes zweites Beu- gungsgitter übertragen, sodass sich in der bildseitigen Pupil- lenebene ein interferometrisches Abbild der Beleuchtungsstrah- len ergibt, welches mit einem geeigneten Sensor erfasst werden kann. [0007] Wird das Verfahren mit unterschiedlichen Positionen, von denen der Beleuchtungsstrahl ausgeht, und/oder beim plan- vollen Verschieben eines der beiden Beugungsgitters in der bildseitigen Feldebene wiederholt, ergeben sich eine Vielzahl von interferometrischen Bildern, aus denen dann die Abbil- dungsqualität des Abbildungssystems ortsgenau ermittelt werden kann, bspw. mittels einer Matrix, die auf die Messergebnisse in Form der interferometrischen Bilder gefittet wird. Es las- sen sich dann diejenigen optischen Elemente in dem Abbildungs- system identifizieren, bei denen durch geeignete Nachbearbei- tungsmaßnahmen Bildfehler des Abbildungssystems reduziert bzw. dessen Abbildungsqualität gesteigert werden kann. [0008] Auch wenn sich mit aus einer gemäß dem Stand der Tech- nik ermittelte Matrix ergebenden Maßnahmen zur Korrektur der optischen Elemente eines hochauflösenden Abbildungssystems re- gelmäßig gute und häufig auch ausreichende Ergebnisse bei der Steigerung der Abbildungsqualität erreichen lassen, ist insbe- sondere im Hinblick auf immer höhere Anforderungen an die Ab- bildungsqualität, wie sie sich bspw. bei der EUV-Technologie – also einer Belichtung mit einer Wellenlänge von 5 nm bis 30 nm - und den dabei möglichen besonders kleinen zu projizierenden Strukturen ergeben, nicht immer gesichert, dass mit der aus dem Stand der Technik bekannte Ermittlung von Bildfehlern auch bei solchen Systemen eine ausreichende Abbildungsqualität ge- währleisten kann. [0009] Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren und ein Computerprogrammprodukt zur Ermittlung von Bildfehlern hochauflösender Abbildungssysteme zu schaffen, bei dem die möglichen Nachteile aus dem Stand der Technik nicht oder nur in gemindertem Umfang auftreten. [0010] Gelöst wird die Erfindung durch ein Verfahren gemäß dem Hauptanspruch sowie ein Computerprogrammprodukt gemäß dem ne- bengeordneten Anspruch. Vorteilhafte Weiterbildungen sind Ge- genstand der abhängigen Ansprüche. [0011] Demnach betrifft die Erfindung ein Verfahren zur Er- mittlung von Bildfehlern hochauflösender Abbildungssysteme per Wellenfrontmessung, wobei in einer objektseitigen Pupillen- ebene des Abbildungssystems eine Beleuchtungsquelle, in einer objektseitigen, zwischen Beleuchtungsquelle und Abbildungssys- tem liegenden Feldebene ein erstes Beugungsgitter, in einer bildseitigen Pupillenebene ein Interferogramm-Sensor und in einer bildseitigen, zwischen Abbildungssystem und Interfero- gramm-Sensor liegenden Feldebene ein zweites Beugungsgitter angeordnet sind, wobei eines der beiden Beugungsgitter in der Feldebene, in der es angeordnet ist, verschiebbar ist, umfas- send die Schritte: – Beleuchten des ersten Beugungsgitters mit durch die Be- leuchtungsquelle erzeugten Beleuchtungsstrahlen ausge- hend von bekannten Positionen in der objektseitigen Pu- pillenebene; – Erfassen des sich durch die Beugungsgitter und das Ab- bildungssystem ergebenden Abbildes des Beleuchtungs- strahls auf dem Interferogramm-Sensor auch umfassend Beugungen 2ter und größerer Ordnungen; – Wiederholen der vorstehenden Schritte bei vorgegebener Verschiebung des verschiebbaren Beugungsgitters in der zugehörigen Feldebene; – Berechnen einer die idealen optischen Eigenschaften des Abbildungssystems wiedergebenden Designmatrix, wobei die Designmatrix wenigstens Beugungen nullter, erster, zweiter Ordnung umfasst; und – Ermitteln von Bildfehlern des Abbildungssystems auf Ba- sis der durch den Interferogramm-Sensor erfassten Ab- bildungen und einer die idealen optischen Eigenschaften des Abbildungssystems wiedergebenden Designmatrix, wo- bei die Designmatrix wenigstens Beugungen nullter, ers- ter, zweiter Ordnung umfasst. [0012] Weiterhin betrifft die Erfindung ein Computerprogramm- produkt oder einen Satz von Computerprogrammprodukten, umfas- send Programmteile, welche, wenn geladen in einen Computer oder in untereinander vernetze Computer zur Berechnung die idealen optischen Eigenschaften des Abbildungssystems wieder- gebende Designmatrix, wobei die Designmatrix wenigstens Beugungen nullter, erster, zweiter Ordnung umfasst, und zur Ermittlung von die Bildfehler des Abbildungssystems widerspie- gelnden Werten auf Basis der durch den Interferogramm-Sensor erfassten Abbildungen und der Designmatrix ausgebildet sind. [0013] Zunächst werden einige in Verbindung mit der Erfindung verwendete Begriffe erläutert: [0014] Mit „objektseitige Pupillenebene“ sowie „objektseitige Feldebene“ sind Ebenen bezeichnet, die auf der Seite des Ab- bildungssystems liegen, auf der für gewöhnlich das abzubil- dende Objekt zu erwarten ist. In einer objektseitigen Pupil- lenebene kann bspw. die Beleuchtung angeordnet sein, während es sich bei einer objektseitige Feldebene bspw. um die Reti- kelebene handeln kann. [0015] Mit „bildseitiger Pupillenebene“ sowie „bildseitiger Feldebene“ sind Ebenen bezeichnet, die auf der Seite des Ab- bildungssystems liegen, auf der für gewöhnlich die Abbildung eines Objektes zu erwarten ist. In einer bildseitigen Pupil- lenebene kann bspw. eine Kamera angeordnet sein. Bei einer bildseitigen Feldebene kann es sich bspw. um die Waferebene handeln. [0016] Der Erfindung liegt die Erkenntnis zugrunde, dass die im Stand der Technik verbreitete Annahme, für die Ermittlung der Abbildungsqualität eines Abbildungssystems per Wellen- frontmessung sei es ausreichend, lediglich die Beugung null- ter, und erster Ordnung zu betrachten – weshalb auch die be- kannten Algorithmen zur Ermittlung einer Designmatrix eines Abbildungssystems abschließend auf diese Ordnungen beschränkt sind – nicht für sämtliche Anwendungsfälle eine ausreichende Genauigkeit ergeben. In der Folge können auch auf Basis einer solchen Designmatrix ermittelte Nachbearbeitungsmaßnahmen eine im Ergebnis ausreichende Abbildungsqualität des untersuchten Abbildungssystems nicht für alle Anwendungsfälle sicherstel- len. [0017] Kern der Erfindung ist es, einen die Abbildungseigen- schaften eines Abbildungssystems möglichst präzise in einer Designmatrix abzubilden, sodass sich aus einem Abgleich mit erfassten interferometrischen Abbildern von Belichtungsstrah- len genauere Informationen zu möglichen Abbildungsfehlern er- geben, aus der sich zuverlässiger zur Erhöhung der Abbildungs- qualität geeignete Nachbearbeitungsmaßnahmen ableiten lassen. [0018] Dabei wurde erkannt, dass die im Stand der Technik als ausreichend angesehene und sich für eine Vielzahl der Anwen- dungen als ausreichend erwiesene Beschränkung auf Beugungen nullter und erster Ordnung letztendlich eine Begrenzung für die Realitätsnähe der Designmatrix und somit der möglichen Er- höhung der Abbildungsqualität durch geeignete Nachbearbei- tungsmaßnahmen auf Basis der Designmatrix bedeutet und aufzu- heben ist, damit auch Beugungen höherer Ordnung berücksichtigt werden können. Auch wenn diese Beugungen höherer Ordnung auf den ersten Blick ggf. nur einen kleinen Effekt auf die Abbil- dungsqualität und/oder die Genauigkeit der Designmatrix haben mögen, so hat sich gezeigt, dass die bei besonders hohen An- forderungen an die Abbildungsqualität nicht vernachlässigt werden können. Da die aus dem Stand der Technik bekannten Al- gorithmen zur Ermittlung einer Designmatrix auf Basis von in- terferometrischen Abbildern jedoch ausschließlich Beugungen nullter und erster Ordnung berücksichtigen können, ist Teil der vorliegenden Erfindung ein neuer Algorithmus, mit dem eine deutliche realitätsnähere Designmatrix erstellt werden kann, als im Stand der Technik möglich. [0019] Es hat sich auch gezeigt, dass – sofern gegenüber den aus dem Stand der Technik bekannten Verfahren keine höhere Ge- nauigkeit in der Designmatrix erforderlich ist – bei dem erfindungsgemäßen Verfahren eine gegenüber dem Stand der Tech- nik reduzierte Anzahl an interferometrischen Messungen ausrei- chend ist, um vergleichbar verlässliche Aussagen zu Abbil- dungsfehlern treffen zu können. In solchen Fällen kann das er- findungsgemäße Verfahren also schneller sein als das aus dem Stand der Technik Bekannte. [0020] Eine bevorzugte Möglichkeit der Ermittlung von Bildfeh- lern hochauflösender Abbildungssysteme per Wellenfrontmessung, bei der auch Beugungen zweiter und/oder höherer Ordnungen be- rücksichtigt werden können, wird nachfolgend erläutert. [0021] Die eigentliche Ermittlung interferometrischer Abbil- dungen erfolgt vergleichbar zum bekannten Stand der Technik: ausgehend von in einer objektseitigen Pupillenebene des Abbil- dungssystems angeordneten Beleuchtungsquelle werden definierte – d. h. in Position auf und Ausrichtung gegenüber der Pupil- lenebene bekannter – Beleuchtungsstrahlen in das Abbildungs- system ausgesandt. In der Regel ist es vorteilhaft, wenn der Beleuchtungsstrahl dieselbe oder eine vergleichbare Wellen- länge aufweist, wie die bei der späteren Verwendung des Abbil- dungssystems vorgesehen Beleuchtung. Handelt es sich bei dem Abbildungssystem also um ein Projektionsbelichtungssystem für die Mikrolithografie, weist der Beleuchtungsstrahl vorzugs- weise eine Wellenlänge vergleichbar zu derjenigen auf, die für die Belichtung im Zuge der Mikrolithografie vorgesehen ist. Bei einem für die EUV-Mikrolithografie vorgesehenen Abbil- dungssystem liegt die Wellenlänge für den Beleuchtungsstrahl also bspw. im Bereich von 5 nm bis 30 nm auf. [0022] Die Beleuchtungsquelle kann unmittelbar in der Pupil- lenebene angeordnet sein; es ist aber auch möglich, dass die eigentlich das Licht erzeugende Element außerhalb der genann- ten Pupillenebene angeordnet ist, wobei optische Elemente das abseits der Pupillenebene erzeugte Licht so in die Pupillenebene umlenken, dass für die weitere Betrachtung ange- nommen werden kann, die von der Pupillenebene ausgehenden Be- leuchtungsstrahlen wären durch eine auf der Pupillenebene an- geordnete Beleuchtungsquelle erzeugt. In diesem Fall kann auch von einer „virtuellen Beleuchtungsquelle“ auf der Pupillen- ebene gesprochen werden. [0023] Bevor der Beleuchtungsstrahl in das Abbildungssystem eintritt, hat es ein in der geeigneten objektseitigen Feld- ebene des Abbildungssystems angeordnetes erstes Beugungsgitter zu durchqueren. Das erste Beugungsgitter kann dabei entspre- chend dem Stand der Technik ausgebildet sein und insbesondere ein dort bewährtes Muster aufweisen. In dem ersten Beugungs- gitter wird der auftreffende Beleuchtungsstrahl in die diver- sen Beugungen nullter, erster, zweiter und höherer Ordnungen „aufgefächert“, wobei die einzelnen Beugungen entsprechend ih- rer Ordnung ausgehend vom ersten Beugungsgitter als separate Strahlen angesehen werden können, die zumindest zum weit über- wiegenden Teil in das Abbildungssystem eintreten und von die- sem abgebildet werden. [0024] Handelt es sich bei dem Abbildungssystem um ein Projek- tionssystem für die Mikrolithografie, kann das erste Beugungs- gitter bspw. in der Ebene angeordnet sein, in der sich für ge- wöhnlich die zu projizierende Maske (auch Retikel genannt) an- geordnet ist. Das erste Beugungsgitter kann in der Folge auch als Retikel-Beugungsgitter bezeichnet werden. [0025] In einer bildseitigen Feldebene des Abbildungssystems ist ein zweites Beugungsgitter angeordnet, welches ebenfalls wie aus dem Stand der Technik bekannt ausgebildet ist. Mit- hilfe dieses zweiten Beugungsgitters werden die durch das Ab- bildungssystem übertragenen Strahlengänge der einzelnen Beu- gungen erneut gebeugt. [0026] Wenigstens eines der beiden Beugungsgitter ist dabei in der Feldebene, in der es angeordnet ist, verschiebbar, um – je nach Position – andere Beugungsmuster zu erzeugen. [0027] Handelt es sich bei dem Abbildungssystem um ein Projek- tionssystem für die Mikrolithografie, kann das zweite Beu- gungsgitter bspw. in der Ebene angeordnet sein, in der sich für gewöhnlich der Halbleiter-Wafer angeordnet ist, auf den das Abbild der Maske bzw. des Retikels projiziert werden soll. Das zweite Beugungsgitter wird im Rahmen der vorliegenden Er- findung auch Sensor-Beugungsgitter genannt. [0028] Für das zwischen den beiden genannten Feldebenen gele- gene Abbildungssystem lässt sich, unabhängig von dessen Ausge- staltung und bspw. der tatsächlichen Anzahl an Zwischenpupil- len- bzw. -feldebenen, in einer modellhaften Betrachtung eine einzelne Pupillenebene annehmen, in den sich bspw. auch die numerische Apertur des Abbildungssystems definieren lässt. [0029] Die vom zweiten Beugungsgitter gebeugten Strahlen tref- fen auf einen in einer nachfolgenden bildseitigen Pupillen- ebene des Abbildungssystems angeordneten Interferogramm-Sensor auf und werden dort erfasst. Aufgrund der Auffächerung des Be- leuchtungsstrahls durch das erste Beugungsgitter und in Abhän- gigkeit der Position des zweiten Beugungsmusters ergeben sich auf dem Interferogramm-Sensor verschiedene Abbilder des Be- leuchtungsstrahls, nämlich Interferenz- bzw. Wellenfrontabbil- der, die durch geeignete Analyse Rückschlüsse auf möglicher- weise nicht optimal durch das Abbildungssystem übertragene bzw. abgebildete Beugungen zulassen. [0030] Dabei ist bekannt, die Abbildungsfehler des optischen Systems durch Abgleich der erfassten Interferenz- bzw. Wellen- frontabbilder mit einer Designmatrix des Abbildungssystems zu ermitteln. Bei geeigneter Ausgestaltung der Designmatrix lassen sich bspw. durch entsprechende Fitting-Verfahren für die erfassten Wellenfrontabbilder Parameter eines Zernike-Po- lynoms ermitteln, wobei jegliche Abweichung von idealen Werten (wie bspw. Null) einen Hinweis auf einen Abbildungsfehler lie- fert. Die so ermittelten Parameter können zusammen mit der De- signmatrix und der Kenntnis über den tatsächlichen Aufbau des Abbildungssystems genutzt werden, um Nachbearbeitungsmaßnahmen für das Abbildungssystem bzw. einzelne Elemente daraus zu identifizieren, mit denen die Abbildungsfehler reduziert wer- den können. Methoden, um ausgehend von einer Designmatrix er- forderliche oder vorteilhafte Nachbearbeitungsmaßnahmen für ein Abbildungssystem, bspw. das Projektionssystem einer Mikro- lithografie-Anlage, zu ermitteln, sind im Stand der Technik bekannt. [0031] Wurde es bislang als ausreichend angesehen, von einem Beleuchtungsstrahl lediglich die Beugungen nullter und erster Ordnungen bei der Ermittlung von Abbildungsfehlern zu berück- sichtigen und zur Verbesserung bei der Genauigkeit der Ermitt- lung der Abbildungsfehler verschiedene Ansätze verfolgt wur- den, die Abbildung von Beugungen höherer Ordnung durch das Ab- bildungssystem zu vermeiden, geht die vorliegende Erfindung den entgegengesetzten Weg: Indem Beugungen höherer Ordnung nicht nur zugelassen, sondern auch bei der Ermittlung der De- signmatrix und somit der Abbildungsqualität berücksichtigt werden, erhöht sich die Realitätstreue der Designmatrix. Die erhöhte Realitätstreue der Designmatrix ermöglicht wiederum eine genauere Identifikation von Abbildungsfehlern. In der Folge ist eine präzisere Nachbearbeitung des Abbildungssystems möglich, an dessen Ende eine erhöhte Abbildungsqualität des Abbildungssystems steht, die mit den aus dem Stand der Technik bekannten Verfahren zumindest nicht zuverlässig erreicht wer- den können. Indem auf Maßnahmen zur Unterdrückung von Beugun- gen höherer Ordnungen bei der eigentlichen Messung vollständig verzichtet werden kann, lässt sich häufig eine Beschleunigung des Messvorgangs erreichen. Auch erhöht sich die Flexibilität bei der Auswahl des Gitterdesigns. [0032] Zur Ermittlung der Designmatrix wird auf eine auf den Brechungswinkel skalierte Darstellung der Strahlengänge an den Pupillenebenen in kartesischen Koordinaten zurückgegriffen, d. h., ein ganzzahliger Koordinatenschritt im kartesischen System einer Pupillenebene entspricht einem Schritt um den Beugungs- winkel zwischen zwei benachbarten Beugungen und der Nullpunkt im kartesischen Koordinatensystem fällt mit einem Beugungs- strahl zusammen. Dabei werden die Koordinaten für die objekt- seitige Pupillenebene, in der die Beleuchtungsquelle angeord- net ist, sowie die das Abbildungssystem beschreibende Objek- tivpupillenebene auf den Brechungswinkel des ersten Beugungs- gitters skaliert, während die Koordinaten für die bildseitige Pupillenebene, in welcher der Interferogramm-Sensor angeordnet ist, die Skalierung der Koordinaten anhand des Brechungswin- kels des zweiten Beugungsgitters erfolgt. Der Brechungswinkel des zweiten Beugungsgitters ist dabei in der Regel ein dem Vergrößerungsfaktor des Abbildungssystems entsprechendes Viel- faches des Brechungswinkels des ersten Beugungsgitters. [0033] Für die nachfolgenden Betrachtungen sind die skalierten Koordinaten wie folge definiert: Objektseitige Pupillenebene:

Figure imgf000013_0001
Objektivpupillenebene: (^^, ^^) Bildseitige Pupillenebene: (^^^, ^^^) [0034] Die Designmatrix, welche zunächst aus den durch den In- terferogramm-Sensor aufgenommenen Abbildern die Wellenfronten in der Objektivpupillenebene widerspiegelt, die dann wiederum dazu genutzt werden können, Abbildungsfehler des Abbildungs- systems bzw. einzelner Komponenten darauf zu identifizieren und geeignete Nachbearbeitungsmaßnahmen zur Reduzierung der Abbildungsfehler vorzusehen. [0035] Allgemein lässt sich die Designmatrix formulieren als
Figure imgf000014_0001
mit
Figure imgf000014_0002
wobei diese Ableitungen um den Punkt, an dem die Zernike-Fak- toren ^^.. ^^ gleich null sind, linearisiert werden. [0036] Dabei gilt zum einen
Figure imgf000014_0003
mit
Figure imgf000014_0004
^^^ = ^^^ − ^^^ ^^^ = ^^^ − ^^^ ^^^ = ^^^ − ^^^ und den Randbedingungen
Figure imgf000015_0001
^^^ ^ ^ + ^^^ ≤ ^^^^^^ Zum anderen gilt
Figure imgf000015_0002
mit
Figure imgf000015_0003
− ^^^, ^^ − ^^^ − 1^ ^^^ = ^^^ − ^^^ ^^^ = ^^^ − ^^^ ^^^ = ^^^ − ^^^ und den Randbedingungen ^
Figure imgf000015_0004
^^^^ + 1^ ≤ ^^ ^^^ + ^ ^ ^^^ ≤ ^^^^^^ [0037] Durch die in den vorstehenden Formeln verwendeten Indi- zes „x“ und „y“ wird dabei verdeutlicht, dass der hier vorge- stellte Algorithmus grundsätzlich verschiedene Beugungseigen- schaften in x- und y-Richtung berücksichtigen kann, die bspw. in zwei aufeinanderfolgenden Messsequenzen getrennt voneinander betrachtet werden können. Dabei kann das ver- schiebbare Beugungsgitter in der ersten Messsequenz zunächst in x-Richtung und in einer darauffolgenden Messsequenz in y- Richtung verschoben werden. [0038] Für sämtliche vorstehenden Formeln gilt dabei allgemein
Figure imgf000016_0001
wobei ^^(^^, ^^) das n-te, für den Punkt ^^^, ^^ ^ ausgewertete Zernike-Polynom ist und sich die Phase am fraglichen Punkt – nach Ermittlung der Zernike-Parameter – aus der Summe der Zernike-Polynome ergibt. [0039] Bei den komplex konjugierbaren Funktionen ^^^^(^^, ^^) und ^^^^(^^, ^^) handelt es sich um die komplexen Beugungsspektren des ersten bzw. Retikel-Beugungsgitters und des zweiten bzw. Sen- sor-Beugungsgitters für die jeweiligen Beugungsordnungen in x- und y-Richtung, wobei die beiden Funktionen wiederum für die x- und y-Richtung gesondert aufgestellt sein können (vgl. In- dizes bei der Verwendung in den oben stehenden Formeln). [0040] Mit ^^ ist die numerische Apertur des Abbildungssystems bezeichnet. ^^^^^^ bezeichnet die Apertur der Beleuchtung. [0041] Weiterhin gilt allgemein ^^^ = ^^^ − ^^ ^^^ = ^^^ − ^^ sowie ^^ = ^^^^^,^ + ^^^^^,^ = ^^^^^,^ + ^^^^^,^ ^^ = ^^^^^,^ + ^^^^^,^ = ^^^^^,^ + ^^^^^,^ [0042] Durch die letztgenannte Formel wird weiterhin die Be- schränkung in den Algorithmus eingeführt, dass lediglich Beu- gungen, die aus einer gemeinsamen Beleuchtungsrichtung resul- tieren, am Interferogramm-Sensor tatsächlich miteinander in- terferieren können. Gleichzeitig wird durch die Summation über die Variablen ^^ und ^^ sichergestellt, dass auch solche Bei- träge der auf den Interferogramm-Sensor auftreffenden Strah- lung berücksichtigt werden kann, deren ausgehender Winkel vom zweiten Beugungsgitter nicht dem Einfallswinkel des originären Beleuchtungsstrahls am ersten Beugungsgitter entspricht. [0043] Dabei stellen ^^ und ^^ die Beugungsordnung an dem – je nach Index – ersten bzw. Retikel-Beugungsgitter oder zweiten bzw. Sensor-Beugungsgitter in x- bzw. y-Richtung dar. [0044] Aus den vorstehenden Überlegungen hat sich gezeigt, ^,^^ ^,^^ dass sich die Bestandteile ^^^ bzw. ^^^ der Designmatrix ver- einfacht darstellen lassen als
Figure imgf000017_0001
[0045] Die vorstehende allgemeine Formel für ^^^ lässt sich ^,^^ bspw. durch die folgenden Ersetzungen zu ^^^ wandeln: ^^,^ = ^^,^^ ^^^ = ^^^ ^^^ = ^^^ ^^^ = ^^^ ^^^ = ^^^
Figure imgf000018_0001
^,^^ [0046] Analog ist dies auch für ^^^ möglich. [0047] Mithilfe der so ermittelbaren Designmatrix lässt sich ausgehend von gemessenen Interferogramm-Abbildungen mit geeig- neten x- und y-Phasenschritten für jeden Messpunkt des Inter- ferogramm-Sensors und – beispielsweise – der Methode der (ggf. gewichteten) kleinsten Quadrate ein Vektor der Zernike-Parame- ter ermitteln:
Figure imgf000018_0002
bzw.
Figure imgf000018_0003
wobei Φ^^^^ die am jeweiligen Punkt in der objektseitigen Pu- pillenebene aus dem Interferogramm ergebende Phase ist. [0048] Werden, bspw. mithilfe der vorstehenden Formeln, bei der Berechnung der Designmatrix Beugungen bis zu sechsten Ord- nung, was ein bevorzugtes Minimum darstellt, berücksichtigt, kann durch Vergleichsrechnungen mit bekannten, nur die nullte und erste Beugungsordnungen berücksichtigenden Algorithmen eine erhebliche Verbesserung in der Realitätsnähe der Design- matrix erreicht werden, in der Regel um wenigstens den Faktor 2. Diese ermöglicht wiederum, wie bereits erläutert, eine ge- nauere Ermittlung von Abbildungsfehlern und ermöglicht eine präzisere Nachbearbeitung des Abbildungssystems, um im Ergeb- nis eine sehr hohe Abbildungsqualität zu erreichen. [0049] Wie ebenfalls bereits angesprochen, lässt sich der er- findungsgemäße Algorithmus auch auf die Beugungen nullter und erster Ordnung beschränken, sodass dann zum Stand der Technik vergleichbare Ergebnisse erreicht werden. Zur Reduktion auf einen nur die nullte und ersten Beugungsordnungen berücksich- tigenden Algorithmus sind für die x-Phasenverschiebung die Pa- rameter ^^ = 0 ^^ = 0 ^^^^^,^ = 0 ^^^^^,^ = 0 ^^^^^,^^^ = −1
Figure imgf000019_0001
und für die y-Phasenverschiebung ^^ = 0 ^^ = 0 ^^^^^,^ = 0 ^^^^^,^ = 0 ^^^^^,^^^ = −1 ^^^^^,^^^ = 1 zu verwenden. Zusammen mit der Annahme symmetrischer Beugungs- spektren, womit gilt ^^ ^ ^^ (−1,0) = ^^ ^ ^^ (1,0) ^^ ^ ^^ (−1,0) = ^^ ^ ^^ (1,0)
Figure imgf000020_0001
ergibt sich für die Komponenten der Designmatrix
Figure imgf000020_0002
[0050] Die oben wiedergegebene vereinfachte Darstellung der ^,^^ ^,^^ Bestandteile ^^^ bzw. ^^^ der Designmatrix kann näherungsweise weiter vereinfacht werden zu:
Figure imgf000020_0003
oder
Figure imgf000020_0004
[0051] Alternativ zur Ermittlung der Designmatrix, aus der dann die Phase in der Objektivpupillenebene berechnet werden kann, ist es alternativ auch möglich, im Wesentlichen analog zu den vorstehenden Überlegungen unmittelbar die ortsabhängige Phase ^(^^, ^^) und ohne explizite Berechnung von Zernike- Koeffizienten zu bestimmen, nämlich indem auf die Ableitung der Modellfunktion an dem gewünschten Punkt zurückgegriffen wird: ^ ^,^^ ^ = ^ ^^ ^ ^ ^ ,^^ ^^ mit
Figure imgf000021_0001
[0052] Insbesondere in diesem Fall lässt sich die Phase in der Objektivpupillenebene auch durch andere Polynome als die Zernike-Polynome, bspw. die Tatian-Polynome, abbilden. [0053] Bei dem Interferogramm-Sensor kann es sich bspw. um ei- nen zweidimensionalen CCD-Array-Sensor oder einen Active Pixel Sensor handeln. [0054] Die Erfindung wird nun anhand der beigefügten Zeichnun- gen weiter veranschaulicht. Es zeigen: Figur 1: eine schematische Darstellung einer Projektions- belichtungsanlage für die Mikrolithografie mit einem Projektionssystem als Abbildungssystem; Figur 2: modellhafte Darstellung des Abbildungssystems aus Figur 1 zur Ermittlung von Bildfehlern, wie sie der Erfindung zugrunde liegt; und Figur 3: schematische Darstellung der Verbesserung in der Genauigkeit einer erfindungsgemäß ermittelten De- signmatrix gegenüber dem Stand der Technik. [0055] In Figur 1 ist eine Projektionsbelichtungsanlage 1 für die Mikrolithografie in einem schematischen Meridionalschnitt dargestellt. Die Projektionsbelichtungsanlage 1 umfasst dabei ein Beleuchtungssystem 10 und ein Projektionssystem 20. [0056] Mithilfe des Beleuchtungssystems 10 wird ein Objektfeld 11 in einer Objektebene bzw. Retikelebene 12 beleuchtet. Das Beleuchtungssystem 10 umfasst dazu eine Belichtungsstrahlungs- quelle 13, die im dargestellten Ausführungsbeispiel Beleuch- tungsstrahlung zumindest umfassend Nutzlicht im EUV-Bereich, also insbesondere mit einer Wellenlänge zwischen 5 nm und 30 nm, abgibt. Bei der Belichtungsstrahlungsquelle 13 kann es sich um eine Plasmaquelle handeln, zum Beispiel um eine LPP- Quelle (Laser Produced Plasma, mithilfe eines Lasers erzeugtes Plasma) oder um eine DPP-Quelle (Gas Discharged Produced Plasma, mittels Gasentladung erzeugtes Plasma). Es kann sich auch um eine synchrotronbasierte Strahlungsquelle handeln. Bei der Belichtungsstrahlungsquelle 13 kann es sich auch um einen Freie-Elektronen-Laser (Free-Electron-Laser, FEL) handeln. [0057] Die von der Belichtungsstrahlungsquelle 13 ausgehende Beleuchtungsstrahlung wird zunächst in einem Kollektor 14 ge- bündelt. Bei dem Kollektor 14 kann es sich um einen Kollektor mit einer oder mit mehreren ellipsoidalen und/oder hyperboloi- den Reflexionsflächen handeln. Die mindestens eine Reflexions- fläche des Kollektors 14 kann im streifenden Einfall (Grazing Incidence, GI), also mit Einfallswinkeln größer als 45°, oder im normalen Einfall (Normal Incidence, NI), also mit Einfall- winkeln kleiner als 45°, mit der Beleuchtungsstrahlung beauf- schlagt werden. Der Kollektor 14 kann einerseits zur Optimie- rung seiner Reflexivität für die Nutzstrahlung und andererseits zur Unterdrückung von Falschlicht strukturiert und/oder beschichtet sein. [0058] Nach dem Kollektor 14 propagiert die Beleuchtungsstrah- lung durch einen Zwischenfokus in einer Zwischenfokusebene 15. Sollte das Beleuchtungssystem 10 in modularer Bauweise aufge- baut werden, kann die Zwischenfokusebene 15 grundsätzlich für die – auch strukturellen – Trennung des Beleuchtungssystems 10 in ein Strahlungsquellenmodul, aufweisend die Belichtungs- strahlungsquelle 13 und den Kollektor 14, und der nachfolgend beschriebenen Beleuchtungsoptik 16 herangezogen werden. Bei einer entsprechenden Trennung bilden Strahlungsquellenmodul und Beleuchtungsoptik 16 dann gemeinsam ein modular aufgebau- tes Beleuchtungssystem 10. [0059] Die Beleuchtungsoptik 16 umfasst einen Umlenkspiegel 17. Bei dem Umlenkspiegel 17 kann es sich um einen planen Um- lenkspiegel oder alternativ um einen Spiegel mit einer über die reine Umlenkungswirkung hinaus bündelbeeinflussenden Wir- kung handeln. Alternativ oder zusätzlich kann der Umlenkspie- gel 15 als Spektralfilter ausgeführt sein, der eine Nutzlicht- wellenlänge der Beleuchtungsstrahlung von Falschlicht einer hiervon abweichenden Wellenlänge trennt. [0060] Mit dem Umlenkspiegel 17 wird die von der Belichtungs- strahlungsquelle 13 stammende Strahlung auf einen ersten Fa- cettenspiegel 18 umgelenkt. Sofern der erste Facettenspiegel 18 dabei – wie vorliegend – in einer Ebene der Beleuchtungsop- tik 16 angeordnet ist, die zur Retikelebene 12 als Feldebene optisch konjugiert ist, wird dieser auch als Feldfacettenspie- gel bezeichnet. [0061] Der erste Facettenspiegel 18 umfasst eine Vielzahl von individuell um jeweils zwei senkrecht zueinander verlaufende Achsen verschwenkbare Mikrospiegel (nicht näher dargestellt) zur steuerbaren Bildung von Facetten. Bei dem ersten Facetten- spiegel 18 handelt es sich somit um ein mikroelektromechani- sches System (MEMS-System), wie es bspw. auch in der DE 102008 009 600 A1 beschrieben ist. [0062] Im Strahlengang der Beleuchtungsoptik 16 ist dem ersten Facettenspiegel 18 nachgeordnet ein zweiter Facettenspiegel 19, sodass sich ein doppelt facettiertes System ergibt, dessen Grundprinzip auch als Wabenkondensor (Fly’s Eye Integrator) bezeichnet wird. Sofern der zweite Facettenspiegel 19 – wie im dargestellten Ausführungsbeispiel – in einer Pupillenebene der Beleuchtungsoptik 16 angeordnet ist, wird dieser auch als Pu- pillenfacettenspiegel bezeichnet. Der zweite Facettenspiegel 19 kann aber auch beabstandet zu einer Pupillenebene der Be- leuchtungsoptik 4 angeordnet sein, womit sich aus der Kombina- tion aus dem ersten und dem zweiten Facettenspiegel 18, 19 ein spekularer Reflektor ergibt, wie er bspw. in der US 2006/0132747 A1, der EP 1614 008 B1 und der US 6,573,978 beschrieben ist. [0063] Auch der zweite Facettenspiegel 19 umfasst eine Viel- zahl von individuell um jeweils zwei senkrecht zueinander ver- laufende Achsen verschwenkbare Mikrospiegel. Zur weiteren Er- läuterung wird auf die DE 102008 009 600 A1 verwiesen. [0064] Mithilfe des zweiten Facettenspiegels 19 werden die einzelnen Facetten des ersten Facettenspiegels 18 in das Ob- jektfeld 11 abgebildet, wobei es sich regelmäßig nur um eine näherungsweise Abbildung handelt. Der zweite Facettenspiegel 19 ist der letzte bündelformende oder auch tatsächlich der letzte Spiegel für die Beleuchtungsstrahlung im Strahlengang vor dem Objektfeld 11. [0065] Jeweils eine der Facetten des zweiten Facettenspiegels 19 ist genau einer der Facetten des ersten Facettenspiegels 18 zur Ausbildung eines Beleuchtungskanals zur Ausleuchtung des Objektfeldes 11 zugeordnet. Es kann sich hierdurch insbeson- dere eine Beleuchtung nach dem köhlerschen Prinzip ergeben. [0066] Die Facetten des ersten Facettenspiegels 18 werden je- weils von einer zugeordneten Facette des zweiten Facettenspie- gels 19 einander überlagernd zur Ausleuchtung des Objektfeldes 5 abgebildet. Die Ausleuchtung des Objektfeldes 11 ist dabei möglichst homogen. Sie weist vorzugsweise einen Uniformitäts- fehler von weniger als 2 % auf. Die Felduniformität kann über die Überlagerung unterschiedlicher Beleuchtungskanäle erreicht werden. [0067] Durch Auswahl der letztendlich verwendeten Beleuch- tungskanäle, was durch geeignete Einstellung der Mikrospiegel des ersten Facettenspiegels 18 problemlos möglich ist, kann weiterhin die Intensitätsverteilung in der Eintrittspupille des nachfolgend beschriebenen Projektionssystems 20 einge- stellt werden. Diese Intensitätsverteilung wird auch als Be- leuchtungssetting bezeichnet. Dabei kann im Übrigen vorteil- haft sein, wenn der zweite Facettenspiegel 19 nicht exakt in einer Ebene, welche zu einer Pupillenebene des Projektionssys- tems 20 optisch konjugiert ist, anzuordnen. Insbesondere kann der Pupillenfacettenspiegel 19 gegenüber einer Pupillenebene des Projektionssystems 20 verkippt angeordnet sein, wie es zum Beispiel in der DE 102017 220 586 A1 beschrieben ist. [0068] Bei der in der Figur 1 dargestellten Anordnung der Kom- ponenten der Beleuchtungsoptik 16 ist der zweite Facettenspie- gel 19 aber in einer zur Eintrittspupille des Projektionssys- tems 20 konjugierten Fläche angeordnet. Umlenkspiegel 17 sowie die beiden Facettenspiegel 18, 19 sind sowohl gegenüber der Objektebene 12 als auch zueinander jeweils verkippt angeord- net. [0069] Bei einer alternativen, nicht dargestellten Ausfüh- rungsform der Beleuchtungsoptik 16 kann im Strahlengang zwi- schen dem zweiten Facettenspiegel 19 und dem Objektfeld 11 noch eine Übertragungsoptik umfassend einen oder mehrere Spie- gel vorgesehen sein. Die Übertragungsoptik kann insbesondere einen oder zwei Spiegel für senkrechten Einfall (NI-Spiegel, Normal Incidence Spiegel) und/oder einen oder zwei Spiegel für streifenden Einfall (GI-Spiegel, Gracing Incidence Spiegel) umfassen. Mit einer zusätzlichen Übertragungsoptik kann insbe- sondere unterschiedlichen Lagen der Eintrittspupille für den tangentialen und für den sagittalen Strahlengang des nachfol- gend beschriebenen Projektionssystems 20 berücksichtigt wer- den. [0070] Es ist alternativ möglich, dass auf den in Figur 1 dar- gestellten Umlenkspiegel 17 verzichtet wird, wozu dann die Fa- cettenspiegel 18, 19 gegenüber der Strahlungsquelle 13 und dem Kollektor 14 geeignet anzuordnen sind. [0071] Mithilfe des Projektionssystems 20 wird das Objektfeld 11 in der Retikelebene 12 auf das Bildfeld 21 in der Bildebene 22 übertragen. [0072] Das Projektionssystem 20 umfasst dafür eine Mehrzahl von Spiegeln 25, Mi, welche gemäß ihrer Anordnung im Strahlen- gang der Projektionsbelichtungsanlage 1 durchnummeriert sind. [0073] Bei dem in der Figur 1 dargestellten Beispiel umfasst das Projektionssystem 20 sechs Spiegel 25, M1 bis M6. Alterna- tiven mit vier, acht, zehn, zwölf oder einer anderen Anzahl an Spiegeln 25, Mi sind ebenso möglich. Der vorletzte Spiegel 25, M5 und der letzte Spiegel 25, M6 haben jeweils eine Durch- trittsöffnung für die Beleuchtungsstrahlung, womit es sich bei dem dargestellten Projektionssystem 20 um eine doppelt obsku- rierte Optik handelt. Das Projektionssystem 20 hat eine bildseitige numerische Apertur, die größer ist als 0,3 und die auch größer sein kann als 0,6 und die beispielsweise 0,7 oder 0,75 betragen kann. [0074] Die Reflexionsflächen der Spiegel 25, Mi können als Freiformflächen ohne Rotationssymmetrieachse ausgeführt sein. Alternativ können die Reflexionsflächen der Spiegel 25, Mi aber auch als asphärische Flächen mit genau einer Rotationssymmet- rieachse der Reflexionsflächenform gestaltet sein. Die Spiegel 25, Mi können, genauso wie die Spiegel der Beleuchtungsoptik 16, hoch reflektierende Beschichtungen für die Beleuchtungs- strahlung aufweisen. Diese Beschichtungen können als Mul- tilayer-Beschichtungen, insbesondere mit alternierenden Lagen aus Molybdän und Silizium, gestaltet sein. [0075] Das Projektionssystem 20 hat einen großen Objekt-Bild- versatz in der y-Richtung zwischen einer y-Koordinate eines Zentrums des Objektfeldes 11 und einer y-Koordinate des Zent- rums des Bildfeldes 21. Dieser Objekt-Bild-Versatz in der y- Richtung kann in etwa so groß sein wie ein z-Abstand zwischen der Objektebene 12 und der Bildebene 22. [0076] Das Projektionssystem 20 kann insbesondere anamorpho- tisch ausgebildet sein, d. h. es weist insbesondere unter- schiedliche Abbildungsmaßstäbe βx, βy in x- und y-Richtung auf. Die beiden Abbildungsmaßstäbe βx, βy des Projektionssystems 20 liegen bevorzugt bei (βx, βy) = (+/- 0,25, /+- 0,125). Ein Ab- bildungsmaßstab β von 0,25 entspricht dabei einer Verkleine- rung im Verhältnis 4:1, während ein Abbildungsmaßstab β von 0,125 in eine Verkleinerung im Verhältnis 8:1 resultiert. Ein positives Vorzeichen beim Abbildungsmaßstab β bedeutet eine Abbildung ohne Bildumkehr, ein negatives Vorzeichen eine Ab- bildung mit Bildumkehr. [0077] Andere Abbildungsmaßstäbe sind ebenso möglich. Auch vorzeichengleiche und absolut gleiche Abbildungsmaßstäbe βx, βy in x- und y-Richtung sind möglich. [0078] Die Anzahl von Zwischenbildebenen in der x- und in der y-Richtung im Strahlengang zwischen dem Objektfeld 11 und dem Bildfeld 21 kann, je nach Ausführung des Projektionssystems 20, gleich oder unterschiedlich sein. Beispiele für Projekti- onssysteme 20 mit unterschiedlichen Anzahlen derartiger Zwi- schenbilder in x- und y-Richtung sind bekannt aus der US 2018/0074303 A1. [0079] Das Projektionssystem 20 kann insbesondere eine homo- zentrische Eintrittspupille aufweisen. Diese kann zugänglich sein. Sie kann aber auch unzugänglich sein. [0080] Durch das Beleuchtungssystem 10 belichtet und durch das Projektionssystem 20 auf die Bildebene 21 übertragen wird ein im Objektfeld 11 angeordnetes Retikel 30 (auch Maske genannt). Das Retikel 30 ist von einem Retikelhalter 31 gehalten. Der Retikelhalter 31 ist über einen Retikelverlagerungsantrieb 32 insbesondere in einer Scanrichtung verlagerbar. Im dargestell- ten Ausführungsbeispiel verläuft die Scanrichtung in x-Rich- tung. [0081] Abgebildet wird eine Struktur auf dem Retikel 30 auf eine lichtempfindliche Schicht eines im Bereich des Bildfeldes 21 in der Bildebene 22 angeordneten Wafers 35. Der Wafer 35 wird von einem Waferhalter 36 gehalten. Der Waferhalter 36 ist über einen Waferverlagerungsantrieb 37 insbesondere längs der x-Richtung verlagerbar. Die Verlagerung einerseits des Reti- kels 30 über den Retikelverlagerungsantrieb 32 und anderer- seits des Wafers 35 über den Waferverlagerungsantrieb 37 kann synchronisiert zueinander erfolgen. [0082] Die in Figur 1 dargestellte Projektionsbelichtungsan- lage 1 gemäß der vorstehenden Beschreibung stellt im wesentli- chen bekannten Stand der Technik dar. [0083] Um eine hohe Qualität der mithilfe der Projektionsbe- lichtungsanlage 1 herzustellenden Halbleiter zu gewährleisten, ist es erforderlich, dass das Projektionssystem 20, welches ein extrem hochauflösendes Abbildungssystem 20 darstellt, keine oder nur geringe Bildfehler aufweist. Dazu ist im Stand der Technik bekannt, die Abbildungsqualität des Abbildungssys- tems 20 durch eine Wellenfronmessung zu ermitteln, und bei Be- darf Nachbearbeitungen am Abbildungssystem 20 bzw. dessen di- versen optischen Elementen, nämlich den Spiegeln M1 bis M6, vorzunehmen, bis die gewünschte Abbildungsqualität erreicht ist. Dazu ist aus dem Stand der Technik bekannt, aus mithilfe von Beugungsgittern erzeugte Interferogramm-Abbildungen die Wellenfront bzw. eine Designmatrix des Abbildungssystems 20 zu ermitteln, auf Basis derer dann für die Erhöhung der Abbil- dungsqualität geeignete Nachbearbeitungsmaßnahmen ermittelt und durchgeführt werden können. Im Gegensatz zum Stand der Technik, bei dem lediglich Beugungen nullter und erster Ord- nung berücksichtigt werden können, ist erfindungsgemäß vorge- sehen, dass auch Beugung zweiter Ordnung und/oder noch weite- rer höherer Ordnungen berücksichtigt werden. [0084] Dazu wird, wie in Figur 2a schematisch und in Form der bei der Erfindung verwendeten Modellbetrachtung dargestellt, eine grundsätzlich aus dem Stand der Technik bekannte Ermitt- lung interferometrischer Abbildungen durchgeführt, bei der je- doch auch Beugungen zweiter oder höherer Ordnungen abgebildet werden. [0085] Die Ermittlung interferometrischer Abbildungen erfolgt dabei ausgehend von in einer objektseitigen Pupillenebene 100 des Abbildungssystems 20 angeordneten Beleuchtungsquelle, mit der definierte – d. h., in Position auf und Ausrichtung gegen- über der Pupillenebene 100 bekannte – Beleuchtungsstrahlen 101 in das Abbildungssystem 20 ausgesandt wird. Aus Gründen der Übersichtlichkeit ist in Figur 2a dabei lediglich ein einzel- ner Beleuchtungsstrahl 101 dargestellt. Bei dem Beleuchtungs- strahl 101 handelt es sich um einen Strahl derselben Wellen- länge, wie die auch bei der Projektionsbelichtungsanlage 1 ge- mäß Figur 1 genutzt. Bei entsprechender Ausgestaltung kann die Belichtungsanlage 10 der Projektionsbelichtungsanlage 1 sogar als Quelle für den Beleuchtungsstrahl 101 genutzt werden und eine virtuelle Beleuchtungsquelle bilden: ist der Facetten- spiegel 19 (vgl. Figur 1) in der Pupillenebene 101 des Abbil- dungssystems 20 angeordnet, können durch geeignete Ansteuerung der Facettenspiegel 18, 19 des Beleuchtungssystems 10 geeig- nete Beleuchtungsstrahlen 101 in das Abbildungssystem einge- leitet werden, die als von der Pupillenebene 101 ausgehend an- gesehen werden können, auch wenn die eigentliche Belichtungs- strahlungsquelle 13 entfernt davon angeordnet ist. Ein so er- zeugter Beleuchtungsstrahl 101 weist aufgrund der Identität der Belichtungsstrahlungsquelle 13 dann auch unmittelbar die- selbe Wellenlänge auf, die später auch bei der Belichtung von Halbleiter-Wafern und damit bei der eigentlich vorgesehen Ver- wendung des Abbildungssystems genutzt wird. [0086] Bevor der Beleuchtungsstrahl 101 tatsächlich in das Ab- bildungssystem 20 eintritt, hat es ein in der geeigneten ob- jektseitigen Feldebene 102 des Abbildungssystems angeordnetes erstes Beugungsgitter 103 zu durchqueren. In dem ersten Beu- gungsgitter 103 wird der auftreffende Beleuchtungsstrahl 101 in die diversen Beugungen nullter, erster, zweiter und höherer Ordnungen „aufgefächert“, wobei die einzelnen Beugungen ent- sprechend ihrer Ordnung ausgehend vom ersten Beugungsgitter 103 als separate Strahlen 104 angesehen werden können, die zu- mindest zum weit überwiegenden Teil in das Abbildungssystem 20 eintreten und von diesem abgebildet werden. Bei dem ersten Beugungsgitter 103 kann es sich insbesondere um ein reflektie- rendes Beugungsgitter, wie es aus dem Stand der Technik be- kannt ist, handeln, welches bspw. in der Retikelebene 12 der Projektionsbelichtungsanlage 1 angeordnet sein kann. Wesent- lich ist, dass das erste Beugungsgitter 103 in einer bildsei- tigen Feldebene des Abbildungssystems 20 angeordnet ist. [0087] In einer bildseitigen Feldebene 105 des Abbildungssys- tems 20 ist ein zweites Beugungsgitter 106 angeordnet, mit dem die durch das Abbildungssystem 20 übertragenen Strahlengänge der einzelnen Beugungen 104 erneut gebeugt werden. Das zweite Beugungsgitter 106 ist dabei in der Feldebene 105 verschieb- bar. Im Ausführungsbeispiel gemäß Figur 1 kann das zweite Beu- gungsgitter 105 insbesondere in der Bildebene 22 angeordnet sein, wobei zur Verschiebung des zweiten Beugungsgitters 106 der Waferhalter 36 mit dem Waferverlagerungsantrieb 37 genutzt werden kann. [0088] Für das zwischen den beiden genannten Feldebenen 12, 102, 22, 105 gelegene Abbildungssystem 20 wird im mathemati- schen Modell gemäß Figur 2a unabhängig von dessen Ausgestal- tung und bspw. der tatsächlichen Anzahl an Zwischenpupillen- bzw. -feldebenen, eine einzelne Pupillenebene 107 annehmen, in den sich auch die numerische Apertur 108 des Abbildungssystems 20 definieren lässt. [0089] Die vom zweiten Beugungsgitter 106 gebeugten Strahlen treffen auf einen in einer nachfolgenden bildseitigen Pupil- lenebene 109 des Abbildungssystems 20 angeordneten Interfero- gramm-Sensor 110 auf und werden dort erfasst. Bei dem Inter- ferogramm-Sensor 110 handelt es sich um einen zweidimensiona- len CCD-Array-Sensor. [0090] Mit einer gemäß der schematischen Darstellung aus Figur 2a aufgebauten Messvorrichtung lassen sich, wie aus dem Stand der Technik bekannt, diverse Abbilder der Wellenfronten von definierten Beleuchtungsstrahlen 101 ermitteln. [0091] Für das Abbildungssystem 20 kann – wie im allgemeinen Teil der Beschreibung detailliert ausgeführt - algorithmisch eine Designmatrix ermittelt werden. Um diesbezügliche ausführ- liche Wiederholungen zu vermeiden, wird zur Erläuterung der Erstellung der Designmatrix auf den genannten Teil der Be- schreibung verwiesen. [0092] Die Designmatrix kann dann genutzt werden, um zusammen mit den durch den Interferogramm-Sensor erfassten Abbildungen Bildfehler des Abbildungssystems zu ermitteln. Anschließen können gezielt einzelne optische Elemente des Abbildungssys- tems 20 nachbearbeitet werden, um die Abbildungsqualität wei- ter zu steigern. [0093] In Figur 3 ist exemplarisch dargestellt, welche Verbes- serungen in der Genauigkeit der Designmatrix durch das erfin- dungsgemäße Verfahren gegenüber dem Stand der Technik erreicht werden können: die durch das erfindungsgemäße Verfahren ermit- telten Zernike-Koeffizienten (gefüllte Säulen) spiegeln die Abbildungsfehler deutlich genauer wider als die gemäß dem Stand der Technik ermittelten Zernike-Koeffizienten (Linie). Entsprechend können auch erforderliche Nachbearbeitungen ge- nauer definiert werden, was insgesamt in einer höheren Abbil- dungsqualität resultiert. 11/07/2023/BR Method for determining image errors in high-resolution imaging systems using wavefront measurement [0001] The present application claims priority from German patent application 102022 212 136.8, filed on November 15, 2022. The content of this German patent application is incorporated by reference into the present application text. [0002] The invention relates to a method for determining image errors in high-resolution imaging systems using wavefront measurement and to a corresponding computer program product. [0003] In applications such as microlithography, particularly high-resolution imaging systems are used to transfer the structure of a mask (also known as a reticle) to a substrate coated with a light-sensitive layer in a reduced size. The imaging system is also referred to as a projection system, which together with an illumination system that illuminates the mask forms a projection exposure system, such as is used in particular for microlithography in the manufacture of semiconductor components. [0004] In order for the usually already very fine structures of a mask to be correctly imaged by the imaging system, possibly reducing them in size, the optical elements involved in the imaging system, such as mirrors or lenses, must be manufactured with high precision. Despite the high precision manufacture of the individual optical elements, it has been shown that their interaction in an imaging system still leads to small deviations in the image, which are extremely relevant, for example in the manufacture of semiconductors, and are also referred to as image errors. [0005] Methods are known from the prior art with which the imaging quality of an imaging system can be determined or possible image errors of the imaging system can be detected in a spatially resolved manner. Using this information, individual optical elements of the imaging system can then be identified and reworked in such a way that after reinsertion into the imaging system, the image fields have been reduced in such a way that the imaging quality of the imaging system can be increased to a desired level. [0006] One method for determining possible image errors is the wavefront detection of illumination beams diffracted multiple times by gratings. In this case, illumination rays from known positions in the object-side pupil plane of the imaging system are transmitted to a first diffraction grating arranged in the object-side field plane by the imaging system to a second diffraction grating arranged in the image-side field plane, so that an interferometric image of the illumination rays is produced in the image-side pupil plane, which can be detected with a suitable sensor. [0007] If the process is repeated with different positions from which the illumination beam emanates and/or with the planned displacement of one of the two diffraction gratings in the image-side field plane, a large number of interferometric images are produced, from which the imaging quality of the imaging system can then be determined with precise location, for example by means of a matrix that is fitted to the measurement results in the form of the interferometric images. It is then possible to identify those optical elements in the imaging system where image errors in the imaging system can be reduced or the imaging quality can be increased through suitable post-processing measures. [0008] Even if good and often sufficient results in improving the image quality can be achieved with measures for correcting the optical elements of a high-resolution imaging system resulting from a matrix determined in accordance with the state of the art, it is not always certain, particularly in view of the ever-increasing demands on the image quality, as arise, for example, with EUV technology - i.e. exposure with a wavelength of 5 nm to 30 nm - and the particularly small structures that can be projected in this case, that the determination of image errors known from the state of the art can also guarantee sufficient image quality in such systems. [0009] The object of the present invention is therefore to create a method and a computer program product for determining image errors in high-resolution imaging systems in which the possible disadvantages from the state of the art do not occur or only occur to a reduced extent. [0010] The invention is achieved by a method according to the main claim and a computer program product according to the independent claim. Advantageous further developments are the subject of the dependent claims. [0011] Accordingly, the invention relates to a method for determining image errors of high-resolution imaging systems by wavefront measurement, wherein an illumination source is arranged in an object-side pupil plane of the imaging system, a first diffraction grating is arranged in an object-side field plane lying between the illumination source and the imaging system, an interferogram sensor is arranged in an image-side pupil plane and a second diffraction grating is arranged in an image-side field plane lying between the imaging system and the interferogram sensor, wherein one of the two diffraction gratings is arranged in the Field plane in which it is arranged, comprising the steps of: - illuminating the first diffraction grating with illumination beams generated by the illumination source starting from known positions in the object-side pupil plane; - capturing the image of the illumination beam resulting from the diffraction gratings and the imaging system on the interferogram sensor, also comprising second and higher order diffractions; - repeating the above steps with a predetermined displacement of the displaceable diffraction grating in the associated field plane; - calculating a design matrix representing the ideal optical properties of the imaging system, wherein the design matrix comprises at least zero, first and second order diffractions; and - determining image errors of the imaging system on the basis of the images captured by the interferogram sensor and a design matrix representing the ideal optical properties of the imaging system, wherein the design matrix comprises at least zero-, first- and second-order diffractions. [0012] Furthermore, the invention relates to a computer program product or a set of computer program products comprising program parts which, when loaded into a computer or into interconnected computers for calculation, can be used to calculate a design matrix representing the ideal optical properties of the imaging system, wherein the design matrix comprises at least Zero-, first- and second-order diffractions, and are designed to determine values reflecting the image errors of the imaging system on the basis of the images captured by the interferogram sensor and the design matrix. [0013] First, some terms used in connection with the invention are explained: [0014] The “object-side pupil plane” and “object-side field plane” refer to planes that lie on the side of the imaging system on which the object to be imaged is usually expected. The illumination can be arranged in an object-side pupil plane, for example, while an object-side field plane can be the reticle plane, for example. [0015] The “image-side pupil plane” and “image-side field plane” refer to planes that lie on the side of the imaging system on which the image of an object is usually expected. For example, a camera can be arranged in an image-side pupil plane. An image-side field plane can be the wafer plane, for example. [0016] The invention is based on the knowledge that the assumption widespread in the prior art that it is sufficient to consider only the zero- and first-order diffraction in order to determine the imaging quality of an imaging system by wavefront measurement - which is why the known algorithms for determining a design matrix of an imaging system are ultimately limited to these orders - does not result in sufficient accuracy for all applications. As a result, post-processing measures determined on the basis of such a design matrix can also result in sufficient imaging quality of the object being examined. imaging system cannot be guaranteed for all applications. [0017] The core of the invention is to map the imaging properties of an imaging system as precisely as possible in a design matrix, so that a comparison with recorded interferometric images of exposure rays yields more precise information on possible imaging errors, from which suitable post-processing measures for increasing the imaging quality can be derived more reliably. [0018] It was recognized that the restriction to zero- and first-order diffractions, which is considered sufficient in the prior art and has proven sufficient for a large number of applications, ultimately represents a limitation on the realism of the design matrix and thus the possible increase in imaging quality through suitable post-processing measures based on the design matrix and must be removed so that higher-order diffractions can also be taken into account. Even if these higher order diffractions may at first glance only have a small effect on the image quality and/or the accuracy of the design matrix, it has been shown that they cannot be neglected when the requirements for the image quality are particularly high. However, since the algorithms known from the prior art for determining a design matrix based on interferometric images can only take zero and first order diffractions into account, part of the present invention is a new algorithm with which a design matrix can be created that is significantly more realistic than is possible in the prior art. [0019] It has also been shown that - if no greater accuracy is required in the design matrix compared to the methods known from the prior art - with the In the method according to the invention, a reduced number of interferometric measurements compared to the prior art is sufficient to be able to make comparably reliable statements about imaging errors. In such cases, the method according to the invention can therefore be faster than that known from the prior art. [0020] A preferred possibility of determining image errors in high-resolution imaging systems using wavefront measurement, in which second and/or higher order diffraction can also be taken into account, is explained below. [0021] The actual determination of interferometric images is carried out in a similar way to the known prior art: starting from an illumination source arranged in an object-side pupil plane of the imaging system, defined illumination rays - i.e. those with a known position on and orientation relative to the pupil plane - are emitted into the imaging system. As a rule, it is advantageous if the illumination beam has the same or a comparable wavelength as the illumination provided for the later use of the imaging system. If the imaging system is a projection exposure system for microlithography, the illumination beam preferably has a wavelength comparable to that provided for exposure during microlithography. In an imaging system provided for EUV microlithography, the wavelength for the illumination beam is therefore, for example, in the range from 5 nm to 30 nm. [0022] The illumination source can be arranged directly in the pupil plane; however, it is also possible for the element actually generating the light to be arranged outside the said pupil plane, with optical elements directing the light generated away from the pupil plane into the Pupil plane so that it can be assumed for further consideration that the illumination rays emanating from the pupil plane were generated by an illumination source arranged on the pupil plane. In this case, one can also speak of a "virtual illumination source" on the pupil plane. [0023] Before the illumination beam enters the imaging system, it has to pass through a first diffraction grating arranged in the appropriate object-side field plane of the imaging system. The first diffraction grating can be designed in accordance with the state of the art and in particular have a pattern that has been proven there. In the first diffraction grating, the incident illumination beam is "fanned out" into the various diffractions of zero, first, second and higher orders, whereby the individual diffractions can be viewed as separate beams according to their order starting from the first diffraction grating, which at least for the most part enter the imaging system and are imaged by it. [0024] If the imaging system is a projection system for microlithography, the first diffraction grating can be arranged, for example, in the plane in which the mask to be projected (also called a reticle) is usually arranged. The first diffraction grating can also be referred to as a reticle diffraction grating. [0025] A second diffraction grating is arranged in an image-side field plane of the imaging system, which is also designed as known from the prior art. With the help of this second diffraction grating, the beam paths of the individual diffractions transmitted through the imaging system are diffracted again. [0026] At least one of the two diffraction gratings can be moved in the field plane in which it is arranged in order to generate different diffraction patterns depending on the position. [0027] If the imaging system is a projection system for microlithography, the second diffraction grating can be arranged, for example, in the plane in which the semiconductor wafer is usually arranged, onto which the image of the mask or reticle is to be projected. The second diffraction grating is also called a sensor diffraction grating in the context of the present invention. [0028] For the imaging system located between the two field planes mentioned, regardless of its design and, for example, the actual number of intermediate pupil or field planes, a single pupil plane can be assumed in a model consideration, in which, for example, the numerical aperture of the imaging system can also be defined. [0029] The rays diffracted by the second diffraction grating impinge on an interferogram sensor arranged in a subsequent image-side pupil plane of the imaging system and are recorded there. Due to the fanning out of the illumination beam by the first diffraction grating and depending on the position of the second diffraction pattern, various images of the illumination beam are produced on the interferogram sensor, namely interference or wavefront images, which, through suitable analysis, allow conclusions to be drawn about diffractions that may not be optimally transmitted or imaged by the imaging system. [0030] It is known to determine the imaging errors of the optical system by comparing the recorded interference or wavefront images with a design matrix of the imaging system. With a suitable design of the design matrix For example, parameters of a Zernike polynomial can be determined using appropriate fitting methods for the recorded wavefront images, with any deviation from ideal values (such as zero) providing an indication of an imaging error. The parameters determined in this way can be used together with the design matrix and knowledge of the actual structure of the imaging system to identify post-processing measures for the imaging system or individual elements thereof with which the imaging errors can be reduced. Methods for determining necessary or advantageous post-processing measures for an imaging system, e.g. the projection system of a microlithography system, based on a design matrix are known in the state of the art. [0031] Until now, it was considered sufficient to only take into account the zero and first order diffractions of an illumination beam when determining imaging errors, and various approaches were pursued to avoid the imaging of higher order diffractions by the imaging system in order to improve the accuracy of the determination of the imaging errors. The present invention takes the opposite approach: By not only allowing higher order diffractions, but also taking them into account when determining the design matrix and thus the imaging quality, the realism of the design matrix is increased. The increased realism of the design matrix in turn enables imaging errors to be identified more precisely. As a result, more precise post-processing of the imaging system is possible, which ultimately results in an increased imaging quality of the imaging system, which cannot at least be reliably achieved with the methods known from the prior art. By being able to completely dispense with measures to suppress higher order diffractions during the actual measurement, an acceleration can often be achieved. of the measurement process. The flexibility in selecting the grating design is also increased. [0032] To determine the design matrix, a representation of the beam paths at the pupil planes in Cartesian coordinates scaled to the angle of refraction is used, ie an integer coordinate step in the Cartesian system of a pupil plane corresponds to a step by the angle of diffraction between two adjacent diffractions and the zero point in the Cartesian coordinate system coincides with a diffraction beam. The coordinates for the object-side pupil plane in which the illumination source is arranged and the objective pupil plane describing the imaging system are scaled to the angle of refraction of the first diffraction grating, while the coordinates for the image-side pupil plane in which the interferogram sensor is arranged are scaled based on the angle of refraction of the second diffraction grating. The angle of refraction of the second diffraction grating is generally a multiple of the angle of refraction of the first diffraction grating corresponding to the magnification factor of the imaging system. [0033] For the following considerations, the scaled coordinates are defined as follows: Object-side pupil plane:
Figure imgf000013_0001
Objective pupil plane: (^ ^ , ^ ^ ) Image-side pupil plane: (^^ ^ , ^^ ^ ) [0034] The design matrix, which initially reflects the wave fronts in the objective pupil plane from the images recorded by the interferogram sensor, which can then in turn be used to identify imaging errors of the imaging system or individual components therein and appropriate post-processing measures to reduce the imaging errors. [0035] In general, the design matrix can be formulated as
Figure imgf000014_0001
with
Figure imgf000014_0002
where these derivatives are linearized around the point at which the Zernike factors ^ ^ .. ^ ^ are equal to zero. [0036] On the one hand,
Figure imgf000014_0003
with
Figure imgf000014_0004
^ ^^ = ^^ ^ − ^^ ^ ^ ^^ = ^^ ^ − ^^ ^ ^ ^^ = ^^ ^ − ^^ ^ and the boundary conditions
Figure imgf000015_0001
^^^ ^ ^ + ^^ ^ ≤ ^^ ^^^^ On the other hand,
Figure imgf000015_0002
with
Figure imgf000015_0003
− ^^ ^ , ^ ^ − ^^ ^ − 1^ ^ ^^ = ^^ ^ − ^^ ^ ^ ^^ = ^^ ^ − ^^ ^ ^ ^^ = ^^ ^ − ^^ ^ ^ ^^ = ^^ ^ − ^^ ^ and the boundary conditions ^
Figure imgf000015_0004
^^ ^^ + 1^ ≤ ^^ ^^^ + ^ ^ ^^ ^ ≤ ^^ ^^^^ [0037] The indices “x” and “y” used in the above formulas make it clear that the algorithm presented here can fundamentally take into account different diffraction properties in the x and y directions, which can be measured separately in two consecutive measurement sequences, for example. can be viewed separately from each other. The movable diffraction grating can be moved in the first measurement sequence in the x-direction and in a subsequent measurement sequence in the y-direction. [0038] For all of the above formulas, the following applies in general:
Figure imgf000016_0001
where ^ ^ (^ ^ , ^ ^ ) is the n-th Zernike polynomial evaluated for the point ^ ^ ^ , ^ ^ ^ and the phase at the point in question - after determining the Zernike parameters - results from the sum of the Zernike polynomials. [0039] The complex conjugable functions ^ ^^^ (^^, ^^) and ^ ^^^ (^^, ^^) are the complex diffraction spectra of the first or reticle diffraction grating and the second or sensor diffraction grating for the respective diffraction orders in the x and y directions, whereby the two functions can in turn be set up separately for the x and y directions (cf. indices when used in the formulas above). [0040] ^^ denotes the numerical aperture of the imaging system. ^^ ^^^^ denotes the aperture of the illumination. [0041] Furthermore, in general ^^ ^ = ^^ ^^ ^ ^^ ^ = ^^ ^ − ^ ^ and ^ ^ = ^^ ^^^,^ + ^^ ^^^,^ = ^^ ^^^,^ + ^^ ^^^,^ ^ ^ = ^^ ^^^,^ + ^^ ^^^,^ = ^^ ^^^,^ + ^^ ^^^,^ [0042] The latter formula also introduces the restriction into the algorithm that only diffractions that result from a common illumination direction can actually interfere with one another at the interferogram sensor. At the same time, the summation over the variables ^ ^ and ^ ^ ensures that those contributions of the radiation striking the interferogram sensor can also be taken into account whose outgoing angle from the second diffraction grating does not correspond to the angle of incidence of the original illumination beam at the first diffraction grating. [0043] Here, ^^ and ^^ represent the diffraction order at the – depending on the index – first or reticle diffraction grating or second or sensor diffraction grating in the x- or y-direction. [0044] From the above considerations it has been shown, ^,^^ ^,^^ that the components ^^^ and ^^^ of the design matrix can be represented in a simplified manner as
Figure imgf000017_0001
[0045] The above general formula for ^ ^^ can be converted to ^^^, for example by the following substitutions: ^ ^,^ = ^ ^,^^ ^ ^^ = ^ ^^ ^ ^^ = ^ ^^ ^ ^^ = ^ ^^ ^ ^^ = ^ ^^
Figure imgf000018_0001
^,^^ [0046] This is also possible for ^^^ in the same way. [0047] Using the design matrix that can be determined in this way, a vector of the Zernike parameters can be determined based on measured interferogram images with suitable x and y phase steps for each measuring point of the interferogram sensor and - for example - the method of (possibly weighted) least squares:
Figure imgf000018_0002
or.
Figure imgf000018_0003
where Φ ^^^^ is the phase resulting from the interferogram at the respective point in the object-side pupil plane. [0048] If, for example, diffractions up to the sixth order, which is a preferred minimum, are taken into account when calculating the design matrix using the above formulas, a significant improvement in the realism of the design matrix can be achieved by comparative calculations with known algorithms that only take the zeroth and first diffraction orders into account, usually by at least a factor of 2. This in turn enables, as already explained, a more precise determination of imaging errors and enables more precise post-processing of the imaging system in order to achieve a very high imaging quality. [0049] As already mentioned, the algorithm according to the invention can also be restricted to zeroth and first order diffractions, so that results comparable to the state of the art are then achieved. To reduce the algorithm to an algorithm that only takes the zeroth and first diffraction orders into account, the parameters for the x-phase shift are: ^ ^ = 0 ^ ^ = 0 ^^ ^^^,^ = 0 ^^ ^^^,^ = 0 ^^ ^^^,^^^ = −1
Figure imgf000019_0001
and for the y-phase shift ^ ^ = 0 ^ ^ = 0 ^^ ^^^,^ = 0 ^^ ^^^,^ = 0 ^^ ^^^,^^^ = −1 ^^ ^^^,^^^ = 1. Together with the assumption of symmetrical diffraction spectra, which gives ^ ^ ^ ^^ (−1,0) = ^ ^ ^ ^^ (1,0) ^ ^ ^ ^ ^ ( −1,0 ) = ^ ^ ^ ^ ^ ( 1,0 )
Figure imgf000020_0001
results for the components of the design matrix
Figure imgf000020_0002
[0050] The simplified representation of the ^,^^ ^,^^ components ^^^ or ^^^ of the design matrix given above can be further simplified to approximately:
Figure imgf000020_0003
or
Figure imgf000020_0004
[0051] As an alternative to determining the design matrix from which the phase in the objective pupil plane can then be calculated, it is also possible, essentially analogously to the above considerations, to directly determine the location-dependent phase ^(^ ^ , ^ ^ ) and without explicitly calculating Zernike coefficients by resorting to the derivative of the model function at the desired point: ^ ^,^^ ^ = ^ ^^ ^ ^ ^ ,^^ ^^ with
Figure imgf000021_0001
[0052] In this case in particular, the phase in the objective pupil plane can also be represented by polynomials other than the Zernike polynomials, for example the Tatian polynomials. [0053] The interferogram sensor can be, for example, a two-dimensional CCD array sensor or an active pixel sensor. [0054] The invention will now be further illustrated with reference to the accompanying drawings. They show: Figure 1: a schematic representation of a projection exposure system for microlithography with a projection system as the imaging system; Figure 2: model representation of the imaging system from Figure 1 for determining image errors, as the basis of the invention; and Figure 3: schematic representation of the improvement in the accuracy of a design matrix determined according to the invention compared to the prior art. [0055] In Figure 1, a projection exposure system 1 for microlithography is shown in a schematic meridional section. The projection exposure system 1 comprises an illumination system 10 and a projection system 20. [0056] With the aid of the illumination system 10, an object field 11 is illuminated in an object plane or reticle plane 12. The illumination system 10 comprises an exposure radiation source 13 which, in the exemplary embodiment shown, emits illumination radiation at least comprising useful light in the EUV range, i.e. in particular with a wavelength between 5 nm and 30 nm. The exposure radiation source 13 can be a plasma source, for example an LPP source (laser produced plasma) or a DPP source (gas discharged produced plasma). It can also be a synchrotron-based radiation source. The exposure radiation source 13 can also be a free-electron laser (FEL). [0057] The illumination radiation emanating from the exposure radiation source 13 is first bundled in a collector 14. The collector 14 can be a collector with one or more ellipsoidal and/or hyperboloidal reflection surfaces. The at least one reflection surface of the collector 14 can be exposed to the illumination radiation in grazing incidence (GI), i.e. with angles of incidence greater than 45°, or in normal incidence (NI), i.e. with angles of incidence less than 45°. The collector 14 can be used on the one hand to optimize its reflectivity for the useful radiation and on the other hand, it can be structured and/or coated to suppress stray light. [0058] After the collector 14, the illumination radiation propagates through an intermediate focus in an intermediate focal plane 15. If the illumination system 10 is to be constructed in a modular design, the intermediate focal plane 15 can in principle be used for the - also structural - separation of the illumination system 10 into a radiation source module, having the exposure radiation source 13 and the collector 14, and the illumination optics 16 described below. With a corresponding separation, the radiation source module and illumination optics 16 then together form a modularly constructed illumination system 10. [0059] The illumination optics 16 comprise a deflection mirror 17. The deflection mirror 17 can be a flat deflection mirror or alternatively a mirror with an effect that influences the beam beyond the pure deflection effect. Alternatively or additionally, the deflection mirror 15 can be designed as a spectral filter that separates a useful light wavelength of the illumination radiation from false light of a different wavelength. [0060] The deflection mirror 17 deflects the radiation from the exposure radiation source 13 onto a first facet mirror 18. If the first facet mirror 18 is arranged - as in the present case - in a plane of the illumination optics 16 that is optically conjugated to the reticle plane 12 as a field plane, it is also referred to as a field facet mirror. [0061] The first facet mirror 18 comprises a plurality of micromirrors (not shown in detail) that can be individually pivoted about two axes running perpendicular to one another. for the controllable formation of facets. The first facet mirror 18 is therefore a microelectromechanical system (MEMS system), as is also described, for example, in DE 102008 009 600 A1. [0062] In the beam path of the illumination optics 16, a second facet mirror 19 is arranged downstream of the first facet mirror 18, so that a double-faceted system is produced, the basic principle of which is also referred to as a honeycomb condenser (fly's eye integrator). If the second facet mirror 19 - as in the illustrated embodiment - is arranged in a pupil plane of the illumination optics 16, it is also referred to as a pupil facet mirror. The second facet mirror 19 can also be arranged at a distance from a pupil plane of the illumination optics 4, whereby the combination of the first and second facet mirrors 18, 19 results in a specular reflector, as described, for example, in US 2006/0132747 A1, EP 1614 008 B1 and US 6,573,978. [0063] The second facet mirror 19 also comprises a plurality of micromirrors that can be individually pivoted about two axes running perpendicular to one another. For further explanation, reference is made to DE 102008 009 600 A1. [0064] With the help of the second facet mirror 19, the individual facets of the first facet mirror 18 are imaged in the object field 11, whereby this is usually only an approximate image. The second facet mirror 19 is the last bundle-forming or actually the last mirror for the illumination radiation in the beam path in front of the object field 11. [0065] One of the facets of the second facet mirror 19 is exactly one of the facets of the first facet mirror 18 to form an illumination channel for illuminating the object field 11. This can result in particular in illumination according to the Köhler principle. [0066] The facets of the first facet mirror 18 are each imaged by an associated facet of the second facet mirror 19, superimposed on one another, to illuminate the object field 5. The illumination of the object field 11 is as homogeneous as possible. It preferably has a uniformity error of less than 2%. The field uniformity can be achieved by superimposing different illumination channels. [0067] By selecting the illumination channels ultimately used, which is easily possible by suitably adjusting the micromirrors of the first facet mirror 18, the intensity distribution in the entrance pupil of the projection system 20 described below can also be set. This intensity distribution is also referred to as the illumination setting. It can also be advantageous if the second facet mirror 19 is not arranged exactly in a plane that is optically conjugated to a pupil plane of the projection system 20. In particular, the pupil facet mirror 19 can be arranged tilted relative to a pupil plane of the projection system 20, as is described, for example, in DE 102017 220 586 A1. [0068] In the arrangement of the components of the illumination optics 16 shown in Figure 1, the second facet mirror 19 is arranged in a surface that is conjugated to the entrance pupil of the projection system 20. Deflecting mirror 17 and the two facet mirrors 18, 19 are arranged tilted both relative to the object plane 12 and relative to each other. [0069] In an alternative embodiment of the illumination optics 16 (not shown), a transmission optics comprising one or more mirrors can be provided in the beam path between the second facet mirror 19 and the object field 11. The transmission optics can in particular comprise one or two mirrors for vertical incidence (NI mirrors, normal incidence mirrors) and/or one or two mirrors for grazing incidence (GI mirrors, gracing incidence mirrors). With an additional transmission optics, different positions of the entrance pupil for the tangential and for the sagittal beam path of the projection system 20 described below can be taken into account. [0070] Alternatively, it is possible to dispense with the deflection mirror 17 shown in Figure 1, for which purpose the facet mirrors 18, 19 are then to be arranged in a suitable manner opposite the radiation source 13 and the collector 14. [0071] With the help of the projection system 20, the object field 11 in the reticle plane 12 is transferred to the image field 21 in the image plane 22. [0072] The projection system 20 comprises a plurality of mirrors 25, M i , which are numbered according to their arrangement in the beam path of the projection exposure system 1. [0073] In the example shown in Figure 1, the projection system 20 comprises six mirrors 25, M 1 to M 6 . Alternatives with four, eight, ten, twelve or another number of mirrors 25, M i are also possible. The penultimate mirror 25, M 5 and the last mirror 25, M 6 each have a passage opening for the illumination radiation, which means that the projection system 20 shown is a double-obscured optics. The projection system 20 has a image-side numerical aperture, which is greater than 0.3 and which can also be greater than 0.6 and which can be, for example, 0.7 or 0.75. [0074] The reflection surfaces of the mirrors 25, M i can be designed as free-form surfaces without a rotational symmetry axis. Alternatively, the reflection surfaces of the mirrors 25, M i can also be designed as aspherical surfaces with exactly one rotational symmetry axis of the reflection surface shape. The mirrors 25, M i can, just like the mirrors of the illumination optics 16, have highly reflective coatings for the illumination radiation. These coatings can be designed as multilayer coatings, in particular with alternating layers of molybdenum and silicon. [0075] The projection system 20 has a large object-image offset in the y-direction between a y-coordinate of a center of the object field 11 and a y-coordinate of the center of the image field 21. This object-image offset in the y-direction can be approximately as large as a z-distance between the object plane 12 and the image plane 22. [0076] The projection system 20 can in particular be designed anamorphically, ie it has in particular different imaging scales β x , β y in the x and y directions. The two imaging scales β x , β y of the projection system 20 are preferably (β x , β y ) = (+/- 0.25, /+- 0.125). A magnification ratio β of 0.25 corresponds to a reduction in the ratio 4:1, while a magnification ratio β of 0.125 results in a reduction in the ratio 8:1. A positive sign for the magnification ratio β means an image without image inversion, a negative sign means an image with image inversion. [0077] Other image scales are also possible. Image scales β x , β y with the same sign and absolutely the same in the x and y directions are also possible. [0078] The number of intermediate image planes in the x and y directions in the beam path between the object field 11 and the image field 21 can be the same or different, depending on the design of the projection system 20. Examples of projection systems 20 with different numbers of such intermediate images in the x and y directions are known from US 2018/0074303 A1. [0079] The projection system 20 can in particular have a homocentric entrance pupil. This can be accessible. But it can also be inaccessible. [0080] A reticle 30 (also called a mask) arranged in the object field 11 is exposed by the illumination system 10 and transferred to the image plane 21 by the projection system 20. The reticle 30 is held by a reticle holder 31. The reticle holder 31 can be displaced in particular in a scanning direction via a reticle displacement drive 32. In the exemplary embodiment shown, the scanning direction runs in the x-direction. [0081] A structure on the reticle 30 is imaged onto a light-sensitive layer of a wafer 35 arranged in the region of the image field 21 in the image plane 22. The wafer 35 is held by a wafer holder 36. The wafer holder 36 can be displaced in particular along the x-direction via a wafer displacement drive 37. The displacement of the reticle 30 on the one hand via the reticle displacement drive 32 and the wafer 35 on the other hand via the wafer displacement drive 37 can be synchronized with each other. [0082] The projection exposure system 1 shown in Figure 1 according to the above description essentially represents known prior art. [0083] In order to ensure a high quality of the semiconductors to be produced using the projection exposure system 1, it is necessary that the projection system 20, which represents an extremely high-resolution imaging system 20, has no or only minor image errors. For this purpose, it is known in the prior art to determine the imaging quality of the imaging system 20 by means of a wavefront measurement and, if necessary, to carry out post-processing on the imaging system 20 or its various optical elements, namely the mirrors M 1 to M 6 , until the desired imaging quality is achieved. For this purpose, it is known from the prior art to determine the wavefront or a design matrix of the imaging system 20 from interferogram images generated with the aid of diffraction gratings, on the basis of which suitable post-processing measures can then be determined and carried out to increase the image quality. In contrast to the prior art, in which only zeroth and first order diffractions can be taken into account, the invention provides that second order diffraction and/or further higher orders are also taken into account. [0084] For this purpose, as shown schematically in Figure 2a and in the form of the model view used in the invention, a determination of interferometric images is carried out which is basically known from the prior art, but in which second or higher order diffractions are also imaged. [0085] The determination of interferometric images takes place starting from an illumination source arranged in an object-side pupil plane 100 of the imaging system 20, with the defined illumination beam 101 - ie, the position on and orientation relative to the pupil plane 100 is known - is emitted into the imaging system 20. For reasons of clarity, only a single illumination beam 101 is shown in Figure 2a. The illumination beam 101 is a beam of the same wavelength as that used in the projection exposure system 1 according to Figure 1. With a corresponding design, the exposure system 10 of the projection exposure system 1 can even be used as a source for the illumination beam 101 and form a virtual illumination source: if the facet mirror 19 (see Figure 1) is arranged in the pupil plane 101 of the imaging system 20, suitable illumination beams 101 can be introduced into the imaging system by appropriately controlling the facet mirrors 18, 19 of the illumination system 10, which can be viewed as emanating from the pupil plane 101, even if the actual exposure radiation source 13 is arranged at a distance from it. Due to the identity of the exposure radiation source 13, an illumination beam 101 generated in this way then has the same wavelength that is later used when exposing semiconductor wafers and thus when the imaging system is actually used for its intended purpose. [0086] Before the illumination beam 101 actually enters the imaging system 20, it has to pass through a first diffraction grating 103 arranged in the appropriate object-side field plane 102 of the imaging system. In the first diffraction grating 103, the incident illumination beam 101 is "fanned out" into the various diffractions of zeroth, first, second and higher orders, whereby the individual diffractions can be viewed as separate beams 104 according to their order starting from the first diffraction grating 103, which at least for the most part enter the imaging system 20 and are imaged by it. In the first The diffraction grating 103 can in particular be a reflective diffraction grating, as is known from the prior art, which can be arranged, for example, in the reticle plane 12 of the projection exposure system 1. It is essential that the first diffraction grating 103 is arranged in an image-side field plane of the imaging system 20. [0087] A second diffraction grating 106 is arranged in an image-side field plane 105 of the imaging system 20, with which the beam paths of the individual diffractions 104 transmitted by the imaging system 20 are diffracted again. The second diffraction grating 106 can be moved in the field plane 105. In the embodiment according to Figure 1, the second diffraction grating 105 can be arranged in particular in the image plane 22, wherein the wafer holder 36 with the wafer displacement drive 37 can be used to move the second diffraction grating 106. [0088] For the imaging system 20 located between the two field planes 12, 102, 22, 105 mentioned, the mathematical model according to Figure 2a assumes a single pupil plane 107, in which the numerical aperture 108 of the imaging system 20 can also be defined, regardless of its design and, for example, the actual number of intermediate pupil or field planes. [0089] The rays diffracted by the second diffraction grating 106 impinge on an interferogram sensor 110 arranged in a subsequent image-side pupil plane 109 of the imaging system 20 and are detected there. The interferogram sensor 110 is a two-dimensional CCD array sensor. [0090] With a measuring device constructed according to the schematic representation in Figure 2a, as already mentioned, As is known in the art, various images of the wave fronts of defined illumination beams 101 can be determined. [0091] For the imaging system 20, a design matrix can be determined algorithmically - as explained in detail in the general part of the description. In order to avoid detailed repetitions in this regard, reference is made to the part of the description mentioned for an explanation of the creation of the design matrix. [0092] The design matrix can then be used to determine image errors of the imaging system together with the images captured by the interferogram sensor. Individual optical elements of the imaging system 20 can then be specifically post-processed in order to further increase the image quality. [0093] Figure 3 shows an example of the improvements in the accuracy of the design matrix that can be achieved by the method according to the invention compared to the prior art: the Zernike coefficients determined by the method according to the invention (filled columns) reflect the imaging errors much more accurately than the Zernike coefficients determined according to the prior art (line). Accordingly, necessary post-processing can also be defined more precisely, which overall results in a higher imaging quality.

Claims

Patentansprüche 1. Verfahren zur Ermittlung von Bildfehlern hochauflösender Abbildungssysteme per Wellenfrontmessung, wobei in einer objektseitigen Pupillenebene des Abbildungssystems eine Be- leuchtungsquelle, in einer objektseitigen, zwischen Be- leuchtungsquelle und Abbildungssystem liegenden Feldebene ein erstes Beugungsgitter, in einer bildseitigen Pupillen- ebene ein Interferogramm-Sensor und in einer bildseitigen, zwischen Abbildungssystem und Interferogramm-Sensor liegen- den Feldebene ein zweites Beugungsgitter angeordnet sind, wobei wenigstes eines der Beugungsgitter in der Feldebene, in der es angeordnet ist, verschiebbar ist, umfassend die Schritte: – Beleuchten des ersten Beugungsgitters mit durch die Be- leuchtungsquelle erzeugten Beleuchtungsstrahlen ausge- hend von bekannten Positionen in der objektseitigen Pu- pillenebene; – Erfassen des sich durch die Beugungsgitter und das Ab- bildungssystem ergebenden Abbildes der Beleuchtungs- strahlen auf dem Interferogramm-Sensor auch umfassend Beugungen 2ter und größerer Ordnungen; – Wiederholen der vorstehenden Schritte bei vorgegebener Verschiebung des zweiten Beugungsgitters in der Feld- ebene; und – Ermitteln von Bildfehlern des Abbildungssystems auf Ba- sis der durch den Interferogramm-Sensor erfassten Ab- bildungen und einer die idealen optischen Eigenschaften des Abbildungssystems wiedergebenden Designmatrix, wo- bei die Designmatrix wenigstens Beugungen nullter, ers- ter, zweiter Ordnung umfasst. Patent claims 1. Method for determining image errors in high-resolution imaging systems by wavefront measurement, wherein an illumination source is arranged in an object-side pupil plane of the imaging system, a first diffraction grating is arranged in an object-side field plane lying between the illumination source and the imaging system, an interferogram sensor is arranged in an image-side pupil plane and a second diffraction grating is arranged in an image-side field plane lying between the imaging system and the interferogram sensor, wherein at least one of the diffraction gratings is displaceable in the field plane in which it is arranged, comprising the steps: - illuminating the first diffraction grating with illumination rays generated by the illumination source starting from known positions in the object-side pupil plane; - capturing the image of the illumination rays resulting from the diffraction gratings and the imaging system on the interferogram sensor, also comprising second and higher order diffractions; - repeating the above steps with a predetermined displacement of the second diffraction grating in the field plane; and - determining image errors of the imaging system on the basis of the images captured by the interferogram sensor and a design matrix reflecting the ideal optical properties of the imaging system, the design matrix comprising at least zero, first and second order diffractions. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei der Berechnung der Designmatrix Beugungen wenigstens bis zur sechsten Ordnung berücksichtigt werden. 2. Method according to claim 1, characterized in that diffractions at least up to the sixth order are taken into account when calculating the design matrix. 3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Designmatrix gebildet wird als
Figure imgf000034_0001
mit
Figure imgf000034_0002
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Beleuchtungsstrahl eine Wellenlänge vergleichbar oder identisch zur Wellenlänge der bei der Verwendung des Abbil- dungssystems zu erwartenden Beleuchtung aufweist. 5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die ermittelte Designmatrix zur Bestimmung erforderlicher Nachbearbeitungen des Abbildungssystems genutzt wird, und die so ermittelten Nachbearbeitungen am Abbildungssystem durchgeführt werden. 6. Computerprogrammprodukt oder Satz von Computerprogrammpro- dukten, umfassend Programmteile, welche, wenn geladen in einen Computer oder in untereinander vernetze Computer zur Berechnung einer die Bildfehler eines Abbildungssystem wie- dergebenden Designmatrix auf Basis der durch einen Inter- ferogramm-Sensor erfassten Abbildungen des Abbildungssys- tems bekannter, zweifach gebeugter Beleuchtungsstrahlen um- fassend wenigstens Beugungen nullter, erster, zweiter Ord- nung, ausgebildet sind. 7. Computerprogrammprodukt oder Satz von Computerprogrammpro- dukten gemäß Anspruch 6, dadurch gekennzeichnet, dass bei der Berechnung der Designmatrix Beugungen wenigstens bis zur sechsten Ordnung berücksichtigt werden.
3. Method according to one of the preceding claims, characterized in that the design matrix is formed as
Figure imgf000034_0001
with
Figure imgf000034_0002
4. Method according to one of the preceding claims, characterized in that the illumination beam has a wavelength comparable or identical to the wavelength of the illumination to be expected when using the imaging system. 5. Method according to one of the preceding claims, characterized in that the determined design matrix is used to determine required post-processing of the imaging system, and the post-processing thus determined is carried out on the imaging system. 6. Computer program product or set of computer program products, comprising program parts which, when loaded into a computer or into computers networked with one another, are used for Calculation of a design matrix representing the image errors of an imaging system based on the images of the imaging system captured by an interferogram sensor of known, doubly diffracted illumination beams comprising at least zeroth, first and second order diffractions. 7. Computer program product or set of computer program products according to claim 6, characterized in that diffractions at least up to the sixth order are taken into account when calculating the design matrix.
PCT/EP2023/080813 2022-11-15 2023-11-06 Method for determining image errors of high-resolution imaging systems by wave front measurement WO2024104806A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022212136.8 2022-11-15
DE102022212136.8A DE102022212136A1 (en) 2022-11-15 2022-11-15 Process for determining image errors in high-resolution imaging systems using wavefront measurement

Publications (1)

Publication Number Publication Date
WO2024104806A1 true WO2024104806A1 (en) 2024-05-23

Family

ID=84534020

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/080813 WO2024104806A1 (en) 2022-11-15 2023-11-06 Method for determining image errors of high-resolution imaging systems by wave front measurement

Country Status (2)

Country Link
DE (1) DE102022212136A1 (en)
WO (1) WO2024104806A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022212136A1 (en) 2022-11-15 2023-01-12 Carl Zeiss Smt Gmbh Process for determining image errors in high-resolution imaging systems using wavefront measurement

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6573978B1 (en) 1999-01-26 2003-06-03 Mcguire, Jr. James P. EUV condenser with non-imaging optics
DE10224363A1 (en) * 2002-05-24 2003-12-04 Zeiss Carl Smt Ag Methods for determining wavefront aberrations
US20060132747A1 (en) 2003-04-17 2006-06-22 Carl Zeiss Smt Ag Optical element for an illumination system
DE102008009600A1 (en) 2008-02-15 2009-08-20 Carl Zeiss Smt Ag Facet mirror e.g. field facet mirror, for use as bundle-guiding optical component in illumination optics of projection exposure apparatus, has single mirror tiltable by actuators, where object field sections are smaller than object field
US20170336714A1 (en) * 2014-12-17 2017-11-23 Carl Zeiss Smt Gmbh Projection exposure apparatus with wavefront measuring device and optical wavefront manipulator
US20180074303A1 (en) 2015-04-14 2018-03-15 Carl Zeiss Smt Gmbh Imaging optical unit and projection exposure unit including same
DE102017220586A1 (en) 2017-11-17 2019-05-23 Carl Zeiss Smt Gmbh Pupil facet mirror, illumination optics and optical system for a projection exposure apparatus
KR20200116966A (en) * 2018-01-31 2020-10-13 에이에스엠엘 네델란즈 비.브이. Method and apparatus for determining optical aberration
CN108139682B (en) * 2015-10-02 2020-12-25 Asml荷兰有限公司 Metrology method and apparatus, computer program and lithographic system
DE102022212136A1 (en) 2022-11-15 2023-01-12 Carl Zeiss Smt Gmbh Process for determining image errors in high-resolution imaging systems using wavefront measurement

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6573978B1 (en) 1999-01-26 2003-06-03 Mcguire, Jr. James P. EUV condenser with non-imaging optics
DE10224363A1 (en) * 2002-05-24 2003-12-04 Zeiss Carl Smt Ag Methods for determining wavefront aberrations
US20060132747A1 (en) 2003-04-17 2006-06-22 Carl Zeiss Smt Ag Optical element for an illumination system
EP1614008B1 (en) 2003-04-17 2009-12-02 Carl Zeiss SMT AG Optical element for a lighting system
DE102008009600A1 (en) 2008-02-15 2009-08-20 Carl Zeiss Smt Ag Facet mirror e.g. field facet mirror, for use as bundle-guiding optical component in illumination optics of projection exposure apparatus, has single mirror tiltable by actuators, where object field sections are smaller than object field
US20170336714A1 (en) * 2014-12-17 2017-11-23 Carl Zeiss Smt Gmbh Projection exposure apparatus with wavefront measuring device and optical wavefront manipulator
US20180074303A1 (en) 2015-04-14 2018-03-15 Carl Zeiss Smt Gmbh Imaging optical unit and projection exposure unit including same
CN108139682B (en) * 2015-10-02 2020-12-25 Asml荷兰有限公司 Metrology method and apparatus, computer program and lithographic system
DE102017220586A1 (en) 2017-11-17 2019-05-23 Carl Zeiss Smt Gmbh Pupil facet mirror, illumination optics and optical system for a projection exposure apparatus
KR20200116966A (en) * 2018-01-31 2020-10-13 에이에스엠엘 네델란즈 비.브이. Method and apparatus for determining optical aberration
DE102022212136A1 (en) 2022-11-15 2023-01-12 Carl Zeiss Smt Gmbh Process for determining image errors in high-resolution imaging systems using wavefront measurement

Also Published As

Publication number Publication date
DE102022212136A1 (en) 2023-01-12

Similar Documents

Publication Publication Date Title
DE102010001388A1 (en) Facet mirror for use in microlithography
DE102008043162A1 (en) Imaging optics and projection exposure system for microlithography with such an imaging optics
EP3298446A2 (en) Measuring method and measuring arrangement for an imaging optical system
DE102009048553A1 (en) Catadioptric projection objective with deflecting mirrors and projection exposure method
DE102020210829A1 (en) Pupil facet mirror for an illumination optics of a projection exposure system
DE102015209173B4 (en) METHOD FOR PRODUCING AN OBJECTIVE FOR A LITHOGRAPHIC PLANT
WO2024104806A1 (en) Method for determining image errors of high-resolution imaging systems by wave front measurement
DE102022210158A1 (en) Arrangement, method and computer program product for calibrating facet mirrors
DE102018201457A1 (en) Illumination optics for projection lithography
DE102022210356A1 (en) OPTICAL SYSTEM, LITHOGRAPHY PLANT WITH AN OPTICAL SYSTEM AND METHOD FOR MANUFACTURING AN OPTICAL SYSTEM
DE102011005826A1 (en) Optical device for e.g. extreme UV projection exposure system for manufacturing semiconductor chips, has sensor device comprising sensor line, where sensor device is formed to examine optic during shift of holder for exposure on wafer
WO2019134773A1 (en) Pupil facet mirror, illumination optics and optical system for a projection lithography system
DE102011081914A1 (en) Illumination optics for use in optical system of projection exposure system for illuminating e.g. lithography mask, for manufacturing memory chips, has facet mirror whose facets uncouple partial beam incident on energy sensor
DE102020213837A1 (en) Facet mirror device
DE102017202863A1 (en) Method and device for determining a position and / or orientation of an optical element
WO2024213632A1 (en) Lithography apparatus and method for operating a lithography apparatus
WO2024194297A1 (en) Control device, optical system, lithography installation and method
DE102023209691A1 (en) Measuring device, measuring method using such a measuring device and projection exposure system with such a measuring device
WO2024110450A1 (en) Optical system, lithography unit, and method for operating an optical system of a lithography unit
DE102016207487A1 (en) Microlithographic projection exposure machine
WO2023186960A1 (en) Control device, optical system, lithography installation and method
DE102023205089A1 (en) Sensor device with two different optical sensor types, sensor system and projection lens
DE102023203225A1 (en) Imaging EUV optics for imaging an object field into an image field
DE102023203731A1 (en) Device and method for checking a component and lithography system
WO2015036225A1 (en) Illumination optical unit for euv microlithography

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23802180

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE