[go: up one dir, main page]

DE10321887A1 - Optical sensor for high speed scanning of an object, e.g. for use in optical metrology, has a light source and a focussing objective that generates an astigmatic image on a sensor camera chip - Google Patents

Optical sensor for high speed scanning of an object, e.g. for use in optical metrology, has a light source and a focussing objective that generates an astigmatic image on a sensor camera chip Download PDF

Info

Publication number
DE10321887A1
DE10321887A1 DE2003121887 DE10321887A DE10321887A1 DE 10321887 A1 DE10321887 A1 DE 10321887A1 DE 2003121887 DE2003121887 DE 2003121887 DE 10321887 A DE10321887 A DE 10321887A DE 10321887 A1 DE10321887 A1 DE 10321887A1
Authority
DE
Germany
Prior art keywords
lens
camera
optical
optical sensor
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2003121887
Other languages
German (de)
Inventor
Klaus Dr. Körner
Wolfgang Prof. Dr. Osten
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universitaet Stuttgart
Original Assignee
Universitaet Stuttgart
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universitaet Stuttgart filed Critical Universitaet Stuttgart
Priority to DE2003121887 priority Critical patent/DE10321887A1/en
Publication of DE10321887A1 publication Critical patent/DE10321887A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02041Interferometers characterised by particular imaging or detection techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02001Interferometers characterised by controlling or generating intrinsic radiation properties
    • G01B9/02012Interferometers characterised by controlling or generating intrinsic radiation properties using temporal intensity variation
    • G01B9/02014Interferometers characterised by controlling or generating intrinsic radiation properties using temporal intensity variation by using pulsed light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02034Interferometers characterised by particularly shaped beams or wavefronts
    • G01B9/02035Shaping the focal point, e.g. elongated focus
    • G01B9/02037Shaping the focal point, e.g. elongated focus by generating a transverse line focus
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02055Reduction or prevention of errors; Testing; Calibration
    • G01B9/02062Active error reduction, i.e. varying with time
    • G01B9/02067Active error reduction, i.e. varying with time by electronic control systems, i.e. using feedback acting on optics or light
    • G01B9/02069Synchronization of light source or manipulator and detector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02083Interferometers characterised by particular signal processing and presentation
    • G01B9/02084Processing in the Fourier or frequency domain when not imaged in the frequency domain
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02097Self-interferometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02097Self-interferometers
    • G01B9/02098Shearing interferometers

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Mathematical Physics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Optical sensor has a light source (1) with at least one wavelength, a focussing objective (4) that is configured to be astigmatically imaging and a camera chip (9) placed in the beam path of the optical system. The optical system ensures that a focus figure, point or line from the object surface is imaged astigmatically on the camera chip. Also in the beam path is a lateral shear generating optical beam splitter. Independent claims are also included for the following:- (a) a method for imaging a narrow focal line in object space and; (b) a method for imaging a focal point in object space.

Description

Das in den Schriften US 4,976,504 und WO 99/42908 beschriebene konoskopische Verfahren gestattet die Messung des Mikroprofils von technischen Oberflächen ohne mechanisch bewegte Teile im Sensorkopf. Es werden dabei im Sensorkopf ein oder mehrere doppelbrechende Kristalle und mehrere polarisationsoptische Komponenten eingesetzt. Derartige Sensoren mit dem Namen ConoProbe und ConoLine sind auch in den Prospekten der Firma Optimet Optical Metrology Ltd., www.optimet.com, beschrieben.That in the scriptures US 4,976,504 and the conoscopic method described in WO 99/42908 permits the measurement of the micro-profile of technical surfaces without mechanically moving parts in the sensor head. One or more birefringent crystals and several polarization-optical components are used in the sensor head. Such sensors with the names ConoProbe and ConoLine are also described in the brochures of Optimet Optical Metrology Ltd., www.optimet.com.

Bei einem gemäß Schrift US 5,953,137 ausgeführten Sensor ist es recht aufwendig, zwischen der Defokussierung des Objektes und der Phase einen linearen Zusammenhang zu erhalten. Die Auswertung der Interferenzfiguren, die als gekrümmte Interferenzmuster, also als ringförmige Streifen auch in den Anordnungen nach US 4,976,504 und WO 99/42908 auftreten, ist in der Regel nicht extrem schnell durchführbar.With one according to Scripture US 5,953,137 executed sensor, it is quite expensive to obtain a linear relationship between the defocusing of the object and the phase. The evaluation of the interference figures, which as a curved interference pattern, that is, as an annular stripe also in the arrangements US 4,976,504 and WO 99/42908 occur, can usually not be carried out extremely quickly.

Eine hohe Genauigkeit ist beim ConoLine, dem linienweise messenden Sensor, nur im Zentrum der Fokuslinie gegeben. Außerdem ist die Tiefen-Messgenauigkeit beim ConoLine deutlich geringer als beim ConoProbe, dem punktweise messenden Sensor. Durch Wechselwirkungen zwischen der Objektoberfläche und dem Licht kann es bei diesem Prinzip wegen der Verwendung von Licht mit unterschiedlicher Polarisationsrichtung jedoch auch zu Beeinflussungen der Tiefen-Messgenauigkeit aufgrund polarisationsoptischer Effekte kommen.A high accuracy is the ConoLine, the line-by-line sensor, only given in the center of the focus line. In addition, the depth measurement accuracy the ConoLine is significantly less than the ConoProbe, which is point by point measuring sensor. Through interactions between the object surface and the light can do this principle because of the use of light with different polarization directions but also influences the depth measurement accuracy due to polarization-optical effects come.

Das Ziel ist ein robuster und dennoch genau messender, kostengünstiger Sensor, insbesondere zur Bestimmung des Mikroprofils einer Oberfläche, insbesondere entlang einer Linie, wobei die Messung jeweils mittels Auswertung eines einzigen Bildes erfolgen soll. Der Sensor auf der Grundlage des erfinderischen Verfahrens soll das Profil in einem weiten Skalenbereich detektieren können. Weiterhin ist der Sensor ohne mechanisch bewegte Teile auszuführen. Der Arbeitsabstand sollte der Messaufgabe angepasst sein und bei schnell und mit z-Komponente bewegtem Material nicht zu gering sein, also auch durchaus einige Millimeter betragen können.The The goal is a robust, yet accurate measurement, less expensive Sensor, in particular for determining the micro-profile of a surface, in particular along a line, the measurement being made using evaluation of a single picture. The sensor based of the inventive method, the profile should be in a wide scale range can detect. The sensor must also be designed without any mechanically moving parts. The Working distance should be adapted to the measuring task and quickly and not too small with moving material, so can also be a few millimeters.

Eine Aufgabe besteht also darin, das Profil und das Mikroprofil schnell und mit großer Genauigkeit in einem ausgedehnten Tiefenmessbereich an einem Objekt entlang einer Linie absolut zu messen. Das Verfahren soll interferenz-optischer Natur sein. Grundsätzlich sollen auch Kurzpuls-Lichtquellen zur Beleuchtung der Objektoberfläche eingesetzt werden können. Dabei geht es beispielsweise um Pulslängen der Lichtquellen im Bereich von einer 0,1 Mikrosekunde bis zu 1000 Mikrosekunden.A So the job is to get the profile and the micro profile fast and with great Accuracy in an extended depth measurement range on an object to measure absolutely along a line. The method is said to be more interference-optical Be nature. in principle Short-pulse light sources are also to be used to illuminate the object surface can be. This involves, for example, pulse lengths of the light sources in the area from 0.1 microsecond to 1000 microseconds.

Eine weitere Aufgabe besteht darin, die Schichtdicke von transparenten Schichten zu bestimmen.A Another task is to make the layer thickness transparent To determine layers.

Die bekannten und unerwünschten 2n-Sprünge, die sich bekannterweise bei der Auswertung von Interferogrammen mit Streifen ergeben können, sollen bei der erfinderischen Lösung grundsätzlich nicht auftreten. Die erreichbare Genauigkeit soll dabei etwa der entsprechen, die mit punktweise messenden optischen Sensoren bei gleichen Objektivparametern erreichbar ist. Die erreichbare Tiefenmess-Genauigkeit soll beispielsweise für ein entsprechend kurzbrennweitiges Objektiv über der gesamten Linielänge 5 μm betragen. Die numerische Tiefen-Auflösung des Sensors kann bei 1 μm oder auch noch darunter liegen.The known and undesirable 2n jumps that is known to be involved in the evaluation of interferograms Streaks can result should be in the inventive solution in principle do not occur. The achievable accuracy should be about correspond to that with point-by-point optical sensors same lens parameters. The achievable depth measurement accuracy for example for a correspondingly short focal length lens over the entire line length be 5 μm. The numerical depth resolution of the sensor can be at 1 μm or even below it.

Das Objekt, beispielsweise ein Werkstück, bei dem eine Schweißnaht auf Sollprofil und Mikrorisse zu kontrollieren ist, soll beim Messen vergleichsweise schnell bewegt werden können, beispielsweise mit einer Geschwindigkeit von mehr als 10 mm/s. An die Führungsgenauigkeit des Transportsystems, besonders die langperiodische Geradheit, sollen dabei jedoch keine extremen Anforderungen bestehen, im besonderen dann nicht, wenn das Mikroprofil quer zur Bewegungsrichtung von Interesse ist.The Object, for example a workpiece with a weld seam The target profile and microcracks to be checked should be used when measuring can be moved relatively quickly, for example with a Speed of more than 10 mm / s. The accuracy of the guidance of the transport system, especially the long period straightness, but should not be there are extreme requirements, especially not if the micro profile transverse to the direction of movement is of interest.

Zur Anpassung an die jeweilige Messaufgabe soll das Fokussierobjektiv einfach und ohne Justierung gegen eines mit einer anderen Brennweite ausgetauscht werden können, wodurch der Tiefenmessbereich und die Tiefenempfindlichkeit oder Bereich der Schichtdickenmessung durch den Anwender jeweils optimal an die Messaufgabe angepasst werden können.to The focusing lens should adapt to the respective measuring task exchanged easily and without adjustment for one with a different focal length can be whereby the depth measurement range and depth sensitivity or The area of layer thickness measurement by the user is optimal can be adapted to the measurement task.

Beschreibung der ErfindungDescription of the invention

Der Sensoreffekt basiert auf der Interferenz zweier kohärenter Lichtbündel mit Lateral-Shear. Grundsätzlich kann der Sensor als Punkt- oder Liniensensor ausgebildet sein, wobei hier im besonderen der linienhafte Profilsensor beschrieben ist, jedoch der Punktsensor stets als Sonderfall eingeschlossen ist. Der Punktsensor ist insbesondere zur Schichtdickenmessung geeignet.The Sensor effect is based on the interference of two coherent light beams Lateral shear. in principle the sensor can be designed as a point or line sensor, wherein here in particular the linear profile sensor is described, however, the point sensor is always included as a special case. The point sensor is particularly suitable for measuring the layer thickness.

Die Basisidee der Erfindung besteht nun darin, in einem Zweistrahl-Interferometer beim mittleren optischen Gangunterschied null mit einer astigmatischen Abbildung einer auf das Objekt projizierten Fokuslinie oder eines Fokuspunktes auf einen Kamera-Chip durch eine im optischen Gesamtsystem des Sensors eingestellte Lateral-Shear zwischen zwei kohärenten Teilbündeln ein Shear-Streifen-Muster mit einer zumindest näherungsweise konstanten Ortsfrequenz in mindestens einer Linie des Kamera-Chips einer Kamera zu erzeugen. Dabei kann die Lateral-Shear fest eingestellt sein oder in Abhängigkeit von der Messaufgabe durch optoelektronische Mittel wie LCDs oder LCOS oder DMDs variabel gemacht sein und so an die jeweilige Messaufgabe optimal angepasst werden. Die kohärenten Bündel mit Lateral-Shear entstehen durch einen Lateral-Shear erzeugenden optischen Strahlenbündelteiler mit Schichtenstrahlenteiler oder Beugungsgitter im Strahlengang. Dabei bilden die Strahlenbüschel, die sich in einer zur Fokuslinie parallelen Ebene ausbreiten, die Fokuslinie scharf auf den Kamera-Chip ab.The basic idea of the invention now consists in a two-beam interferometer with an average optical path difference of zero with an astigmatic image of a focus line projected onto the object or a focus point onto a camera chip by means of an in the overall optical system of the Sensor-set lateral shear between two coherent sub-bundles to generate a shear stripe pattern with an at least approximately constant spatial frequency in at least one line of the camera chip of a camera. The lateral shear can be fixed or made variable depending on the measuring task by optoelectronic means such as LCDs or LCOS or DMDs and can thus be optimally adapted to the respective measuring task. The coherent bundles with lateral shear are created by an optical beam splitter that generates lateral shear with a layer beam splitter or a diffraction grating in the beam path. The bundles of rays, which spread out in a plane parallel to the focal line, depict the focal line sharply on the camera chip.

Wird keine Fokuslinie, sondern ein Fokuspunkt erzeugt, wird eine Referenzebene definiert, die der Einfallsebene des Laserbündels auf eine in der Sensoranordnung stets vorhandene Teilerschicht entspricht. In diesem Fall bilden die Strahlenbüschel, die sich in einer zur Referenzebene senkrechten Ebene ausbreiten, den Fokuspunkt scharf auf den Kamera-Chip ab. Die Strahlenbüschel in der Referenzebene bilden dagegen den Fokuspunkt unscharf ab. In den dargestellten Figuren entspricht die Referenzebene stets der Zeichenebene. So ist die auf dem Kamera-Chip entstehende Lichtfigur in der Referenzebene von größerer Ausdehnung.Becomes Not a focal line, but a focal point, becomes a reference plane defines that the plane of incidence of the laser beam on one in the sensor arrangement corresponds to the existing divider layer. In this case, make up the bundles of rays that spread in a plane perpendicular to the reference plane, the Focus point sharp on the camera chip. The bundles of rays in the reference plane, on the other hand, depicts the focus point out of focus. In the figures shown always correspond to the reference plane Plane. This is the light figure on the camera chip in the reference plane of greater extent.

Es wird die Ortsfrequenz des Shear-Streifen-Musters oder der Phasengang über einer Bezugsbreite 2b in mindestens einer Linie des Kamera-Chips bestimmt. Diese Linie befindet sich vorzugsweise in der definierten Referenzebene. Diese Bestimmung der Ortsfrequenz kann beispielsweise mittels Durchführen der diskreten Fast Fourier Transformation (FFT) vergleichsweise einfach und schnell durchgeführt werden. Die Differenz der von einem Objektpunkt detektierbaren Ortsfrequenz zur Ortsfrequenz desselben Objektpunktes in der Fokusposition ist der Defokussierung zumindest in einem begrenzten Tiefenbereich näherungsweise proportional. Unter Defokussierung wird der Abstand eines Objektpunktes von der exakten Fokusposition oder Schärfeposition der projizierten Laserlinie verstanden. Dieser Abstand ist die hier zu messende Größe. Die Fokusposition der Laserlinie kann, muss aber nicht, mit der Brennebene eines Fokussier-Objektivs zusammenfallen. Die Bestimmung des Abstandes von Objektpunkten in einer Linie von der Fokusposition der Laserlinie soll gleichzeitig bestimmt werden, um so das Linienprofil in dieser Linie zu bestimmen. Jedem Objektpunkt der zu messenden Oberfläche ist auf dem Kamera-Chip eine Linie zugeordnet, die eine Zeile oder Spalte des Kamera-Chips sein kann.It becomes the spatial frequency of the shear stripe pattern or the phase response over a reference width 2 B determined in at least one line of the camera chip. This line is preferably in the defined reference plane. This determination of the spatial frequency can be carried out comparatively simply and quickly, for example, by performing the discrete Fast Fourier Transformation (FFT). The difference between the spatial frequency detectable by an object point and the spatial frequency of the same object point in the focus position is approximately proportional to the defocusing, at least in a limited depth range. Defocusing means the distance of an object point from the exact focus position or focus position of the projected laser line. This distance is the quantity to be measured here. The focus position of the laser line can, but does not have to, coincide with the focal plane of a focusing lens. The determination of the distance of object points in a line from the focus position of the laser line should be determined at the same time in order to determine the line profile in this line. Each object point of the surface to be measured is assigned a line on the camera chip, which line can be a row or column of the camera chip.

Bekanntlich kann die Fourier-Transformation eines Interferenzstreifen-Musters aber auch mittels eines optisch adressierbaren Spatial Light Modulators (OASLM) erfolgen, mit welchem die Schwerpunktlage oder Schwerpunktlagen durch Beugung abgelenkter Bündel eines Auslese-Lasers in der Fourier-Ebene eines Objektivs mittels einer Kamera bestimmt werden. Dies wurde bereits 1998 im Institut für Technische Optik der Universität Stuttgart von K.-P. Proll unter Betreuung von Herrn Prof. H. J. Tiziani untersucht.generally known can do the Fourier transform of an interference fringe pattern but also by means of an optically addressable spatial light modulator (OASLM) with which the center of gravity or centers of gravity bundle deflected by diffraction a readout laser in the Fourier plane of a lens be determined by a camera. This was done in 1998 at the Institute for Technical University optics Stuttgart by K.-P. Proll under the supervision of Prof. H. J. Titiani examined.

Bei dieser Erfindung adressiert in Abhängigkeit von der Tiefenposition eines Objektpunktes das ortsfrequenzvariable Shear-Streifen-Muster das OASLM. Von Vorteil ist hierbei der Einsatz von schnellen OASLMs, die im KHz-Bereich arbeiten. So kann auch eine vergleichsweise schnelle Durchführung der Fourier-Transformation mit optischen Mitteln erfolgen.at of this invention addresses depending on the depth position the spatial frequency variable shear stripe pattern of an object point the OASLM. The advantage here is the use of fast OASLMs, who work in the KHz range. So a comparatively fast one execution the Fourier transformation with optical means.

Die Beleuchtung der Objektoberfläche erfolgt mit einer Lichtquelle mit mindestens einer Lichtwellenlänge, beispielsweise ein cw-Laser oder ein gepulster Laser, und mit mindestens einem wellenfrontformenden Objektiv und dem bereits genannten Fokussier-Objektiv.The Illumination of the object surface takes place with a light source with at least one light wavelength, for example a cw laser or a pulsed laser, and with at least one wavefront-forming lens and the focusing lens already mentioned.

Wird ein hochfrequent gepulster Laser eingesetzt, beispielsweise mit Pulswiederholraten im Kilohertzbereich oder Megahertzbereich, ist es zweckmäßig, den gepulsten Laser mit einer Hochfrequenzkamera zu synchronisieren. So können bei Einsatz geeigneter leistungsstarker sowie hochfrequent gepulster Laserquellen und Hochfrequenzkameras mit Bildwiederholraten in der Größenordnung von 1 Million Bildern pro Sekunde auch Profile ausschnittsweise oder stichprobenhaft abgetastet werden, die sich im Bereich von einigen Metern pro Sekunde bewegen. Bei diesen Bedingungen wird z. Z. jedoch – wegen der noch zu geringen Dynamik der OASLMs – nur die digitale Durchführung der Fast Fourier-Transformation (FFT) als realisierbar angesehen.Becomes a high-frequency pulsed laser is used, for example with Pulse repetition rates in the kilohertz range or megahertz range it expedient that to synchronize pulsed lasers with a high-frequency camera. So can when using suitable powerful and high-frequency pulsed Laser sources and high frequency cameras with refresh rates in the Magnitude sections of 1 million frames per second or sampled in the range of move a few meters per second. Under these conditions z. Z. however - because of the still too low dynamics of the OASLMs - only the digital implementation of the Fast Fourier Transform (FFT) is considered feasible.

Das wellenfrontformende Objektiv ist vorzugsweise mit einer Zylinderlinse zur Ausbildung mindestens einer Fokuslinie vorzugsweise zumindest näherungsweise in der Brennebene des Fokussier-Objektivs ausgebildet. Die Lichtquelle kann auch aus einer Zeile aus Einzel-Laserdioden bestehen, beispielsweise einer Zeile mit 256 Einzel-Laserdioden. Es ist aber auch möglich, dass dem Fokussier-Objektiv eine Mikrolinsenanordnung, vorzugsweise eine Mikrolinsenzeile, vorgeordnet ist. So ist es möglich, dass gemäß der Anzahl der Mikrolinsen einzelne Fokuspunkte vorzugsweise eine Linie von separierten Fokuspunkten bilden. Die Beleuchtung dieser Mikrolinsenzeile kann mittels Bündelquerschnittformer auf der Grundlage von Prismen-Anamorphoten erfolgen.The wavefront-forming lens is preferably with a cylindrical lens to form at least one focus line, preferably at least approximately formed in the focal plane of the focusing lens. The light source can also consist of a row of individual laser diodes, for example one row with 256 single laser diodes. But it is also possible that the focusing objective a microlens arrangement, preferably one Microlens line, is upstream. So it is possible that according to the number the microlenses individual focus points preferably a line of separate focus points. The illumination of this microlens line can be done using a bundle cross-section former based on prism anamorphic.

Es wird also vorzugsweise mindestens eine schmale Fokuslinie oder vorzugsweise eine Linie von separierten Fokuspunkten im Objektraum ausgebildet. Es wird weiterhin von einer Fokuslinie gesprochen, den Fall einer Linie von separierten Fokuspunkten eingeschlossen.So it will preferably be at least one narrow focus line or preferably a line of separated focus points in the object space. There is still talk of a focus line, including the case of a line of separated focus points.

Das auf das Objekt treffende Licht aus der Fokuslinie wird durch Reflektion und/oder Streuung mittels Strahlenbüschel, deren Ebene parallel zur Fokuslinie liegt, auf den Kamera-Chip einer Flächenkamera – oder einer Zeilenkamera bei nur einem Fokuspunkt – zumindest näherungsweise scharf abgebildet. Das Licht aus Strahlen aus einer zur Fokuslinie senkrechten Ebene wird nicht auf den Kamera-Chip fokussiert, sondern deutlich vor oder nach dem Kamera-Chip.The Light from the focus line striking the object is reflected and / or scattering using bundles of rays, the plane of which is parallel to the focus line lies on the camera chip of an area camera - or one Line scan camera with only one focus point - at least approximately sharply depicted. The light from rays from one to the focus line vertical plane is not focused on the camera chip, but clearly before or after the camera chip.

Im Kameraraum wird eine Lateral-Shear senkrecht zur Richtung der schmalen Fokuslinie erstens durch Strahlteilung mittels Diffraktion oder zweitens durch Amplitudenteilung an einer Strahlenteilerschicht erzeugt. Außerdem wird eine Wellenfrontformung des Lichtes auf dem Weg vom Objekt zur Kamera so durchgeführt, dass eine asphärische, vorzugsweise eine zylindrische Wellenfront gebildet wird und so eine astigmatische Abbildung der Fokuslinie auf die Kamera besteht. Die zylindrische Wellenfront wird mittels astigmatisch abbildendem System erzeugt, wobei dieses System ein refraktives oder ein diffraktives Zylinderobjektiv sein kann, wobei die Zylinderachse parallel zur Fokuslinie ausgerichtet sein kann. Das astigmatisch abbildende System kann auch durch einen Prismenanamorphoten in Verbindung mit einem schwachen, sphärischen Objektiv gebildet sein. Das astigmatisch abbildende System kann jedoch auch durch einen Prismenanamorphoten nur in Verbindung mit einem sphärisch ausgebildeten Fokussier-Objektiv gestaltet sein. Weiterhin kann der Kamera ein Kameraobjektiv vorgeordnet sein, welches zur scharfen Abbildung der Strahlen der Lichtbüschel dient, die sich in zur Fokuslinie parallelen Ebenen ausbreiten.in the Camera space becomes a lateral shear perpendicular to the direction of the narrow Focus line firstly by beam splitting by means of diffraction or secondly, by splitting the amplitude on a beam splitter layer generated. Moreover becomes a wavefront formation of light on the way from the object done to the camera so that an aspherical, preferably a cylindrical wavefront is formed and so there is an astigmatic image of the focus line on the camera. The cylindrical wavefront is created by means of astigmatic imaging System generated, which system is a refractive or a diffractive Cylinder lens can be, the cylinder axis parallel to Focus line can be aligned. The astigmatic imaging system can also be combined with a prism anamorphic weak, spherical Be formed lens. The astigmatic imaging system can but also only in conjunction with a prism anamorphic a spherical trained focusing lens. Furthermore can a camera lens can be arranged in front of the camera, which is used for sharp Illustration of the rays of the tuft of light that is used in the Spread the focus line parallel planes.

Der Ort dieser Wellenfrontformung ist dem Lateral-Shear erzeugenden optischen Strahlenbündelteiler auf dem Lichtweg, also im Strahlengang, vorzugsweise vorgeordnet. Aus den Pixeln des Chips der flächenhaften Kamera, die auf einer Linie senkrecht zur schmalen Fokuslinie im Objektraum ausgerichtet sind, wird die räumliche Frequenz der Lichtverteilung bestimmt.The The location of this wavefront formation is the lateral shear generating optical beam splitter preferably upstream on the light path, i.e. in the beam path. From the pixels of the chip the areal Camera that is on a line perpendicular to the narrow focus line in the Object space are aligned, the spatial frequency of the light distribution certainly.

Ein Lateral-Shear erzeugender optischer Strahlenbündelteiler kann zum einen als ein lichtbeugendes Gitter mit einem nachgeordneten Objektiv ausgebildet sein, wobei sich das lichtbeugende Gitter in der ersten Brennebene dieses Objektivs, in Lichtausbreitungsrichtung betrachtet, befindet. Das Objektiv ist vorzugsweise das der Kamera zugeordnete. Dabei kann sich das lichtbeugende Gitter auch in einer zu dieser Brennebene optisch konjugierten Ebene befinden, jedoch nach dem Ort der Wellenfrontformung. Eine andere Möglichkeit, einen Lateral-Shear erzeugenden optischen Strahlenbündelteiler auszubilden, besteht in der Applikation eines Dreieck-Interferometers, welches einen zyklischen Strahlengang aufweist, welches dem Raum vor der Kamera oder dem Raum vor dem Fokussierobjektiv vorgeordnet ist. Mittels diesem Dreieck-Interferometer werden zwei kohärente Teilbündel, die eine Lateral-Shear 2Δq zueinander aufweisen, gebildet. Dieses Dreieck-Interferometer kann sich bei einer komplexen, mehrstufigen Abbildungsanordnung in jedem optisch konjugierten Raum, der zu diesen beiden genannten Räumen optisch konjugiert ist, befinden.On Lateral-shear optical beam splitter can be used as a a light diffractive grating is formed with a subordinate lens be, with the light diffractive grating in the first focal plane of this lens, viewed in the direction of light propagation. The lens is preferably that assigned to the camera. there the light-diffractive grating can also be in a plane at this focal plane optically conjugate plane, but according to the location of the wavefront formation. Another possibility, an optical beam splitter producing lateral shear training consists in the application of a triangular interferometer, which has a cyclic beam path, which the space placed in front of the camera or the room in front of the focusing lens is. By means of this triangular interferometer, two coherent sub-beams, the a lateral shear 2Δq to each other, formed. This triangle interferometer can each with a complex, multi-level imaging arrangement conjugated space that optically to these two spaces mentioned is conjugated.

Aus der räumlichen Frequenz der Lichtverteilung in der Ebene des Kamera-Chips wird nach rechnerischem Abzug einer Trägerfrequenz, die aus dem Radius der Zylinderwelle in der Detektions-Ebene resultiert, rechnerisch eine Differenzfrequenz gebildet, so dass mittels Pixel einer jeder Linie des Kamera-Chips, mindestens jedoch in einer Linie, die Differenzfrequenz bestimmt wird.Out the spatial Frequency of light distribution in the plane of the camera chip becomes after deducting a carrier frequency from the radius of the cylinder wave in the detection plane arithmetically results in a difference frequency formed so that by means of pixels of each line of the camera chip, at least in one line, the difference frequency determines becomes.

Diese Differenzfrequenz kann jeweils der z-Abweichung von der schmalen Fokuslinie im Objektraum eines jeden Objektpunktes der zugehörigen Linie auf der Kamera zumindest näherungsweise proportional sein. Grundsätzlich kann die Fourier-Transformation der Lateral-Shear-Verteilung – wie bereits dargestellt – auch mit optischen Mitteln durchgeführt werden.This Differential frequency can each be the z-deviation from the narrow Focus line in the object space of each object point of the associated line on the camera at least approximately proportional his. in principle can do the Fourier transform of the lateral shear distribution - as already shown - too performed with optical means become.

Im erfinderischen optischen Verfahren wird also eine Fokusfigur, ein Fokuspunkt oder eine Fokuslinielinie, auf der zu untersuchenden Objektoberfläche ausgebildet. Im weitweren wird die Fokuslinie betrachtet. Diese wird dabei auf die Objektoberfläche mehr oder weniger scharf abgebildet, so dass dabei innerhalb des Tiefenmessbereiches vorzugsweise eine linienhafte Lichtfigur auf der Objektoberfläche gebildet wird. Es erfolgt eine Abbildung der Objektoberfläche und eine Detektion. Die objektabbildenden, also die vom Objekt zurückkommenden, Strahlenbüschel in der Ebene senkrecht zur Fokuslinie, sind bei der Detektion grundsätzlich stark defokussiert, d. h. diese Strahlenbüschel bilden in der Ebene der Detektion keine linienhafte Lichtfigur. Auf dem Weg des Lichtes von der Objektoberfläche zur Ebene der Detektion, also im Strahlverlauf werden zwei kohärente Teilstrahlenbündel gebildet, die in Ebenen senkrecht zu einer Fokuslinie eine Lateral-Shear 2Δq, die ungleich null ist, aufweisen. Die objektabbildenden Strahlenbüschel in den Ebenen parallel zur Fokuslinie sind bei der Detektion eher gut fokussiert, bilden also das Objekt eher scharf in die Ebene der Detektion ab.in the inventive optical method becomes a focus figure, a Focus point or a focus line line on which to be examined object surface educated. The focus line is considered in more detail. This becomes more on the object surface or less sharply imaged so that it is within the depth measurement range preferably a linear light figure is formed on the object surface becomes. The object surface is mapped and detected. The object imaging, i.e. the tufts of rays coming back from the object the plane perpendicular to the focus line are fundamentally strong in the detection defocused, d. H. these bundles of rays form in the plane of the Detection not a linear light figure. On the way of the light from the object surface at the level of the detection, i.e. in the beam path, two coherent partial beams are formed, that in planes perpendicular to a focal line a lateral shear 2Δq that is not equal is zero. The object imaging rays in the planes parallel to the focus line are rather good for detection focused, so form the object rather sharply into the plane of the Detection.

Der Grundgedanke des erfinderischen Verfahrens, auf das notwendigste reduziert, ist der Folgende: Das Licht von der auf die Objektoberfläche abgebildeten Fokusfigur, vorzugsweise eine Fokuslinie, wobei grundsätzlich auch ein Fokusfleck erzeugt werden kann, erfährt eine Teilung der Amplitude. Den beiden dabei entstehenden kohärenten Teilstrahlenbündeln wird außerdem eine Lateral-Shear 2Δq, die ungleich null ist, in der Ebene senkrecht zur Fokuslinie aufgeprägt. Die objektabbildenden Strahlenbüschel in der Ebene senkrecht zur Fokuslinie werden bei der Detektion defokussiert und die objektabbildenden Strahlenbüschel in der Ebene parallel zur Fokuslinie werden bei der Detektion fokussiert. Letztere bilden also das Objekt eher scharf ab. So werden Shear-Streifen in der Ebene der Detektion gebildet und detektiert. Aus dem Phasengang senkrecht zu den Shear-Streifen in einem definierten Bereich 2b eines Kamera-Chips wird die Ablage eines jeden Objektpunktes von seiner Referenzposition durch die Phasendifferenz zum Referenzphasengang bestimmt.The basic idea of the inventive Ver driving, reduced to the bare minimum, is the following: The light from the focus figure depicted on the object surface, preferably a focus line, whereby in principle a focus spot can also be generated, experiences a division of the amplitude. A lateral shear 2Δq, which is not equal to zero, is also impressed on the two coherent partial beams that arise in the plane perpendicular to the focal line. The object-imaging bundles of rays in the plane perpendicular to the focus line are defocused during the detection and the object-imaging bundles of rays in the plane parallel to the focus line are focused during the detection. The latter therefore depict the object rather sharply. In this way, shear strips are formed and detected in the plane of the detection. From the phase response perpendicular to the shear strips in a defined area 2 B of a camera chip, the placement of each object point from its reference position is determined by the phase difference from the reference phase response.

Es wird also mindestens ein einziger Fokuspunkt oder eine einzige schmale Fokuslinie im Objektraum ausgebildet. Die Ausbildung mehrerer Fokuspunkt oder Fokuslinien ist auch möglich. Das Licht aus der oder den Fokusfiguren, vorzugsweise Fokuslinien auf dem Objekt wird gerichtet reflektiert und/oder gestreut.It becomes at least a single focus point or a single narrow one Focus line formed in the object space. Training multiple focus point or focus lines is also possible. The light from the focus figure (s), preferably focus lines the object is reflected and / or scattered in a directed manner.

Der optische Sensor zur Hochgeschwindigkeits-Profilbestimmung weist eine Lichtquelle mit mindestens einer einzigen Lichtwellenlänge auf. Dieser Lichtquelle ist mindestens eine Abbildungsstufe und außerdem ein Fokussier-Objektiv nachgeordnet, wobei die Abbildungsstufe und das Fokussier-Objektiv zum einen zur Ausbildung mindestens einer Fokuslinie auf der Objektoberfläche dienen. So wird mindestens eine linienhafte Lichtfigur auf der Objektoberfläche gebildet. Das Fokussier-Objektiv dient darüber hinaus zur Abbildung der Objektoberfläche mit der darauf abgebildeten Fokuslinie. Dem Fokussier-Objektiv ist eine Kamera mit einem Kamera-Chip nachgeordnet. Erfinderisch ist das Fokussier-Objektiv astigmatisch abbildend ausgebildet oder aber das Fokussier-Objektiv ist anastigmatisch abbildend ausgebildet und auf dem Lichtweg von der Objektoberfläche zur Kamera ist dem Fokussier-Objektiv mindestens ein astigmatisch abbildendes System nachgeordnet. So besteht in jedem Fall ein astigmatisches Abbildungssystem, welches die Fokuslinie von der Objektoberfläche astigmatisch auf den Kamera-Chip abbildet. Die objektabbildenden, also die vom Objekt zurückkommenden Strahlenbüschel in der Ebene senkrecht zur Fokuslinie, sind bei der Detektion grundsätzlich stark defokussiert, d. h. diese Strahlenbüschel bilden in der Ebene der Detektion dann keine linienhafte Lichtfigur.The optical sensor for high-speed profile determination has a light source with at least a single light wavelength. This light source is at least one imaging level and also a Subordinate focusing lens, the imaging level and that Focusing lens on the one hand serve to form at least one focus line on the object surface. In this way, at least one linear light figure is formed on the object surface. The focusing lens serves about it also to map the object surface with the focus line shown on it. A camera with a camera chip is arranged downstream of the focusing lens. According to the invention, the focusing lens has an astigmatic imaging design or the focusing lens is anastigmatic imaging and on the light path from the object surface to the camera, the focusing lens is at least one astigmatic imaging system downstream. In any case, there is an astigmatic imaging system which astigmatically maps the focus line from the object surface onto the camera chip. The object imaging rays, i.e. the rays coming back from the object in the plane perpendicular to the focus line are fundamentally strong in the detection defocused, d. H. these bundles of rays form in the plane of the Detection then no linear light figure.

Im Strahlengang von der Objektoberfläche zur Ebene des Kamera-Chips ist ein Lateral-Shear erzeugendes optisches Mittel angeordnet. So werden im Strahlverlauf zwei kohärente Teilstrahlenbündel gebildet, die in den Ebenen senkrecht zu einer Fokuslinie eine Lateral-Shear 2Δq aufweisen.in the Beam path from the object surface to the plane of the camera chip an optical means generating lateral shear is arranged. So become two coherent in the beam path Partial beams formed a lateral shear in the planes perpendicular to a focal line Have 2Δq.

Vorzugsweise ist dabei das astigmatisch abbildende System dem Lateral-Shear erzeugenden optischen Mittel vorgeordnet.Preferably is the astigmatic imaging system that produces the lateral shear optical system Advance funds.

Vorzugsweise ist das astigmatisch abbildende System als Prismenanamorphot oder als Gitteranamorphot oder als Prismen-Gitter-Anamorphot ausgebildet und außerdem dem Lateral-Shear erzeugenden Strahlenbündelteiler vorgeordnet.Preferably is the astigmatic imaging system as prism anamorphic or designed as a lattice anamorphic or as a prism lattice anamorphic and also upstream of the lateral shear generating beam splitter.

Es kann aber auch sein, dass das astigmatisch abbildende System mit mindestens einem Zylinderobjektiv ausgebildet ist. Dies ermöglicht eine volumenminimierte Anordnung.It can also be that the astigmatic imaging system with is formed at least one cylinder lens. This enables one volume-minimized arrangement.

Vorzugsweise ist der Lateral-Shear erzeugende optische Strahlenbündelteiler als ein asymmetrisches Dreieck-Interferometer ausbildet. Das Dreieck-Interferometer ist sehr robust und arbeitet am optischen Gangunterschied null. Dies ist für die stabile Funktion des Sensors von großer Bedeutung. Die sich am Ausgang desselben ergebende Lateral-Shear 2Δq ist eine Funktion der Asymmetrie und bei einem symmetrischen Dreieck-Interferometer null. Außerdem ist bei einem Dreieck-Interferometer die Lateral-Shear unabhängig von der Wellenlänge des Lichtes. Auch diese Eigenschaft kann bei der Signalauswertung von großem Vorteil sein, da so Licht unterschiedlicher Wellenlängen als cw-Licht oder gepulstes Licht mit Pulsen jeweils anderer Wellenlänge so Interferenz-Streifenmuster unterschiedlicher Ortsfrequenz bilden kann. Das gepulste Licht kann von einem oder mehreren Lasern generiert werden, wobei jeder Impuls eine andere Wellenlänge aufweisen kann. Bei Einsatz von mehreren gepulsten Lasern kann das Licht unterschiedlicher Wellenlänge zeitlich synchronisiert ausgesendet werden. So ist eine eindeutige Auswertung möglich.Preferably is the lateral-shear optical beam splitter as an asymmetrical triangle interferometer. The triangle interferometer is very robust and works on the optical path difference zero. This is for the stable function of the sensor is of great importance. The most The resultant lateral shear 2Δq is a function of asymmetry and zero for a symmetrical triangular interferometer. Besides, is for a triangular interferometer Lateral shear independent on the wavelength of the Light. This property can also be used in the signal evaluation of great Be an advantage because light of different wavelengths cw light or pulsed light with pulses of different wavelengths, so interference fringe patterns different spatial frequency can form. The pulsed light can generated by one or more lasers, each pulse a different wavelength can have. When using several pulsed lasers, this can Light of different wavelengths be sent synchronized in time. So is a clear one Evaluation possible.

Mittels Frequenzanalyse können über diese Interferenz-Streifenmuster unterschiedlicher Ortsfrequenz die erzeugenden Lichtwellenlängen wiedererkannt werden. Dies ist von Vorteil, wenn mehrere linienhafte Lichtfiguren mit Licht verschiedener Wellenlänge an lateral oder in der Tiefe verschiedenen Orten im Objektraum ausgebildet werden sollen. Es können Lichtquellen eingesetzt werden, die Frequenzkämme erzeugen. Mittels dieser spektralen Kodierung kann bei der Auswertung je über die zur Wellenlänge zugehörige Ortsfrequenz ν aus einer flächenhaften Lichtverteilung in der Detektorebene sowohl die z-Position als auch der laterale Ort eines Objektpunktes bestimmt werden. Dabei ist vorzugsweise dem asymmetrischen Dreieck-Interferometer im Strahlengang eine Spaltblende zugeordnet ist, wo die Strahlenbüschel aus Ebenen, die senkrecht zu Fokuslinien liegen, sich schneiden. Die Intensitätsverteilung I(x, ν) im Shear-Streifenfeld über x in der Ebene der Detektion, wobei die x-Richtung senkrecht zu den Streifen verläuft, kann mit der mittleren Intensität I0, der Streifensichtbarkeit ν, und einer Anfangsphase φ0, die aber in der Regel nahe null sein sollte, wie folgt beschrieben werden: I(x, ν) = I0[1 + ν·cos(2πνx + φ0)]. The generated light wavelengths can be recognized by means of frequency analysis using these interference fringe patterns of different spatial frequencies. This is advantageous if several linear light figures with light of different wavelengths are to be formed at different locations in the object space, laterally or in depth. Light sources that generate frequency combs can be used. By means of this spectral coding, both the z position and the lateral location of an object point can be determined in the evaluation based on the spatial frequency ν associated with the wavelength from a surface light distribution in the detector plane. The asymmetrical triangular interferometer is preferred A slit diaphragm is assigned in the beam path, where the tufts of rays intersect from planes that are perpendicular to focus lines. The intensity distribution I (x, ν) in the shear stripe field over x in the plane of the detection, the x direction being perpendicular to the stripes, can be determined with the mean intensity I 0 , the stripe visibility ν, and an initial phase φ 0 but usually should be close to zero, as follows: I (x, ν) = I 0 [1 + ν · cos (2πνx + φ 0 )].

Für die Ortsfrequenz ν ergibt sich dann:

Figure 00080001
wobei ρL die detektierte Streifenzahl auf dem Kamera-Chip der ausgewerteten Breite 2b beträgt. Für den Randstrahlwinkel α gilt dann für hinreichend kleine Winkel näherungsweise
Figure 00080002
Then for the spatial frequency ν:
Figure 00080001
where ρ L is the detected number of strips on the camera chip of the evaluated width 2 B is. For the marginal jet angle α then approximately applies for sufficiently small angles
Figure 00080002

Dabei stellt r den jeweils aktuellen Abstand des idealisierten Quellpunktes der interferierenden Wellen in einem Schnitt senkrecht zur Fokuslinie dar. Im Fall, dass sich ein Objektpunkt im Fokus des Fokussier-Objektivs befindet, soll r = r0 gelten. Ein möglicher Wert für r0 kann bei entsprechender Gestaltung des optischen Layouts des Sensors die Brennweite des Kameraobjektivs fK' sein. Ist der betrachtete Objektpunkt um einen Betrag Δz defokussiert, verändert sich der Randstrahlwinkel α. Liegt der idealisierte Quellpunkt der interferierenden Teilstrahlenbündel, die durch Zylinderwellen hinreichend gut beschrieben werden können, in der Hauptebene des Kameraobjektivs, gilt Δz = Δr, und es folgt für den hinreichend kleinen, objektpunktabhängigen Randstrahlwinkel α

Figure 00080003
In this case, r represents the current distance of the idealized source point of the interfering waves in a section perpendicular to the focus line. In the event that an object point is in the focus of the focusing lens, r = r 0 should apply. A possible value for r 0 can be the focal length of the camera lens f K 'if the optical layout of the sensor is designed accordingly. If the object point under consideration is defocused by an amount Δz, the marginal beam angle α changes. If the idealized source point of the interfering partial beam bundles, which can be described sufficiently well by cylinder waves, lies in the main plane of the camera lens, Δz = Δr applies, and it follows for the sufficiently small, object point-dependent edge beam angle α
Figure 00080003

Aus diesen Zusammenhängen kann sowohl die Abhängigkeit der Streifenzahl ρL, die ja für den ortsabhängigen Phasengang über dem Detektionsfeld steht, bzw. die Ortsfrequenz in Abhängigkeit von der Ablage Δz des jeweiligen Objektpunktes von der Brennebene des Kameraobjektivs mit

Figure 00090001
bestimmt werden. Bei einer Breite des ausgewerteten Streifenfeldes von beispielsweise 2b = 4mm, wobei dieser Breite etwa 640 Pixel auf dem Kamera-Chip zugeordnet sind, einer fest eingestellten Lateral-Shear von 2Δq = 0,5 mm, bei einer Brennweite des Fokussierobjektivs fK' = 25 mm und einer Ablage des betrachteten Objektpunktes vom Fokus von 5 μm ergibt sich für die Lichtwellenlänge λ = 0,5 μm über dem Detektionsfeld eine Änderung der Streifenzahl um 0,032 bei einer Gesamtstreifenzahl von 160. Diese Änderung der Streifenzahl entspricht einer Phasenänderung im Feld von 11,5° über der Breite von 4mm. Eine derartige Phasenänderung kann mit den bekannten phasenauswertenden Algorithmen noch gut aufgelöst werden, wenn man bedenkt, dass im phasenauswertenden Algorithmus bis zu 640 Pixel für einen einzigen Phasenwert ausgewertet werden können. Dies trifft auch zu, wenn der Phasengang über dem Feld bei besonders kleinen Brennweiten fK' nicht streng linear ist. Dafür sind die Algorithmen in geeigneter Weise anzupassen. Wie das Dimensionierungsbeispiel zeigt, kann mit einem derartig dimensionierten Sensor eine Auflösung von besser als 5 μm erreicht werden. Es ergibt sich somit im Vergleich zu einem abstandsmessenden Interferometer mit der Lichtwellenlänge von ebenfalls 0,5 μm ein Dehnungsfaktor der effektiven Wellenlänge des Sensors von 625.From these relationships, both the dependence of the number of strips ρ L , which stands for the location-dependent phase response over the detection field, and the spatial frequency, depending on the offset Δz of the respective object point, on the focal plane of the camera lens
Figure 00090001
be determined. With a width of the evaluated strip field of, for example, 2b = 4mm, this width being assigned about 640 pixels on the camera chip, a fixed lateral shear of 2Δq = 0.5mm, with a focal length of the focusing lens f K '= 25 mm and a deposit of the object point under consideration from the focus of 5 μm, for the light wavelength λ = 0.5 μm above the detection field there is a change in the number of strips by 0.032 with a total number of strips of 160. This change in the number of strips corresponds to a phase change in the field of 11. 5 ° across the width of 4mm. Such a phase change can still be resolved well with the known phase-evaluating algorithms, if one considers that up to 640 pixels can be evaluated for a single phase value in the phase-evaluating algorithm. This also applies if the phase response over the field is not strictly linear at particularly small focal lengths f K '. The algorithms have to be adapted accordingly. As the dimensioning example shows, a resolution of better than 5 μm can be achieved with such a dimensioned sensor. In comparison to a distance-measuring interferometer with the light wavelength of also 0.5 μm, this results in a strain factor of 625 for the effective wavelength of the sensor.

Der Tiefenmessbereich liegt bei dieser Aufgabenstellung in der Größe von mindestens 100 μm und ist somit für die Messung eines Mikroprofils in der Regel hinreichend groß. Zu bemerken ist noch, dass die unterschiedliche Tiefenposition nur eine vergleichsweise geringe Modulation der Ortsfrequenz erzeugt. In der Regel liegt die Abweichung von der mittleren Ortsfrequenzen in einem Bereich von maximal etwa +/– 2%. Dies ergibt sich aus dem begrenzten Tiefenschärfebereich. Außerhalb dieses Tiefenschärfebereiches ist der Kontrast der Interferenzerscheinung null. So kann ein Streifenmuster dessen zugehörige Lichtwellenlänge sich beispielsweise um mehr als 5% von einer ersten Wellenlänge, unterscheidet durch ein geeignetes frequenzselektives numerisches Auswerteverfahren „identifiziert" werden. Mit diesem Ansatz können in der Tiefe des Objektraumes mehrere, numerisch unterscheidbare Fokuslinien „positioniert" werden. Dies bietet die Möglichkeit der Schaffung eines gegenüber einer Einzelwellenlänge mehrfach vergrößerten Tiefenmessbereiches. So kann eine sehr hohe Messgenauigkeit durch diesen Mehrwellenlängen-Ansatz, bzw. chromatischen Ansatz mit einem großen Tiefenmessbereich gekoppelt werden. Die numerischen Auswerteverfahren können beispielsweise auf der Grundlage einer Bandpassfilterung durchgeführt werden, wobei diese Verfahren hier nicht weiter diskutiert werden. Es ist in jedem Fall hierbei jedoch möglich, moderne phasenauswertende Verfahren, einschließlich Wavelets, anzuwenden, um den Gesamtphasengang über der Breite 2b oder die Abweichung desselben von einem mittleren Gesamtphasengang mit hoher Auflösung zu bestimmen. Der Gesamtphasengang kann in der Größenordnung von 1000π liegen. Bestimmt werden muss also letztlich immer der Gesamtphasengang in jeder Linie des Kamera-Chips, die senkrecht zu den Shear-Streifen liegt. Dabei gibt es bei einer cw-Multiwellenlängen-Lichtquelle in der Regel gleichzeitig mehrere Muster unterschiedlicher Ortsfrequenz, um den Tiefenbereich lückenlos abdecken zu können. Bei der Auswertung muss jedoch beachtet werden, dass die Ortsfrequenz im Streifenmuster bei der Auswertung größerer Felder nur näherungsweise eine Konstante ist.The depth measurement range for this task is the size of at least 100 μm and is therefore usually sufficiently large for the measurement of a micro profile. It should also be noted that the different depth position only produces a comparatively small modulation of the spatial frequency. As a rule, the deviation from the mean spatial frequencies lies in a range of at most approximately +/- 2%. This results from the limited depth of field. Outside this depth of field, the contrast of the interference phenomenon is zero. For example, a stripe pattern whose associated light wavelength differs by more than 5% from a first wavelength can be "identified" by a suitable frequency-selective numerical evaluation method. With this approach, several numerically distinguishable focus lines can be "positioned" in the depth of the object space. This offers the possibility of creating a depth measurement range that is multiply enlarged compared to a single wavelength. A very high measurement accuracy can thus be coupled with a large depth measurement range using this multi-wavelength approach or chromatic approach. The numerical evaluation methods can be carried out, for example, on the basis of bandpass filtering, these methods not being discussed further here. In any case, however, it is possible to use modern phase evaluation methods, including wavelets, to cover the overall phase response across the width 2 B or to determine the deviation of the same from an average overall phase response with high resolution. The overall phase response can be of the order of 1000π. Ultimately, the total phase response in each line of the camera chip must be determined that is perpendicular to the Shear strip lies. In the case of a cw multi-wavelength light source, there are usually several patterns of different spatial frequencies at the same time in order to be able to cover the depth range without gaps. When evaluating, however, it must be noted that the spatial frequency in the stripe pattern is only approximately a constant when evaluating larger fields.

Es ist auch möglich, bei beispielsweise drei Laserwellenlängen, die 475 nm, 532 nm und 635 nm oder auch 633 nm betragen können, einen refraktiv, dispersiv oder dispersiv-refraktiv wirkenden optischen Keil im Strahlengang anzuordnen. Der optische Keil, der für die mittlere Wellenlänge vorzugsweise eine Ablenkung von null aufweist, ist im Strahlengang vorzugsweise vor dem Kameraobjektiv angeordnet und erzeugt eine wellenlängenabhängige Ablenkung der Lichtstrahlenbündel. So ergeben sich in der Detektions-Ebene, also auf dem Kamera-Chip, drei lateral völlig getrennte Bereiche für die drei Streifenmuster in den drei Wellenlängen. So ist eine einfache Auswertung der drei Streifenmuster möglich, da jeweils nur monofrequente Signale auftreten. Dabei sollten sich die drei Messbereiche in der Tiefe etwas überlappen.It is possible, too, at three laser wavelengths, for example, the 475 nm, 532 nm and 635 nm or 633 nm can be a refractive, dispersive or dispersive-refractive optical wedge in the beam path to arrange. The optical wedge, which is preferred for the medium wavelength having a deflection of zero is preferred in the beam path arranged in front of the camera lens and generates a wavelength-dependent deflection the beam of light. This results in three in the detection level, i.e. on the camera chip laterally completely separate areas for the three stripe patterns in the three wavelengths. So is an easy one Evaluation of the three stripe patterns possible, since only monofrequency Signals occur. The three measuring ranges in the Overlap depth slightly.

Weiterhin wird der folgende erfinderische Ansatz vorgeschlagen: Der optische Sensor zur Hochgeschwindigkeits-Profilbestimmung weist eine Lichtquelle mit mindestens einer Lichtwellenlänge auf. Dieser ist mindestens eine Abbildungsstufe und außerdem ein Fokussier-Objektiv nachgeordnet, wobei die Abbildungsstufe und das Fokussier-Objektiv zum einen zur Ausbildung mindestens einer Fokuslinie auf der Objektoberfläche dienen. So wird eine linienhafte Lichtfigur auf der Objektoberfläche gebildet. Das Fokussier-Objektiv dient darüber hinaus zur Abbildung der Objektoberfläche mit der Fokuslinie. Dem Fokussier-Objektiv sind ein Kameraobjektiv und eine Kamera mit einem Kamera-Chip nachgeordnet. Erfinderisch ist hierbei, dass dem Fokussier-Objektiv auf dem Lichtweg mindestens ein astigmatisch abbildendes System nachgeordnet und dem Kameraobjektiv vorgeordnet sein kann und diesem Kameraobjektiv vorzugsweise ein Phasengitter zugeordnet ist, welches sich zumindest näherungsweise in der Fokusebene des Kameraobjektivs befindet, welche dem Fokussierobjektiv zugewandt ist. Das Phasengitter in der Fokusebene des Kameraobjektivs stellt gemeinsam mit dem Kameraobjektiv ebenfalls einen Lateral-Shear erzeugenden optischen Strahlenbündelteiler dar, jedoch ist hierbei bekannterweise die nach dem Kameraobjektiv auftretende Lateral-Shear abhängig von der Wellenlänge λ des verwendeten Lichtes. Als Effekt ergibt sich so in der Ebenen des Kamera-Chips für alle Wellenlängen die gleiche Ortsfrequenz. Dies kann von Vorteil sein, jedoch kann so aber keine Trennung von Licht verschiedener Wellenlängen erreicht werden.Farther the following inventive approach is proposed: the optical one Sensor for high-speed profile determination has a light source with at least one light wavelength. This is at least a mapping level and beyond a focusing lens downstream, the imaging level and the focusing lens on the one hand for training at least one Focus line on the object surface serve. This creates a linear light figure on the surface of the object. The Focusing lens serves over it to map the object surface with the focus line. The focusing lens are a camera lens and a camera with a camera chip. What is innovative here is that the focusing lens is on the light path subordinate at least one astigmatic imaging system and can be arranged upstream of the camera lens and this camera lens preferably a phase grating is assigned, which is at least approximately in the focal plane of the camera lens, which is the focusing lens is facing. The phase grating in the focal plane of the camera lens also produces a lateral shear together with the camera lens generating optical beam splitter represents, but this is known to be after the camera lens occurring lateral shear dependent on the wavelength λ of the light used. The effect is thus in the plane of the camera chip for all wavelengths same spatial frequency. This can be an advantage, but it can be no separation of light of different wavelengths can be achieved.

Weiterhin wird der folgende erfinderische Ansatz für den Sensor vorgeschlagen: Der optische Sensor vorzugsweise zur Hochgeschwindigkeits-Profilbestimmung weist eine Lichtquelle mit mindestens einer Lichtwellenlänge auf. Dieser ist mindestens eine Abbildungsstufe und außerdem ein Fokussier-Objektiv nachgeordnet, wobei die Abbildungsstufe und das Fokussier-Objektiv zum einen zur Ausbildung mindestens einer Fokuslinie auf der Objektoberfläche dienen. So wird eine linienhafte Lichtfigur auf der Objektoberfläche gebildet. Das Fokussier-Objektiv dient darüber hinaus zur Abbildung der Objektoberfläche mit der Fokuslinie. Dem Fokussier-Objektiv sind ein Kameraobjektiv und eine Kamera mit einem Kamera-Chip nachgeordnet. Erfindungsgemäß können dem Fokussier-Objektiv auf dem Lichtweg mindestens ein astigmatisch abbildendes System nachgeordnet und ein Lateral-Shear erzeugender optischer Strahlenbündelteiler dem Kameraobjektiv nachgeordnet und dem Kamera-Chip vorgeordnet sein. Dies führt zu einer platzsparenden Anordnung, wenn vorzugsweise das abbildende System mit mindestens einem Zylinderobjektiv ausgebildet ist. Vorzugsweise ist dabei die Zylinder-Achse dieses Zylinderobjektivs parallel zur Fokuslinie angeordnet. Das astigmatisch abbildende System ist dabei vorzugsweise mit mindestens einem Prismenanamorphoten ausgebildet. Vorzugsweise wird der Lateral-Shear erzeugende optische Strahlenbündelteiler als ein Dreieck-Interferometer ausgebildet, um eine eine wellenlängenunabhängige Lateral-Shear erzeugen zu können. Wird jedoch für den Lateral-Shear erzeugende optische Strahlenbündelteiler ein Phasengitter eingesetzt, beispielsweise um eine sehr kompakte Sensoranordnung zu erhalten, wird das Phasengitter mit äquidistanten Furchen ausgebildet. Vorzugsweise weist das Zylinderobjektiv die gleiche Brennweite wie das Kameraobjektiv auf und der Fokus des Zylinderobjektivs befindet sich zumindest näherungsweise im Hauptpunkt des Kameraobjektivs, der dem Zylinderobjektiv zugewandt ist. So kann das Kameraobjektiv in der Ausdehnung im Hauptschnitt zur Volumenminimierung beschnitten werden. Das Zylinderobjektiv ist vorzugsweise als Phasengitter ausgebildet, um Bauvolumen zu sparen. Vorzugsweise ist eine Doppelspaltblende in der Fokalebene des Zylinderobjektivs angeordnet. Diese Doppelspaltblende sperrt unerwünschtes streuendes und gebeugtes Licht.Farther the following inventive approach is proposed for the sensor: The optical sensor preferably for high-speed profile determination has a light source with at least one light wavelength. This is followed by at least one imaging level and also a focusing lens, the imaging level and the focusing lens on the one hand Form at least one focus line on the object surface. This creates a linear light figure on the surface of the object. The focusing lens serves above to map the object surface with the focus line. the Focusing lenses are a camera lens and a camera with one Subordinate camera chip. According to the focusing lens at least one astigmatic imaging system on the light path downstream and an optical beam splitter producing lateral shear downstream of the camera lens and upstream of the camera chip his. this leads to to a space-saving arrangement, if preferably the imaging System with at least one cylinder lens is formed. Preferably the cylinder axis of this cylinder lens is parallel to Focus line arranged. The astigmatic imaging system is included preferably formed with at least one prism anamorphic. The lateral-shear-generating optical beam splitter is preferably used designed as a triangular interferometer to produce a wavelength-independent lateral shear to be able to. However, for the optical beam splitter generating the lateral shear is a phase grating used, for example around a very compact sensor arrangement To obtain the phase grating is formed with equidistant furrows. The cylinder lens preferably has the same focal length as the camera lens is on and the focus of the cylinder lens is at least approximately in the main point of the camera lens that faces the cylinder lens is. This allows the camera lens to expand in the main section be trimmed to minimize volume. The cylinder lens is preferably designed as a phase grating to increase construction volume save up. A double slit diaphragm is preferably in the focal plane arranged of the cylinder lens. This double slit diaphragm locks undesirable scattering and diffracted light.

Der Sensor ist vorzugsweise in der folgenden Weise ausgebildet. Als Lichtquelle wird ein Laser eingesetzt und das Fokussierobjektiv und Kameraobjektiv sind als eine afokale Abbildungsstufe ausgebildet. Das vorzugsweise angeordnete Phasengitter zur Erzeugung von zwei kohärenten Teilbündeln ist in der gemeinsamen Brennebene von Fokussierobjektiv und Kameraobjektiv angeordnet. Das astigmatische Abbildungssystem ist vorzugsweise als diffraktive Zylinderlinse ausgebildet und der diffraktiven Zylinderlinse ist vorzugsweise eine Spaltblende nachgeordnet.The sensor is preferably designed in the following manner. A laser is used as the light source and the focusing lens and camera lens are designed as an afocal imaging stage. The preferably arranged phase grating for generating two coherent sub-beams is arranged in the common focal plane of the focusing lens and the camera lens. The astigmatic imaging system is preferably designed as a diffractive cylinder lens and the diffractive cylinder A slit diaphragm is preferably arranged downstream of the lens.

Vorzugsweise kann das diffraktiv und vorzugsweise auch als Phasengitter ausgebildete Zylinderobjektiv auch etwas dezentriert sein, wobei die Richtung der Dezentrierung senkrecht zur Fokuslinie ausgebildet ist. So entstehen durch Amplitudenteilung vorzugsweise zwei kohärente Teilbündel mit unterschiedlicher Krümmung. Vorzugsweise werden die kohärenten Teilbündel mittels Sagittalstrahlen scharf in die Ebene der Detektion abgebildet. Vorzugsweise wird ein kohärentes Teilbündel mittels Meridionalstrahlen scharf in die Ebene der Detektion abgebildet. In diesem Fall entstehen keine äquidistanten Shear-Interferenz-Streifen in der Ebene der Detektion. Jedoch ist eines der kohärenten Bündel vom anderen vollständig überdeckt. So wird die Lichtenergie optimal genutzt.Preferably can the diffractive and preferably also formed as a phase grating Cylinder lens should also be slightly off-centered, taking the direction the decentration is formed perpendicular to the focus line. So arise by splitting the amplitude preferably two coherent sub-beams with different ones Curvature. Preferably the coherent ones partial bundle depicted sharply in the plane of the detection by means of sagittal rays. Preferably a coherent one partial bundle imaged sharply into the plane of the detection by means of meridional rays. In this case, there are no equidistant shear interference fringes in the level of detection. However, one of the coherent bundles is from completely covered others. So the light energy is used optimally.

Für den Sensor können mehrere Laser mit jeweils unterschiedlichen Wellenlängen als Lichtquellen eingesetzt werden. Es kann zur spektralen Trennung des Lichtes eine farbsensitive Kamera mit mindestens zwei Farbkanälen oder wie bereits erwähnt ein optischer Keil zur spektralen Aufspaltung angeordnet sein, beispielsweise der ImSpektor der Firma ZEUTEC verwendet werden. Dabei ist das Fokussierobjektiv vorzugsweise chromatisch ausgebildet, jedoch das Kameraobjektiv vorzugsweise achromatisch ausgebildet. Diese chromatische Gestaltung des Fokussierobjektivs ermöglicht, eine zweite oder weitere Fokuslinien in einer jeweils anderen Tiefe des Objektraumes auszubilden.For the sensor can several lasers with different wavelengths each Light sources are used. It can be used for spectral separation the light a color sensitive camera with at least two color channels or As already mentioned an optical wedge for spectral splitting may be arranged, for example the inspector from ZEUTEC can be used. Here is the focusing lens preferably chromatic, but the camera lens preferably achromatic. This chromatic design of the Focusing lens enables a second or further focus lines at a different depth of the object space.

Beim Verfahren mit den angegebenen Mitteln wie Lichtquelle, Fokussier-Objektiv, Kamera-Chip einer Kamera ist also eine schmale Fokuslinie im Objektraum ausgebildet. Dabei wird das auf das Objekt treffende Licht aus der Fokuslinie durch Reflektion und/oder Streuung mittels Strahlenbüschel, deren Ebenen parallel zur Fokuslinie liegen, scharf abgebildet. Die Strahlenbüschel, deren Ebenen senkrecht zur Fokuslinie liegen sind bei der Detektion defokussiert und vor der scharfen Abbildung aus dem Strahlenbündel vom Objekt werden zwei kohärente Teilstrahlenbündel erzeugt, die eine Lateral-Shear zueinander und in der Ebene senkrecht zur Fokuslinie aufweisen. So können bei der Detektion in der Ebene der scharfen Abbildung der Strahlenbüschel Shear-Streifen aufgenommen werden.At the Process with the specified means such as light source, focusing lens, The camera chip of a camera is therefore a narrow line of focus in the object space educated. The light that strikes the object is turned off Focus line by reflection and / or scattering by means of bundles of rays, the Layers are parallel to the focus line, shown sharply. The bundles of rays whose Planes lying perpendicular to the focus line are defocused during detection and before the sharp image from the beam of the object becomes two coherent Partial beams which generates a lateral shear to each other and in the plane perpendicular to the focus line. So can upon detection in the plane of the sharp image of the bundle of shear strips be included.

Es können also gemäß dem erfinderischen Verfahren zwei kohärente Teilstrahlenbündel mit einer Lateral-Shear mittels erstens Strahlteilung durch Diffraktion oder zweitens Amplitudenteilung an einer Teilerschicht erzeugt werden. Weiterhin wird also eine Wellenfrontformung des Lichtes auf dem Weg vom Objekt zur Kamera durchgeführt wird. So werden zylindrische Wellenfronten gebildet und so besteht eine astigmatische Abbildung der Fokuslinie auf den Kamera-Chip der Kamera. Der Ort dieser Wellenfrontformung ist dem Lateral-Shear erzeugenden optischen Strahlenbündelteiler auf dem Lichtweg jeweils vorgeordnet und aus den Pixeln der flächenhaften Kamera, die auf einer Linie senkrecht zur schmalen Fokuslinie im Objektraum ausgerichtet sind, wird die räumliche Frequenz der Lichtverteilung oder der Phasengang über der lateralen Ausdehnung des Kamera-Chips bestimmt. Es kann aus dieser Frequenz nach Abzug einer Trägerfrequenz, die aus dem Radius der Zylinderwelle resultiert, eine Differenzfrequenz gebildet werden, so dass mittels Pixel einer jeder Linie des Kamera-Chips, mindestens jedoch in einer Linie, eine Differenzfrequenz bestimmt wird, wobei diese Differenzfrequenz jeweils zur Berechnung der z-Abweichung eines jeden Objektpunktes von der schmalen Fokuslinie im Objektraum verwendet wird.It can thus according to the inventive method two coherent Partial beams with a lateral shear using firstly beam splitting by diffraction or secondly, amplitude division is generated on a divider layer. Furthermore, a wavefront formation of the light on the Is carried away from the object to the camera. So become cylindrical Wavefronts formed and so there is an astigmatic image the focus line on the camera chip of the camera. The location of this wavefront formation is the optical beam splitter that produces lateral shear upstream on the light path and from the pixels of the areal Camera that is on a line perpendicular to the narrow focus line in the Object space are aligned, the spatial frequency of the light distribution or the phase response over the lateral extent of the camera chip. It can be out this frequency after subtracting a carrier frequency from the radius the cylinder shaft results, a difference frequency is formed, so that by means of pixels of each line of the camera chip, at least however, in a line, a difference frequency is determined, whereby this difference frequency to calculate the z-deviation of each object point from the narrow focus line in the object space is used.

Weiterhin können vorzugsweise mehrere Fokuslinien im Objektraum übereinander angeordnet sein, wodurch synchron das Mikroprofil über einen größeren Tiefenbereich erfasst werden kann. Vorzugsweise sind mehrere Fokuslinien unterschiedlicher Farbe im Objektraum nebeneinander angeordnet. Es können aber auch mehrere Fokuslinien im Objektraum unterschiedlicher Farbe auf einer schrägen Fläche angeordnet sein.Farther can preferably several focus lines are arranged one above the other in the object space, whereby the micro profile is synchronized over a larger depth range can be recorded. Several focus lines are preferably different Color arranged side by side in the object space. But it can also several focus lines in the object space of different colors one weird area be arranged.

Die Anordnungsreihenfolge von Shear-erzeugenden und Astigmatismus-erzeugenden optischen Mitteln ist beim Einsatz eines Dreieck-Interferometers zur Lateral-Shear Erzeugung beliebig. Beim Einsatz einer asphärischen Linse, in der Regel eine Zylinderlinse zur Erzeugung von Astigmatismus, und einem Phasengitter-Strahlenbündelteiler ist diese asphärische Linse dem Phasengitter stets vorgeordnet. Beim Einsatz eines Gitter- oder Prismen-Anamorphoten zur Erzeugung von Astigmatismus ist dessen Position zum Lateral-Shear erzeugenden optischen Strahlenbündelteiler beliebig. Für eine Multi-Linien-Anordnung, wobei der Linienort über die Wellenlänge diffraktiv oder refraktiv erzeugt wird, ist wohl ein Dreieck-Interferometer als Lateral-Shear erzeugender optischer Strahlenbündelteiler besonders geeignet, da jede Wellenlänge in der Detektorebene immer in eine eigene Ortfrequenz umgewandelt wird.The Arrangement order of shear-generating and astigmatism-generating optical means is when using a triangular interferometer arbitrary for the lateral shear generation. When using an aspherical Lens, usually a cylindrical lens to produce astigmatism, and a phase grating beam splitter is this aspherical Lens always precedes the phase grating. When using a grid or prism anamorphic to produce astigmatism is its Position to the optical beam splitter that generates lateral shear any. For a multi-line arrangement, the line location diffractive over the wavelength or generated refractive is probably a triangle interferometer as a lateral-shear optical beam splitter Particularly suitable because every wavelength is always in the detector plane is converted into its own spatial frequency.

Für einen Sensor mit einem besonders langbrennweitigen Fokussierobjektiv kann ein großer Tiefenmessbereich mit einer reduzierten Tiefenempfindlichkeit realisiert werden. So kann mit einer entsprechend schnellen Kamera eine Erfassung von vergleichsweise groben 3D-Profilen auch aus der Hand erfolgen. Dabei kann der Betrag der Bewegung in Bewegungsrichtung des Sensors, also hier in x-Richtung, durch ein externes optisches Positionsbestimmungssystem, beispielsweise in der An eines Mini-GPS, welches die Lage des Sensorkopfes zumindest näherungsweise erfasst werden. Es kann aber auch die Bewegung des Sensors durch eine Korrelationsauswertung von Strukturmerkmalen des Messobjektes selbst erfasst werden. Das optische Positionsbestimmungssystem kann dabei auch auf der Triangulation basieren.A large depth measuring range with reduced depth sensitivity can be realized for a sensor with a focusing lens that is particularly long in focus. With a correspondingly fast camera, comparatively rough 3D profiles can also be captured by hand. The amount of movement in the direction of movement of the sensor, here in the x direction, can be determined by an external optical position determination system, for example in the manner of a mini GPS, which at least approximately detects the position of the sensor head. But it can the movement of the sensor can also be detected by correlation evaluation of structural features of the measurement object itself. The optical position determination system can also be based on triangulation.

Für die Messung der Schichtdicke liefert jeder Reflex von einer Grenzfläche ein reflektiertes Bündel, welches in zwei kohärente Teilbündel aufgespaltet und vorzugsweise in der beschriebenen An astigmatisch abgebildet wird. Aus dem entstehenden Interferogramm in der Detektionsebene wird die Schichtdicke unter Berücksichtigung der bekannten Brechungsindizes der Schicht bestimmt. Bei diesem optisches Verfahren werden Informationen über die Schichtdicke einer Schicht gewonnen, indem das detektierte Interferogramm ausgewertet wird. Von besonderem Vorteil ist die Detektion mit einer schnellen CCD-Zeilenkamera.For the measurement the layer thickness is supplied by each reflex from an interface reflected bundle, which is in two coherent partial bundle split and preferably in the described to astigmatic is mapped. From the resulting interferogram in the detection plane the layer thickness is taken into account of the known refractive indices of the layer. With this optical Procedures will provide information about the layer thickness of a layer is obtained by the detected interferogram is evaluated. The detection with a is of particular advantage fast CCD line scan camera.

Beschreibung der FigurenDescription of the figures

Die in 1 bis 8 dargestellten Sensoren werden als Shearoline-Sensor bezeichnet, da die auf dem Objekt entstehende Fokusfigur jeweils eine Linie darstellt und der Shear-Effekt angewendet wird.In the 1 to 8th The sensors shown are called shearoline sensors because the focus figure on the object represents a line and the shear effect is applied.

Das in 1 von einer Laserdiode 1, die als Punktlichtquelle ausgebildet ist, ausgehende Lichtbündel gelangt auf eine refraktive Zylinderlinse 2, so dass die Strahlen im Hauptschnitt kollimiert werden. Gegebenenfalls auftretender Astigmatismus der Laserdiode 1 spielt hier nur eine untergeordnete Rolle, bzw. wird durch fachgerechtes Tun korrigiert. Die Strahlen senkrecht zum Hauptschnitt nach der Zylinderlinse 2 verlaufen unverändert weiter. So besteht eine zylindrische Welle mit der Zylinderachse parallel zur Hauptebene. Diese Welle tritt in den Teilerwürfel 3 ein. Das reflektierte Licht gelangt auf das sphärische Objektiv 4, dessen rückabgebildeter Brennpunkt mit der Punktlichtquelle zusammenfällt, und es entsteht wieder eine zylindrische Wellenfront, jedoch nun mit der Zylinderachse senkrecht zur Hauptschnitt. Es bildet sich auf dem Objekt 5 in und auch in der Umgebung der Fokusposition eine Fokuslinie aus. Das sphärische Objektiv 4 ist refraktiv ausgebildet und mindestens nahezu beugungsbegrenzt für die Laserwellenlänge korrigiert, da die Fokuslinie schon eine Ausdehnung von einigen Millimetern aufweisen kann. Das von dieser Fokuslinie von der Objektoberfläche rückgestreute Licht passiert das Objektiv 4 und den Teilerwürfel 3 und gelangt auf eine refraktive Zylinderlinse 6, die zweite Zylinderlinse im Sensor. Die an der Zylinderlinse 6 konvergierende Zylinderwelle durchsetzt ein Phasengitter 7 mit äquidistanten Mikrofurchen. Es entstehen durch Diffraktion zwei kohärente Teilbündel, also hier zwei zylindrische Wellen. Von großer Wichtigkeit ist, dass sich das Phasengitter 7 in der Fourier-Ebene des nachgeordneten Kameraobjektivs 8 befindet. Die zylindrischen Wellen konvergieren im Hauptschnitt je nach Fokusposition, beispielsweise unmittelbar vor dem Kameraobjektiv in Om1' und Om2', wo eine ausreichend breite Spaltblende angeordnet ist, um Streulicht und weitere gebeugtes Licht zu sperren. Die Spaltbreite ist jedoch so gewählt, dass auch bei defokussierter Objektlage beide kohärente Lichtbündel die Spaltblende passieren können, da sich die ausbildenden Fokuslinien bei Defokussierung in der Tiefe verschieben. Die sich ausbildenden Fokuslinien stellen hier die reellen Bilder Om1' und Om2' der Durchstoßpunkte der Fokuslinien auf dem Objekt hier im Hauptschnitt dar. Grundsätzlich kann auch eine lichtstreuende Zylinderlinse verwendet werden, da es grundsätzlich keine Rolle spielt, ob die Bilder Om1' und Om2' des Fokusflecks O reell oder virtuell sind. D. h., das 2. Zylinderlinsen-Objektiv kann lichtsammelnd oder lichtstreuend sein. Bei einer sammelnden Zylinderlinse sind die Anforderungen an das nachfolgende Objektiv in der Regel geringer, da die benutzte Öffnung desselben kleiner ist.This in 1 from a laser diode 1 , which is designed as a point light source, outgoing light bundles reach a refractive cylindrical lens 2 so that the rays are collimated in the main section. Possibly occurring astigmatism of the laser diode 1 only plays a subordinate role here, or is corrected by professional action. The rays perpendicular to the main cut after the cylindrical lens 2 continue unchanged. There is a cylindrical shaft with the cylinder axis parallel to the main plane. This wave enters the divider cube 3 on. The reflected light reaches the spherical lens 4 , whose focal point coincides with the point light source, and a cylindrical wavefront is created again, but now with the cylinder axis perpendicular to the main section. It forms on the object 5 a focus line in and around the focus position. The spherical lens 4 is refractive and corrected for the laser wavelength at least almost diffraction-limited, since the focus line can have an extension of a few millimeters. The light backscattered from the object surface by this line of focus passes through the lens 4 and the divider cube 3 and gets on a refractive cylindrical lens 6 , the second cylindrical lens in the sensor. The one on the cylindrical lens 6 converging cylinder shaft passes through a phase grating 7 with equidistant micro furrows. Diffraction creates two coherent sub-beams, in this case two cylindrical waves. It is very important that the phase grating 7 in the Fourier plane of the downstream camera lens 8th located. The cylindrical waves converge in the main section depending on the focus position, for example immediately in front of the camera lens in Om1 'and Om2', where a sufficiently wide slit diaphragm is arranged to block stray light and other diffracted light. However, the slit width is selected such that both coherent light beams can pass through the slit diaphragm even when the object is defocused, since the focal lines that form when the object is defocused move in depth. The developing focus lines here represent the real images Om1 'and Om2' of the penetration points of the focus lines on the object here in the main section. In principle, a light-scattering cylindrical lens can also be used, since it basically does not matter whether the images Om1 'and Om2' of the focus spot O are real or virtual. That is, the 2nd cylindrical lens lens can be light-collecting or light-scattering. In the case of a collecting cylindrical lens, the requirements for the subsequent lens are generally lower, since the aperture used is smaller.

Die beiden kohärenten Bilder der Fokuslinien, wobei sich die Fokuslinien auf dem Objekt ausbilden, werden durch das Kameraobjektiv 8 auf den Kamera-Chip 9 einer Kamera abgebildet. Dorthin werden die Sagittalstrahlen Os1' und Os2' des Objektpunktes O abgebildet. Das sich auf dem Kamera-Chip 9 ergebene Shear-Streifenbild zeigt 2. Die Ortsfrequenzänderung auf dem Kamera-Chip 9 wurde hier übertrieben stark dargestellt. Die Ortsfrequenzänderung liegt typischerweise nur im Bereich von ein bis zwei Prozent der mittleren Frequenz. Fokuslagen, die eine größere Ortsfrequenzänderung bewirken könnten, liefern Interferenzen mit dem Streifenkontrast um null, da dann der Objektpunkt sich bereits deutlich außerhalb des Tiefenmessbereiches befindet.The two coherent images of the focus lines, the focus lines forming on the object, are made by the camera lens 8th on the camera chip 9 imaged by a camera. The sagittal rays Os1 'and Os2' of the object point O are mapped there. That is on the camera chip 9 resulting shear strip image shows 2 , The change in spatial frequency on the camera chip 9 has been exaggerated here. The change in spatial frequency is typically only in the range of one to two percent of the mean frequency. Focal positions, which could cause a larger spatial frequency change, provide interference with the strip contrast around zero, since the object point is then already clearly outside the depth measurement range.

Das sphärische Objektiv 8 ist hier refraktiv ausgebildet. Es kommt auf dem Kamera-Chip 9 zur Interferenz der Teilstrahlenbündel mit Lateral-Shear, so dass im Überlappungsbereich der beiden kohärenten Zylinderwellen Lateral-Shear-Streifen detektiert werden können. Die Sagittalstrahlen, also die Strahlen in Büscheln senkrecht zum Hauptschnitt, bilden die Fokuslinie auf dem Objekt 5 zumindest näherungsweise scharf auf den Kamera-Chip 9 ab. In Abhängigkeit von der aktuellen Lage eines jeden Punktes des Objektes 5 in der Fokuslinie entsteht eine von der Abweichung Δr von der Brennebene abhängige Raumfrequenz ν. So kann das Profil entsprechend der numerischen Apertur der beiden Objektive 4 und 8 lateral in Richtung der Fokuslinie aufgelöst werden. Die 2 zeigt eine typische Lateral-Shear-Streifen-Verteilung auf dem Kamera-Chip 9. Die Auswertung zur Bestimmung der Ortsfrequenz kann durch eine FFT erfolgen. Es ist aber auch möglich die Phasenänderung über einen definierten Bereich 2b auf dem Kamera-Chip mittels bekannter räumlicher Phasenauswertung zu bestimmen. Da die diffraktive Zylinderlinse 6 eine zusätzliche Wellenfrontkrümmung eingeführt hat, die zu einer Trägerfrequenz führt, muss diese Trägerfrequenz herausgerechnet werden. Dann ist die Ortsfrequenz ν in jeder Zeile des Kamera-Chips dem Abstand Δz eines jeden Objektpunktes von der Brennebene des Fokussierobjektivs zumindest näherungsweise proportional. Die Bestimmung des Phasenganges über 2b kann mittels räumlicher Phasenzellen erfolgen. So können Algorithmen aus dem dynamischen Phasenschiebeverfahren angewendet werden. Beispielsweise kann der bekannte 5-Phasen-Schiebe-Algorithmus nach J. Schwider Einsatz finden.The spherical lens 8th is refractive here. It comes on the camera chip 9 for interference of the partial beams with lateral shear, so that lateral shear strips can be detected in the overlap area of the two coherent cylinder waves. The sagittal rays, i.e. the rays in tufts perpendicular to the main section, form the focus line on the object 5 at least approximately sharp on the camera chip 9 from. Depending on the current position of each point of the object 5 in the focal line, a spatial frequency ν depends on the deviation Δr from the focal plane. So the profile can correspond to the numerical aperture of the two lenses 4 and 8th laterally in the direction of the focus line. The 2 shows a typical lateral shear stripe distribution on the camera chip 9 , The evaluation to determine the spatial frequency can be carried out by an FFT. But it is also possible Lich the phase change over a defined area 2 B to be determined on the camera chip by means of known spatial phase evaluation. Because the diffractive cylindrical lens 6 If an additional wavefront curvature has been introduced that leads to a carrier frequency, this carrier frequency must be calculated out. Then the spatial frequency ν in each line of the camera chip is at least approximately proportional to the distance Δz of each object point from the focal plane of the focusing lens. The determination of the phase response via 2 B can be done using spatial phase cells. In this way, algorithms from the dynamic phase shift process can be applied. For example, the well-known 5-phase sliding algorithm according to J. Schwider can be used.

Der Objektivwechsel von Objektiv 2 erfolgt stets so, dass der Fokus eines jeden Objektivs in der Position F2 ist. Eine entsprechende mechanische Tubuslänge ist bei Objektiven unterschiedlicher Brennweite bei Konstruktion stets zu berücksichtigen.The lens change from lens 2 always takes place so that the focus of each lens is in position F2. A corresponding mechanical tube length must always be taken into account when designing lenses with different focal lengths.

Es kann eine CMOS-Flächenkamera mit einer logarithmischen Kennlinie eingesetzt werden, wenn beispielsweise nur die Grundwelle einer zumindest näherungsweise bekannter Frequenz ausgewertet wird. So ist eine große Dynamik zu erreichen.It can use a CMOS area scan camera with a logarithmic characteristic, if, for example only the fundamental wave of an at least approximately known frequency is evaluated. A great dynamic can be achieved in this way.

Die Anordnung in der 1 ermöglicht einen großen Tiefenmessbereich, und führt zu einem konstanten Abbildungsmaßstab und die Ortsfrequenzdifferenz ist streng proportional zur Ablage Δz eines Objektpunktes von der Fokalebene.The arrangement in the 1 enables a large depth measurement range and leads to a constant imaging scale and the spatial frequency difference is strictly proportional to the offset Δz of an object point from the focal plane.

Die Anordnung nach 3, die weitgehend auf der Gestaltung nach 1 basiert, ermöglicht bei einer einfachen Anordnung mit nur einem Fokussierobjektiv 4 einen etwas kleineren Tiefenmessbereich. Der Abbildungsmaßstab ist hier über der Tiefe nicht ganz konstant, da es hier keinen telezentrischen Strahlengang gibt. Die Prismengruppe stellt eines Prismenanamorphoten 10 dar, der aus dem sphärischen Bündel eine asphärische Wellenfront erzeugt. Durch die Bündelvergrößerung nach dem Prismenanamorphoten 10 werden die Strahlenbüschel aus Ebenen parallel zur Fokuslinie „extrafokal" abgebildet. Das Bild des Punktes O wird mittels Meridionalstrahlen in Om1' und Om2' abgebildet und mittels Sagittalstrahlen nach Os1' und Os2'. Das sich auf dem Kamera-Chip 9 ergebene Shear-Streifenbild zeigt 4. Wirkt der Prismenanamorphot 10 bündelverkleinernd, indem die erste Prismenfläche jeweils senkrecht durchsetzt wird, werden die Strahlenbüschel aus Ebenen parallel zur Fokuslinie „intrafokal" abgebildet.The order after 3 that largely depend on the design 1 based on a simple arrangement with only one focusing lens 4 a slightly smaller depth measurement range. The image scale is not quite constant over the depth, since there is no telecentric beam path here. The prism group represents a prism anamorphic 10 which creates an aspherical wavefront from the spherical bundle. By enlarging the bundle after the prism anamorphic 10 the tufts of rays are mapped from planes parallel to the focal line "extrafocal". The image of the point O is imaged using meridional rays in Om1 'and Om2' and using sagittal rays according to Os1 'and Os2'. This is on the camera chip 9 resulting shear strip image shows 4 , Is the prism anamorphic? 10 bundle-reducing, by passing the first prism surface vertically, the bundles of rays are imaged "intrafocally" from planes parallel to the focal line.

In 5 ist eine Lichtquelle 21 angeordnet, die als Multiwellenlängen-Laser-Licht-Quelle, ausgebildet ist. Diese Lichtquelle kann also eine Frequenzkamm-Charakteristik aufweisen. Der Lichtquelle 21 ist ein astigmatisch abbildendes, wellenfrontformendes optisches System 22 nachgeordnet. Dieses System 22 erzeugt gemeinsam mit dem chromatisch ausgebildeten Fokussierobjektiv 4 jeweils Fokuslinien in unterschiedlichen Tiefen des Objektraumes in Abhängigkeit von der Wellenlänge des von der Lichtquelle 21 ausgesendeten Lichtes. Dabei bleibt es letztlich fachgerechtem Tun vorbehalten, die speziellen Eigenschaften der Lichtquelle 21 wie z. B. in Lichtausbreitungsrichtung unterschiedliche Positionen der Quellzentren und/oder unterschiedliche Abstrahlcharakteristiken zu kompensieren. Das System 22 sollte am besten die Quellzentren aller Farben nach Unendlich abbilden, wobei die Ausbreitungsrichtung für alle Wellenlängen zumindest im Hauptschnitt gleich sein sollte. Dann ist das Ziel, linienhafte Fokusfiguren, die in der Tiefe, bzw. Höhe, in einer stehenden Ebene „gestapelt" zu generieren, erreichbar. Für die messtechnische Applikation bringt die Anordnung der Fokuslinien in der stehenden Ebene Vorteile, da so ein präziser Schnitt durch das Messobjekt erzeugt werden kann. Die Frequenzabstände sind so groß gemacht, dass mittels geeigneter Auswertetechnik die jeweilige Wellenlänge erkannt wird. Es sind auch gepulste Laser mit einer jeweils anderen Wellenlänge einsetzbar, so dass ein zeitliches Multiplexing betrieben werden kann. Die Frequenzmodulation durch die Tiefenposition ist stets geringer als der Ortsfrequenzabstand, der sich durch die Lichtwellenlänge ergibt. Gut für die Auswertung ist, wenn auf dem Kamera-Chip 9 nur maximal zwei bis drei Interferenzstreifenmuster verschiedener Ortsfrequenz gleichzeitig zur Ausbildung kommen. Das Licht der anderen Wellenlängen wird schon an der Einzelspaltblende 16 weitgehend blockiert. Dazu befindet sich diese Einzelspaltblende 16 in der Brennebene des Zylinderobjektivs 6. Die Wirkung dieser Einzelspaltblende 16 ist der eines konfokalen Pinholes vergleichbar, auch wenn die sperrende Wirkung hier nur in einer Richtung auftritt.In 5 is a light source 21 arranged, which is designed as a multi-wavelength laser light source. This light source can therefore have a frequency comb characteristic. The light source 21 is an astigmatic imaging, wavefront-forming optical system 22 downstream. This system 22 created together with the chromatic focusing lens 4 each focus lines at different depths of the object space depending on the wavelength of the light source 21 emitted light. Ultimately, it is reserved for professional action, the special properties of the light source 21 such as B. to compensate for different positions of the source centers and / or different radiation characteristics in the direction of light propagation. The system 22 It is best to map the source centers of all colors to infinity, whereby the direction of propagation should be the same for all wavelengths, at least in the main section. Then the goal is to generate linear focus figures that are "stacked" in depth or height in a standing plane. The arrangement of the focus lines in the standing plane brings advantages for the metrological application because it enables a precise cut The frequency distances are made so large that the respective wavelength is recognized by means of suitable evaluation technology. Pulsed lasers with a different wavelength can also be used so that temporal multiplexing can be carried out. The frequency modulation is based on the depth position always smaller than the spatial frequency spacing that results from the light wavelength, which is good for the evaluation if on the camera chip 9 only a maximum of two to three interference fringe patterns of different spatial frequencies are formed at the same time. The light of the other wavelengths is already on the single slit diaphragm 16 largely blocked. There is also a single slit diaphragm 16 in the focal plane of the cylinder lens 6 , The effect of this single slit diaphragm 16 is comparable to that of a confocal pinhole, even if the blocking effect only occurs in one direction.

7 zeigt eine Anordnung mit einem vergleichsweise großen Tiefenmessbereich. Der Abbildungsmaßstab ist konstant und die auf dem Kamera-Chip 9 zu detektierende Ortsfrequenzdifferenz ist proportional zu Δz. Es wird eine diffraktive Zylinderlinse 6 verwendet. Der Lateral-Shear-erzeugende Strahlenbündelteiler besteht aus einem Phasengitter 7 und dem Objektiv 8, wobei sich das Phasengitter 7 in der Brennebene des Objektivs 8 befindet. Das sich auf dem Kamera-Chip 9 ergebene Shear-Streifenbild zeigt 8. Auch hier ist die Ortsfrequenzvariation extrem übertrieben stark dargestellt. Fremdlicht, welches beispielsweise bei translucenten Objekten auftreten kann, wird an der Doppelspaltblende 17 weitgehend blockiert. Dazu befindet sich diese Doppelspaltblende 17 in der Brennebene des Zylinderobjektivs 6. 7 shows an arrangement with a comparatively large depth measurement range. The image scale is constant and that on the camera chip 9 The spatial frequency difference to be detected is proportional to Δz. It becomes a diffractive cylindrical lens 6 used. The lateral shear-generating beam splitter consists of a phase grating 7 and the lens 8th , where the phase grating 7 in the focal plane of the lens 8th located. That is on the camera chip 9 resulting shear strip image shows 8th , Here, too, the spatial frequency variation is extremely exaggerated. Extraneous light, which can occur, for example, with translucent objects, appears on the double slit diaphragm 17 largely blocked. There is this double slit aperture 17 in the focal plane of the cylinder lens 6 ,

Claims (32)

Optischer Sensor, mit einer Lichtquelle (1) mit mindestens einer Lichtwellenlänge, einem Fokussier-Objektiv (4), einer Abbildungsstufe (2) zur Ausbildung mindestens einer Fokuslinie auf der Objektoberfläche (5) und einer Kamera mit einem Kamera-Chip (9), gekennzeichnet dadurch, dass das Fokussier-Objektiv (4) astigmatisch abbildend ausgebildet ist oder dass das Fokussier-Objektiv (4) anastigmatisch abbildend ausgebildet ist und auf dem Lichtweg zum Kamera-Chip (9) der Kamera dem Fokussier-Objektiv (4) mindestens ein astigmatisch abbildendes System nachgeordnet ist, so dass ein astigmatisches Abbildungssystem besteht, welches die Fokusfigur, ein Fokuspunkt oder eine Fokuslinielinie, von der Objektoberfläche (5) astigmatisch auf den Kamera-Chip (9) abbildet und auf dem Lichtweg zum Kamera-Chip (9) ein Lateral-Shear erzeugender optischer Strahlenbündelteiler im Strahlengang angeordnet ist.Optical sensor, with a light source ( 1 ) with at least one light wavelength, a focusing lens ( 4 ), a mapping level ( 2 ) to form at least one focus line on the object surface ( 5 ) and a camera with a camera chip ( 9 ), characterized in that the focusing lens ( 4 ) is astigmatically imaging or that the focusing lens ( 4 ) is anastigmatic imaging and on the light path to the camera chip ( 9 ) the camera the focusing lens ( 4 ) at least one astigmatic imaging system is arranged downstream, so that there is an astigmatic imaging system that detects the focus figure, a focus point or a focus line line from the object surface ( 5 ) astigmatic on the camera chip ( 9 ) images and on the light path to the camera chip ( 9 ) a lateral shear-generating optical beam splitter is arranged in the beam path. Optischer Sensor nach Anspruch 1, gekennzeichnet dadurch, dass das astigmatisch abbildende System dem Lateral-Shear erzeugenden optischen Strahlenbündelteiler vorgeordnet ist.Optical sensor according to claim 1, characterized in that the astigmatic imaging system the lateral shear generating optical beam splitter is upstream. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 2, gekennzeichnet dadurch, dass das astigmatisch abbildende System als Prismenanamorphot (10) oder als Gitteranamorphot ausgebildet ist und dem Lateral-Shear erzeugenden optischen Strahlenbündelteiler vorgeordnet ist.Optical sensor according to at least one of claims 1 to 2, characterized in that the astigmatic imaging system as a prism anamorphic ( 10 ) or is designed as a lattice anamorphic and is arranged upstream of the optical beam splitter that generates lateral shear. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 3, gekennzeichnet dadurch, dass das astigmatisch abbildende System mit mindestens einem Zylinderobjektiv (6) ausgebildet ist.Optical sensor according to at least one of claims 1 to 3, characterized in that the astigmatic imaging system with at least one cylinder lens ( 6 ) is trained. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 4, gekennzeichnet dadurch, dass der Lateral-Shear erzeugende optische Strahlenbündelteiler als ein asymmetrisches Dreieck-Interferometer (11) ausbildet ist.Optical sensor according to at least one of claims 1 to 4, characterized in that the lateral shear-generating optical beam splitter as an asymmetrical triangle interferometer ( 11 ) is trained. Optischer Sensor nach Anspruch 5, gekennzeichnet dadurch, dass dem asymmetrischen Dreieck-Interferometer (11) im Strahlengang eine Spaltblende 16 zugeordnet ist, zumindest näherungsweise dort, wo die Strahlenbüschel aus Ebenen, die senkrecht zu Fokuslinien liegen, sich schneiden.Optical sensor according to claim 5, characterized in that the asymmetrical triangular interferometer ( 11 ) a slit in the beam path 16 is assigned, at least approximately where the bundles of rays intersect from planes that are perpendicular to focal lines. Optischer Sensor, mit einer Lichtquelle (1) mit mindestens einer Lichtwellenlänge, einem Fokussier-Objektiv (4), einer Abbildungsstufe zur Ausbildung mindestens einer Fokuslinie, einem Kameraobjektiv (8) und einem Kamera-Chip (9) einer Kamera, gekennzeichnet dadurch, dass dem Fokussier-Objektiv (4) auf dem Lichtweg mindestens ein astigmatisch abbildendes System nachgeordnet und dem Kameraobjektiv (8) vorgeordnet ist und diesem Kameraobjektiv ein Phasengitter zugeordnet ist, welches sich zumindest näherungsweise in der Fokusebene des Kameraobjektivs (8) befindet, welche dem Fokussierobjektiv (4) zugewandt ist.Optical sensor, with a light source ( 1 ) with at least one light wavelength, a focusing lens ( 4 ), an imaging level for forming at least one focus line, a camera lens ( 8th ) and a camera chip ( 9 ) of a camera, characterized in that the focusing lens ( 4 ) at least one astigmatic imaging system is arranged on the light path and the camera lens ( 8th ) is arranged upstream and this camera lens is assigned a phase grating, which is at least approximately in the focal plane of the camera lens ( 8th ) which is the focus lens ( 4 ) is facing. Optischer Sensor, mit einer Lichtquelle mit mindestens einer Lichtwellenlänge, einem Fokussier-Objektiv (4), einer Abbildungsstufe zur Ausbildung mindestens einer Fokuslinie, einem Kameraobjektiv (8) und einem Kamera-Chip (9) einer Kamera, gekennzeichnet dadurch, dass dem Fokussier-Objektiv (4) auf dem Lichtweg mindestens ein astigmatisch abbildendes System nachgeordnet und ein Lateral-Shear erzeugender optischer Strahlenbündelteiler dem Kameraobjektiv (8) nachgeordnet und dem Kamera-Chip (9) vorgeordnet ist.Optical sensor, with a light source with at least one light wavelength, a focusing lens ( 4 ), an imaging level for forming at least one focus line, a camera lens ( 8th ) and a camera chip ( 9 ) of a camera, characterized in that the focusing lens ( 4 ) at least one astigmatic imaging system is arranged on the light path and an optical beam splitter that generates lateral shear is arranged downstream of the camera lens ( 8th ) and the camera chip ( 9 ) is upstream. Optischer Sensor nach mindestens einem der Ansprüche 7 oder 8, gekennzeichnet dadurch, dass das astigmatisch abbildende System mit mindestens einem Zylinderobjektiv (6) ausgebildet ist.Optical sensor according to at least one of claims 7 or 8, characterized in that the astigmatic imaging system with at least one cylinder lens ( 6 ) is trained. Optischer Sensor nach Anspruch 9, gekennzeichnet dadurch, dass die Zylinder-Achse des Zylinderobjektivs (6) parallel zur Fokuslinie angeordnet ist.Optical sensor according to claim 9, characterized in that the cylinder axis of the cylinder lens ( 6 ) is arranged parallel to the focus line. Optischer Sensor nach Anspruch 8, gekennzeichnet dadurch, dass das astigmatisch abbildende System mit mindestens einem Prismenanamorphoten (10) ausgebildet ist.Optical sensor according to claim 8, characterized in that the astigmatic imaging system with at least one prism anamorphic ( 10 ) is trained. Optischer Sensor nach Anspruch 8, gekennzeichnet dadurch, dass der Lateral-Shear erzeugende optische Strahlenbündelteiler als ein Dreieck-Interferometer (11) ausgebildet ist.Optical sensor according to claim 8, characterized in that the lateral shear-generating optical beam splitter as a triangular interferometer ( 11 ) is trained. Optischer Sensor nach mindestens einem der Ansprüche 7, 9 und 10, gekennzeichnet dadurch, dass das Phasengitter (7) mit äquidistanten Furchen ausgebildet ist.Optical sensor according to at least one of claims 7, 9 and 10, characterized in that the phase grating ( 7 ) is designed with equidistant furrows. Optischer Sensor nach mindestens einem der Ansprüche 7 bis 11 und 13, gekennzeichnet dadurch, dass das Zylinderobjektiv (6) die gleiche Brennweite wie das Kameraobjektiv (2) aufweist und der Fokus des Zylinderobjektivs (6) sich zumindest näherungsweise im dem Zylinderobjektiv zugewandten Hauptpunkt des Kameraobjektivs befindet und das Zylinderobjektiv (6) als Phasengitter ausgebildet ist und eine Doppelspaltblende (17) zumindest näherungsweise in der Fokalebene des Zylinderobjektivs (6) angeordnet ist.Optical sensor according to at least one of Claims 7 to 11 and 13, characterized in that the cylinder objective ( 6 ) the same focal length as the camera lens ( 2 ) and the focus of the cylinder lens ( 6 ) is located at least approximately in the main point of the camera lens facing the cylinder lens and the cylinder lens ( 6 ) is designed as a phase grating and a double slit diaphragm ( 17 ) at least approximately in the focal plane of the cylindrical lens ( 6 ) is arranged. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 11 und 13 bis 14, gekennzeichnet dadurch, dass das Fokussierobjektiv (4) und das Kameraobjektiv (8) als afokale Anordnung ausgebildet sind und das Phasengitter (7) zur Erzeugung von zwei kohärenten Teilbündeln in der gemeinsamen Brennebene von Fokussierobjektiv (4) und Kameraobjektiv (8) angeordnet ist und das astigmatische Abbildungssystem als diffraktive Zylinderlinse (6) ausgebildet ist und der diffraktiven Zylinderlinse (6) eine Doppelspaltblende (17) nachgeordnet ist.Optical sensor according to at least one of claims 1 to 11 and 13 to 14, characterized net that the focusing lens ( 4 ) and the camera lens ( 8th ) are designed as an afocal arrangement and the phase grating ( 7 ) to generate two coherent sub-beams in the common focal plane of the focusing lens ( 4 ) and camera lens ( 8th ) is arranged and the astigmatic imaging system as a diffractive cylindrical lens ( 6 ) and the diffractive cylindrical lens ( 6 ) a double slit diaphragm ( 17 ) is subordinate. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 15, gekennzeichnet dadurch, dass mindestens ein Laser (1) als Lichtquelle eingesetzt wird.Optical sensor according to at least one of claims 1 to 15, characterized in that at least one laser ( 1 ) is used as a light source. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 15, gekennzeichnet dadurch, dass mehrere Laser mit unterschiedlichen Wellenlängen als Lichtquelle eingesetzt werden und eine farbsensitive Kamera mit mindestens zwei Farbkanälen angeordnet ist.Optical sensor according to at least one of claims 1 to 15, characterized in that several lasers with different wavelength be used as a light source and a color sensitive camera arranged with at least two color channels is. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 15, gekennzeichnet dadurch, dass mindestens ein gepulster Laser (1) als Lichtquelle eingesetzt wird.Optical sensor according to at least one of Claims 1 to 15, characterized in that at least one pulsed laser ( 1 ) is used as a light source. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 15, gekennzeichnet dadurch, dass mehrere gepulster Laser (1) als Lichtquelle eingesetzt werden, die Licht unterschiedlicher Wellenlänge zeitlich synchronisiert aussenden.Optical sensor according to at least one of claims 1 to 15, characterized in that a plurality of pulsed lasers ( 1 ) are used as light sources that emit light of different wavelengths synchronized in time. Optischer Sensor nach mindestens einem der Ansprüche 17 bis 19, gekennzeichnet dadurch, dass das Fokussierobjektiv (4) chromatisch ausgebildet, jedoch das Kameraobjektiv (8) achromatisch ausgebildet ist.Optical sensor according to at least one of claims 17 to 19, characterized in that the focusing lens ( 4 ) chromatic, but the camera lens ( 8th ) is achromatic. Optischer Sensor nach mindestens einem der Ansprüche 16 bis 20, gekennzeichnet dadurch, dass ein refraktiv, dispersiv oder dispersiv-refraktiv wirkender optischen Keil im Strahlengang angeordnet ist.Optical sensor according to at least one of claims 16 to 20, characterized in that a refractive, dispersive or dispersive-refractive effect optical wedge is arranged in the beam path. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 21, gekennzeichnet dadurch, dass dem Fokussier-Objektiv (4) eine Mikrolinsenanordnung vorgeordnet ist.Optical sensor according to at least one of claims 1 to 21, characterized in that the focusing lens ( 4 ) a microlens arrangement is arranged upstream. Optischer Sensor nach Anspruch 22, gekennzeichnet dadurch, dass die Mikrolinsenanordnung als eine Mikrolinsenzeile ausgebildet ist.Optical sensor according to claim 22, characterized in that the microlens array as a microlens line is trained. Optisches Verfahren mit den angegebenen Mitteln des Oberbegriffs für den Sensor, bei dem eine schmale Fokuslinie im Objektraum ausgebildet ist, gekennzeichnet dadurch, dass das auf das Objekt treffende cw-Licht oder gepulste Licht aus der Fokuslinie durch Reflexion und/oder Streuung mittels Strahlenbüschel, deren Ebenen parallel zur Fokuslinie liegen, bei der Detektion scharf abgebildet wird und die Strahlenbüschel, deren Ebenen senkrecht zur Fokuslinie liegen bei der Detektion defokussiert sind und vor der scharfen Abbildung aus dem Strahlenbündel vom Objekt (5) zwei kohärente Teilstrahlenbündel erzeugt werden, die eine Lateral-Shear zueinander und in der Ebene senkrecht zur Fokuslinie aufweisen und Shear-Streifen durch Interferenz der Teilstrahlenbündel in der Ebene der Detektion gebildet werden und aus dem Phasengang senkrecht zu den Shear-Streifen in einem definierten Bereich die Ablage eines Objektpunktes zur Brennebene bestimmt wird.Optical method with the specified means of the generic term for the sensor, in which a narrow focal line is formed in the object space, characterized in that the cw light striking the object or pulsed light from the focal line by reflection and / or scattering by means of bundles of rays, the Layers are parallel to the focal line, are sharply imaged during detection and the bundles of rays, the planes of which are perpendicular to the focal line, are defocused during detection and before the sharp imaging from the bundle of rays from the object ( 5 ) two coherent partial beams are generated, which have a lateral shear to each other and in the plane perpendicular to the focal line, and shear strips are formed by interference of the partial beams in the plane of the detection and from the phase response perpendicular to the shear strips in a defined area the storage of an object point to the focal plane is determined. Optisches Verfahren nach Anspruch 24, gekennzeichnet dadurch, dass zwei kohärente Teilstrahlenbündel mit einer Lateral-Shear mittels erstens Strahlteilung durch Diffraktion oder zweitens Amplitudenteilung an einer Teilerschicht erzeugt werden und eine Wellenfrontformung des Lichtes auf dem Weg vom Objekt zur Kamera durchgeführt wird und der Ort dieser Wellenfrontformung dem Lateral-Shear erzeugenden optischen Strahlenbündelteiler auf dem Lichtweg jeweils vorgeordnet ist und mittels der Pixel des Kamera-Chips (9), die auf einer Linie senkrecht zur schmalen Fokuslinie im Objektraum ausgerichtet sind, jeweils die räumliche Frequenz der Shear-Streifen bestimmt wird.Optical method according to claim 24, characterized in that two coherent partial beams with a lateral shear are generated by first beam splitting by diffraction or second amplitude splitting on a splitter layer and a wavefront shaping of the light on the way from the object to the camera is carried out and the location of this wavefront shaping is arranged upstream of the optical beam splitter producing lateral shear on the light path and by means of the pixels of the camera chip ( 9 ), which are aligned on a line perpendicular to the narrow focus line in the object space, the spatial frequency of the shear strips is determined in each case. Optisches Verfahren nach Anspruch 25, gekennzeichnet dadurch, dass mehrere Fokuslinien im Objektraum übereinander angeordnet sind.Optical method according to claim 25, characterized in that several focus lines are arranged one above the other in the object space. Optisches Verfahren nach Anspruch 25, gekennzeichnet dadurch, dass mehrere Fokuslinien unterschiedlicher Farbe im Objektraum nebeneinander angeordnet sind.Optical method according to claim 25, characterized in that several focus lines of different colors in the object space are arranged side by side. Optisches Verfahren nach Anspruch 25, gekennzeichnet dadurch, dass mehrere Fokuslinien im Objektraum unterschiedlicher Farbe auf einer zum Sensor geneigten Ebene angeordnet sind.Optical method according to claim 25, characterized in that several focus lines in the object space are different Color are arranged on a plane inclined to the sensor. Optisches Verfahren nach mindestens einem der Ansprüche 24 bis 28, gekennzeichnet dadurch, dass der Betrag der Bewegung in Bewegungsrichtung des Sensors durch ein externes optisches Positionsbestimmungssystem, welches die Lage des Sensorkopfes zumindest näherungsweise erfasst, bestimmt wird.Optical method according to at least one of claims 24 to 28, characterized in that the amount of movement in the direction of movement the sensor through an external optical positioning system, which detects the position of the sensor head at least approximately becomes. Optisches Verfahren nach mindestens einem der Ansprüche 24 bis 28, gekennzeichnet dadurch, dass die Bewegung des Sensors durch eine Korrelationsauswertung von Strukturmerkmalen des Messobjektes erfasst wird.Optical method according to at least one of claims 24 to 28, characterized in that the movement of the sensor a correlation evaluation of structural features of the measurement object is recorded. Optisches Verfahren mit den angegebenen Mitteln des Oberbegriffs für den optischen Sensor, bei dem mindestens ein Fokuspunkt im Objektraum ausgebildet ist, gekennzeichnet dadurch, dass das auf das Objekt treffende cw-Licht oder gepulste Licht aus dem Fokuspunkt durch Reflexion und/oder Streuung scharf abgebildet wird und die Strahlenbüschel, deren Ebenen parallel zur Referenzebene liegen bei der Detektion defokussiert sind und vor der scharfen Abbildung aus dem Strahlenbündel vom Objekt (5) zwei kohärente Teilstrahlenbündel erzeugt werden, die eine Lateral-Shear zueinander und in der Ebene parallel zur Referenzebene aufweisen und Shear-Streifen durch Interferenz der Teilstrahlenbündel in der Ebene der Detektion gebildet werden und aus dem Phasengang senkrecht zu den Shear-Streifen in einem definierten Bereich die Ablage eines Objektpunktes zur Brennebene bestimmt wird.Optical method with the specified means of the generic term for the optical sensor, at which at least one focal point is formed in the object space, characterized in that the cw light or pulsed light striking the object from the focal point is depicted sharply by reflection and / or scattering and the bundles of rays, the planes of which lie parallel to the reference plane during detection are defocused and before the sharp image from the beam from the object ( 5 ) two coherent partial beams are generated, which have a lateral shear to each other and in the plane parallel to the reference plane and shear strips are formed by interference of the partial beams in the plane of the detection and from the phase response perpendicular to the shear strips in a defined area the storage of an object point to the focal plane is determined. Optisches Verfahren nach mindestens einem der Ansprüche 24 oder 31, gekennzeichnet dadurch, dass Informationen über die Schichtdicke einer Schicht gewonnen werden, indem das detektierte Interferogramm ausgewertet wird.Optical method according to at least one of claims 24 or 31, characterized in that information about the layer thickness of a layer can be obtained by evaluating the detected interferogram becomes.
DE2003121887 2003-05-07 2003-05-07 Optical sensor for high speed scanning of an object, e.g. for use in optical metrology, has a light source and a focussing objective that generates an astigmatic image on a sensor camera chip Withdrawn DE10321887A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2003121887 DE10321887A1 (en) 2003-05-07 2003-05-07 Optical sensor for high speed scanning of an object, e.g. for use in optical metrology, has a light source and a focussing objective that generates an astigmatic image on a sensor camera chip

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2003121887 DE10321887A1 (en) 2003-05-07 2003-05-07 Optical sensor for high speed scanning of an object, e.g. for use in optical metrology, has a light source and a focussing objective that generates an astigmatic image on a sensor camera chip

Publications (1)

Publication Number Publication Date
DE10321887A1 true DE10321887A1 (en) 2004-12-02

Family

ID=33394618

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2003121887 Withdrawn DE10321887A1 (en) 2003-05-07 2003-05-07 Optical sensor for high speed scanning of an object, e.g. for use in optical metrology, has a light source and a focussing objective that generates an astigmatic image on a sensor camera chip

Country Status (1)

Country Link
DE (1) DE10321887A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008008559A1 (en) 2008-02-08 2009-08-13 Robert Bosch Gmbh interferometer
WO2010046340A1 (en) * 2008-10-20 2010-04-29 Siemens Aktiengesellschaft Interferometry method for optically examining coatings
DE102009040990A1 (en) * 2009-09-10 2011-03-17 Carl Zeiss Ag Device for measuring upper surface, comprises light control unit, which is arranged on upper surface to control optical signal in ray fan, where optical signal comprises cycle of light pulses with repetition rate
US20120307258A1 (en) * 2010-01-22 2012-12-06 Universitaet Stuttgart Method and arrangement for robust interferometry
CN106840051A (en) * 2017-03-05 2017-06-13 中国科学院上海光学精密机械研究所 The non-contact measurement apparatus and measuring method of displacement motor platform motion flatness
AT15358U1 (en) * 2015-12-14 2017-07-15 Evk Di Kerschhaggl Gmbh Optical device for producing a surface image
US20220065617A1 (en) * 2019-05-10 2022-03-03 Nikon Corporation Determination of a change of object's shape

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008008559A1 (en) 2008-02-08 2009-08-13 Robert Bosch Gmbh interferometer
WO2010046340A1 (en) * 2008-10-20 2010-04-29 Siemens Aktiengesellschaft Interferometry method for optically examining coatings
DE102009040990A1 (en) * 2009-09-10 2011-03-17 Carl Zeiss Ag Device for measuring upper surface, comprises light control unit, which is arranged on upper surface to control optical signal in ray fan, where optical signal comprises cycle of light pulses with repetition rate
US20120307258A1 (en) * 2010-01-22 2012-12-06 Universitaet Stuttgart Method and arrangement for robust interferometry
US8934104B2 (en) * 2010-01-22 2015-01-13 Universitaet Stuttgart Method and arrangement for robust interferometry for detecting a feature of an object
AT15358U1 (en) * 2015-12-14 2017-07-15 Evk Di Kerschhaggl Gmbh Optical device for producing a surface image
CN106840051A (en) * 2017-03-05 2017-06-13 中国科学院上海光学精密机械研究所 The non-contact measurement apparatus and measuring method of displacement motor platform motion flatness
US20220065617A1 (en) * 2019-05-10 2022-03-03 Nikon Corporation Determination of a change of object's shape

Similar Documents

Publication Publication Date Title
EP1984770B1 (en) Method and arrangement for a rapid and robust chromatic confocal 3d measurement technique
EP2843360B1 (en) Robust one shot interferometer and OCT method, in particular for material measurement and tumour cell detection
DE102008062879B4 (en) Method and arrangement for scalable interferometry
EP2526373B1 (en) Method and assembly for robust interferometry
EP1805477B1 (en) Interferometric method and arrangement
DE112019002028T5 (en) LIDAR DETECTION ARRANGEMENTS
DE102008020902B4 (en) Arrangement and method for confocal spectral two-beam interferometry
WO2013171309A1 (en) Light microscope and method for image recording using a light microscope
WO2012136238A1 (en) Method and arrangement for short coherence holography
WO2020109419A1 (en) Method, interferometer and signal processing device, each for determining an input phase and/or an input amplitude of an input light field
EP2589924B1 (en) Device and method for interferometric measuring of an object
DE102004052205A1 (en) Interferometric method e.g. for recording of separation and form and optical coherence tomography (OCT), involves having multi-wavelength source or tunable source and imaging on receiver by focusing systems
DE102010006239B3 (en) Method and arrangement for robust interferometry
WO2002004889A1 (en) Interferometric, low coherence shape measurement device for a plurality of surfaces (valve seat) via several reference planes
DE102005061464A1 (en) Opto-electronic measuring method for absolute measurement of gaps/clearances applies two or more stages with different large areas of clearness and different measuring accuracy
DE10321887A1 (en) Optical sensor for high speed scanning of an object, e.g. for use in optical metrology, has a light source and a focussing objective that generates an astigmatic image on a sensor camera chip
WO2012100763A1 (en) Method for determining velocities in flows and phase-frequency-velocity field sensor
DE10321894A1 (en) Device for detecting the welding depth in a keyhole during laser welding comprises a beam bundle distributor producing a lateral shear arranged on the light path facing a camera chip
DE102005042733B3 (en) Interferometric method e.g. for recording of separation and form and optical coherence tomography (OCT), involves having multi-wavelength source or tunable source and imaging on receiver by focusing systems
DE10131779B4 (en) Interferometric short coherent shape measuring device for valve seat surfaces has beam splitter to form object beam guided over optical path to object and reference beam guided to reference plane
DE10321886A1 (en) Interferometric sensor for object scanning, has a beam splitter system that is configured as a triangle-shaped interferometer with a beam splitter layer system
EP1805476B1 (en) Interferometer comprising a mirror assembly for measuring an object to be measured
WO2007131602A1 (en) Arrangement and method for confocal transmitted-light microscopy, in particular also for measuring moving phase objects
EP3742956B1 (en) Method for generating a two-dimensional interferogram using a michelson-type free beam interferometer
WO2002004888A1 (en) Interferometric, short coherent form-measuring device for several surfaces (valve seats) using multi-focal optics, optical segments or high depth of focus

Legal Events

Date Code Title Description
8122 Nonbinding interest in granting licenses declared
8139 Disposal/non-payment of the annual fee