[go: up one dir, main page]

DE10321887A1 - Robuster optischer Sensor und Verfahren zur Hochgeschwindigkeits-Detektion - Google Patents

Robuster optischer Sensor und Verfahren zur Hochgeschwindigkeits-Detektion Download PDF

Info

Publication number
DE10321887A1
DE10321887A1 DE2003121887 DE10321887A DE10321887A1 DE 10321887 A1 DE10321887 A1 DE 10321887A1 DE 2003121887 DE2003121887 DE 2003121887 DE 10321887 A DE10321887 A DE 10321887A DE 10321887 A1 DE10321887 A1 DE 10321887A1
Authority
DE
Germany
Prior art keywords
lens
camera
optical
optical sensor
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2003121887
Other languages
English (en)
Inventor
Klaus Dr. Körner
Wolfgang Prof. Dr. Osten
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universitaet Stuttgart
Original Assignee
Universitaet Stuttgart
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universitaet Stuttgart filed Critical Universitaet Stuttgart
Priority to DE2003121887 priority Critical patent/DE10321887A1/de
Publication of DE10321887A1 publication Critical patent/DE10321887A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02041Interferometers characterised by particular imaging or detection techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02001Interferometers characterised by controlling or generating intrinsic radiation properties
    • G01B9/02012Interferometers characterised by controlling or generating intrinsic radiation properties using temporal intensity variation
    • G01B9/02014Interferometers characterised by controlling or generating intrinsic radiation properties using temporal intensity variation by using pulsed light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02034Interferometers characterised by particularly shaped beams or wavefronts
    • G01B9/02035Shaping the focal point, e.g. elongated focus
    • G01B9/02037Shaping the focal point, e.g. elongated focus by generating a transverse line focus
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02055Reduction or prevention of errors; Testing; Calibration
    • G01B9/02062Active error reduction, i.e. varying with time
    • G01B9/02067Active error reduction, i.e. varying with time by electronic control systems, i.e. using feedback acting on optics or light
    • G01B9/02069Synchronization of light source or manipulator and detector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02083Interferometers characterised by particular signal processing and presentation
    • G01B9/02084Processing in the Fourier or frequency domain when not imaged in the frequency domain
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02097Self-interferometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02097Self-interferometers
    • G01B9/02098Shearing interferometers

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Mathematical Physics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Das Licht von der auf eine Objektoberfläche abgebildeten Fokusfigur, ein Fokuspunkt oder eine Fokuslinie, erfährt eine Teilung der Amplitude. Den beiden dabei entstehenden kohärenten Teilstrahlenbündeln wird im Strahlengang eine Lateral-Shear 2DELTAq, die ungleich null ist, in der Ebene senkrecht zu dieser Fokuslinie aufgeprägt. Die objektbildenden Strahlenbüschel in der Ebene senkrecht zur Fokuslinie sind bei der Detektion defokussiert und die objektabbildenden Strahlenbüschel in der Ebene parallel zur Fokuslinie sind bei der Detektion fokussiert. Letztere bilden also das Objekt eher scharf ab. So werden Shear-Streifen in der Ebene der Detektion gebildet und detektiert. Aus dem Phasengang senkrecht zu den Shear-Streifen in einem definierten Bereich eines Kamera-Chips wird die Ablage eines jeden Objektpunktes von seiner Referenzposition durch die Phasendifferenz zum Referenzphasengang bestimmt. So kann das Profil eines Objektes oder auch die Dicke einer optischen Schicht bestimmt werden.

Description

  • Das in den Schriften US 4,976,504 und WO 99/42908 beschriebene konoskopische Verfahren gestattet die Messung des Mikroprofils von technischen Oberflächen ohne mechanisch bewegte Teile im Sensorkopf. Es werden dabei im Sensorkopf ein oder mehrere doppelbrechende Kristalle und mehrere polarisationsoptische Komponenten eingesetzt. Derartige Sensoren mit dem Namen ConoProbe und ConoLine sind auch in den Prospekten der Firma Optimet Optical Metrology Ltd., www.optimet.com, beschrieben.
  • Bei einem gemäß Schrift US 5,953,137 ausgeführten Sensor ist es recht aufwendig, zwischen der Defokussierung des Objektes und der Phase einen linearen Zusammenhang zu erhalten. Die Auswertung der Interferenzfiguren, die als gekrümmte Interferenzmuster, also als ringförmige Streifen auch in den Anordnungen nach US 4,976,504 und WO 99/42908 auftreten, ist in der Regel nicht extrem schnell durchführbar.
  • Eine hohe Genauigkeit ist beim ConoLine, dem linienweise messenden Sensor, nur im Zentrum der Fokuslinie gegeben. Außerdem ist die Tiefen-Messgenauigkeit beim ConoLine deutlich geringer als beim ConoProbe, dem punktweise messenden Sensor. Durch Wechselwirkungen zwischen der Objektoberfläche und dem Licht kann es bei diesem Prinzip wegen der Verwendung von Licht mit unterschiedlicher Polarisationsrichtung jedoch auch zu Beeinflussungen der Tiefen-Messgenauigkeit aufgrund polarisationsoptischer Effekte kommen.
  • Das Ziel ist ein robuster und dennoch genau messender, kostengünstiger Sensor, insbesondere zur Bestimmung des Mikroprofils einer Oberfläche, insbesondere entlang einer Linie, wobei die Messung jeweils mittels Auswertung eines einzigen Bildes erfolgen soll. Der Sensor auf der Grundlage des erfinderischen Verfahrens soll das Profil in einem weiten Skalenbereich detektieren können. Weiterhin ist der Sensor ohne mechanisch bewegte Teile auszuführen. Der Arbeitsabstand sollte der Messaufgabe angepasst sein und bei schnell und mit z-Komponente bewegtem Material nicht zu gering sein, also auch durchaus einige Millimeter betragen können.
  • Eine Aufgabe besteht also darin, das Profil und das Mikroprofil schnell und mit großer Genauigkeit in einem ausgedehnten Tiefenmessbereich an einem Objekt entlang einer Linie absolut zu messen. Das Verfahren soll interferenz-optischer Natur sein. Grundsätzlich sollen auch Kurzpuls-Lichtquellen zur Beleuchtung der Objektoberfläche eingesetzt werden können. Dabei geht es beispielsweise um Pulslängen der Lichtquellen im Bereich von einer 0,1 Mikrosekunde bis zu 1000 Mikrosekunden.
  • Eine weitere Aufgabe besteht darin, die Schichtdicke von transparenten Schichten zu bestimmen.
  • Die bekannten und unerwünschten 2n-Sprünge, die sich bekannterweise bei der Auswertung von Interferogrammen mit Streifen ergeben können, sollen bei der erfinderischen Lösung grundsätzlich nicht auftreten. Die erreichbare Genauigkeit soll dabei etwa der entsprechen, die mit punktweise messenden optischen Sensoren bei gleichen Objektivparametern erreichbar ist. Die erreichbare Tiefenmess-Genauigkeit soll beispielsweise für ein entsprechend kurzbrennweitiges Objektiv über der gesamten Linielänge 5 μm betragen. Die numerische Tiefen-Auflösung des Sensors kann bei 1 μm oder auch noch darunter liegen.
  • Das Objekt, beispielsweise ein Werkstück, bei dem eine Schweißnaht auf Sollprofil und Mikrorisse zu kontrollieren ist, soll beim Messen vergleichsweise schnell bewegt werden können, beispielsweise mit einer Geschwindigkeit von mehr als 10 mm/s. An die Führungsgenauigkeit des Transportsystems, besonders die langperiodische Geradheit, sollen dabei jedoch keine extremen Anforderungen bestehen, im besonderen dann nicht, wenn das Mikroprofil quer zur Bewegungsrichtung von Interesse ist.
  • Zur Anpassung an die jeweilige Messaufgabe soll das Fokussierobjektiv einfach und ohne Justierung gegen eines mit einer anderen Brennweite ausgetauscht werden können, wodurch der Tiefenmessbereich und die Tiefenempfindlichkeit oder Bereich der Schichtdickenmessung durch den Anwender jeweils optimal an die Messaufgabe angepasst werden können.
  • Beschreibung der Erfindung
  • Der Sensoreffekt basiert auf der Interferenz zweier kohärenter Lichtbündel mit Lateral-Shear. Grundsätzlich kann der Sensor als Punkt- oder Liniensensor ausgebildet sein, wobei hier im besonderen der linienhafte Profilsensor beschrieben ist, jedoch der Punktsensor stets als Sonderfall eingeschlossen ist. Der Punktsensor ist insbesondere zur Schichtdickenmessung geeignet.
  • Die Basisidee der Erfindung besteht nun darin, in einem Zweistrahl-Interferometer beim mittleren optischen Gangunterschied null mit einer astigmatischen Abbildung einer auf das Objekt projizierten Fokuslinie oder eines Fokuspunktes auf einen Kamera-Chip durch eine im optischen Gesamtsystem des Sensors eingestellte Lateral-Shear zwischen zwei kohärenten Teilbündeln ein Shear-Streifen-Muster mit einer zumindest näherungsweise konstanten Ortsfrequenz in mindestens einer Linie des Kamera-Chips einer Kamera zu erzeugen. Dabei kann die Lateral-Shear fest eingestellt sein oder in Abhängigkeit von der Messaufgabe durch optoelektronische Mittel wie LCDs oder LCOS oder DMDs variabel gemacht sein und so an die jeweilige Messaufgabe optimal angepasst werden. Die kohärenten Bündel mit Lateral-Shear entstehen durch einen Lateral-Shear erzeugenden optischen Strahlenbündelteiler mit Schichtenstrahlenteiler oder Beugungsgitter im Strahlengang. Dabei bilden die Strahlenbüschel, die sich in einer zur Fokuslinie parallelen Ebene ausbreiten, die Fokuslinie scharf auf den Kamera-Chip ab.
  • Wird keine Fokuslinie, sondern ein Fokuspunkt erzeugt, wird eine Referenzebene definiert, die der Einfallsebene des Laserbündels auf eine in der Sensoranordnung stets vorhandene Teilerschicht entspricht. In diesem Fall bilden die Strahlenbüschel, die sich in einer zur Referenzebene senkrechten Ebene ausbreiten, den Fokuspunkt scharf auf den Kamera-Chip ab. Die Strahlenbüschel in der Referenzebene bilden dagegen den Fokuspunkt unscharf ab. In den dargestellten Figuren entspricht die Referenzebene stets der Zeichenebene. So ist die auf dem Kamera-Chip entstehende Lichtfigur in der Referenzebene von größerer Ausdehnung.
  • Es wird die Ortsfrequenz des Shear-Streifen-Musters oder der Phasengang über einer Bezugsbreite 2b in mindestens einer Linie des Kamera-Chips bestimmt. Diese Linie befindet sich vorzugsweise in der definierten Referenzebene. Diese Bestimmung der Ortsfrequenz kann beispielsweise mittels Durchführen der diskreten Fast Fourier Transformation (FFT) vergleichsweise einfach und schnell durchgeführt werden. Die Differenz der von einem Objektpunkt detektierbaren Ortsfrequenz zur Ortsfrequenz desselben Objektpunktes in der Fokusposition ist der Defokussierung zumindest in einem begrenzten Tiefenbereich näherungsweise proportional. Unter Defokussierung wird der Abstand eines Objektpunktes von der exakten Fokusposition oder Schärfeposition der projizierten Laserlinie verstanden. Dieser Abstand ist die hier zu messende Größe. Die Fokusposition der Laserlinie kann, muss aber nicht, mit der Brennebene eines Fokussier-Objektivs zusammenfallen. Die Bestimmung des Abstandes von Objektpunkten in einer Linie von der Fokusposition der Laserlinie soll gleichzeitig bestimmt werden, um so das Linienprofil in dieser Linie zu bestimmen. Jedem Objektpunkt der zu messenden Oberfläche ist auf dem Kamera-Chip eine Linie zugeordnet, die eine Zeile oder Spalte des Kamera-Chips sein kann.
  • Bekanntlich kann die Fourier-Transformation eines Interferenzstreifen-Musters aber auch mittels eines optisch adressierbaren Spatial Light Modulators (OASLM) erfolgen, mit welchem die Schwerpunktlage oder Schwerpunktlagen durch Beugung abgelenkter Bündel eines Auslese-Lasers in der Fourier-Ebene eines Objektivs mittels einer Kamera bestimmt werden. Dies wurde bereits 1998 im Institut für Technische Optik der Universität Stuttgart von K.-P. Proll unter Betreuung von Herrn Prof. H. J. Tiziani untersucht.
  • Bei dieser Erfindung adressiert in Abhängigkeit von der Tiefenposition eines Objektpunktes das ortsfrequenzvariable Shear-Streifen-Muster das OASLM. Von Vorteil ist hierbei der Einsatz von schnellen OASLMs, die im KHz-Bereich arbeiten. So kann auch eine vergleichsweise schnelle Durchführung der Fourier-Transformation mit optischen Mitteln erfolgen.
  • Die Beleuchtung der Objektoberfläche erfolgt mit einer Lichtquelle mit mindestens einer Lichtwellenlänge, beispielsweise ein cw-Laser oder ein gepulster Laser, und mit mindestens einem wellenfrontformenden Objektiv und dem bereits genannten Fokussier-Objektiv.
  • Wird ein hochfrequent gepulster Laser eingesetzt, beispielsweise mit Pulswiederholraten im Kilohertzbereich oder Megahertzbereich, ist es zweckmäßig, den gepulsten Laser mit einer Hochfrequenzkamera zu synchronisieren. So können bei Einsatz geeigneter leistungsstarker sowie hochfrequent gepulster Laserquellen und Hochfrequenzkameras mit Bildwiederholraten in der Größenordnung von 1 Million Bildern pro Sekunde auch Profile ausschnittsweise oder stichprobenhaft abgetastet werden, die sich im Bereich von einigen Metern pro Sekunde bewegen. Bei diesen Bedingungen wird z. Z. jedoch – wegen der noch zu geringen Dynamik der OASLMs – nur die digitale Durchführung der Fast Fourier-Transformation (FFT) als realisierbar angesehen.
  • Das wellenfrontformende Objektiv ist vorzugsweise mit einer Zylinderlinse zur Ausbildung mindestens einer Fokuslinie vorzugsweise zumindest näherungsweise in der Brennebene des Fokussier-Objektivs ausgebildet. Die Lichtquelle kann auch aus einer Zeile aus Einzel-Laserdioden bestehen, beispielsweise einer Zeile mit 256 Einzel-Laserdioden. Es ist aber auch möglich, dass dem Fokussier-Objektiv eine Mikrolinsenanordnung, vorzugsweise eine Mikrolinsenzeile, vorgeordnet ist. So ist es möglich, dass gemäß der Anzahl der Mikrolinsen einzelne Fokuspunkte vorzugsweise eine Linie von separierten Fokuspunkten bilden. Die Beleuchtung dieser Mikrolinsenzeile kann mittels Bündelquerschnittformer auf der Grundlage von Prismen-Anamorphoten erfolgen.
  • Es wird also vorzugsweise mindestens eine schmale Fokuslinie oder vorzugsweise eine Linie von separierten Fokuspunkten im Objektraum ausgebildet. Es wird weiterhin von einer Fokuslinie gesprochen, den Fall einer Linie von separierten Fokuspunkten eingeschlossen.
  • Das auf das Objekt treffende Licht aus der Fokuslinie wird durch Reflektion und/oder Streuung mittels Strahlenbüschel, deren Ebene parallel zur Fokuslinie liegt, auf den Kamera-Chip einer Flächenkamera – oder einer Zeilenkamera bei nur einem Fokuspunkt – zumindest näherungsweise scharf abgebildet. Das Licht aus Strahlen aus einer zur Fokuslinie senkrechten Ebene wird nicht auf den Kamera-Chip fokussiert, sondern deutlich vor oder nach dem Kamera-Chip.
  • Im Kameraraum wird eine Lateral-Shear senkrecht zur Richtung der schmalen Fokuslinie erstens durch Strahlteilung mittels Diffraktion oder zweitens durch Amplitudenteilung an einer Strahlenteilerschicht erzeugt. Außerdem wird eine Wellenfrontformung des Lichtes auf dem Weg vom Objekt zur Kamera so durchgeführt, dass eine asphärische, vorzugsweise eine zylindrische Wellenfront gebildet wird und so eine astigmatische Abbildung der Fokuslinie auf die Kamera besteht. Die zylindrische Wellenfront wird mittels astigmatisch abbildendem System erzeugt, wobei dieses System ein refraktives oder ein diffraktives Zylinderobjektiv sein kann, wobei die Zylinderachse parallel zur Fokuslinie ausgerichtet sein kann. Das astigmatisch abbildende System kann auch durch einen Prismenanamorphoten in Verbindung mit einem schwachen, sphärischen Objektiv gebildet sein. Das astigmatisch abbildende System kann jedoch auch durch einen Prismenanamorphoten nur in Verbindung mit einem sphärisch ausgebildeten Fokussier-Objektiv gestaltet sein. Weiterhin kann der Kamera ein Kameraobjektiv vorgeordnet sein, welches zur scharfen Abbildung der Strahlen der Lichtbüschel dient, die sich in zur Fokuslinie parallelen Ebenen ausbreiten.
  • Der Ort dieser Wellenfrontformung ist dem Lateral-Shear erzeugenden optischen Strahlenbündelteiler auf dem Lichtweg, also im Strahlengang, vorzugsweise vorgeordnet. Aus den Pixeln des Chips der flächenhaften Kamera, die auf einer Linie senkrecht zur schmalen Fokuslinie im Objektraum ausgerichtet sind, wird die räumliche Frequenz der Lichtverteilung bestimmt.
  • Ein Lateral-Shear erzeugender optischer Strahlenbündelteiler kann zum einen als ein lichtbeugendes Gitter mit einem nachgeordneten Objektiv ausgebildet sein, wobei sich das lichtbeugende Gitter in der ersten Brennebene dieses Objektivs, in Lichtausbreitungsrichtung betrachtet, befindet. Das Objektiv ist vorzugsweise das der Kamera zugeordnete. Dabei kann sich das lichtbeugende Gitter auch in einer zu dieser Brennebene optisch konjugierten Ebene befinden, jedoch nach dem Ort der Wellenfrontformung. Eine andere Möglichkeit, einen Lateral-Shear erzeugenden optischen Strahlenbündelteiler auszubilden, besteht in der Applikation eines Dreieck-Interferometers, welches einen zyklischen Strahlengang aufweist, welches dem Raum vor der Kamera oder dem Raum vor dem Fokussierobjektiv vorgeordnet ist. Mittels diesem Dreieck-Interferometer werden zwei kohärente Teilbündel, die eine Lateral-Shear 2Δq zueinander aufweisen, gebildet. Dieses Dreieck-Interferometer kann sich bei einer komplexen, mehrstufigen Abbildungsanordnung in jedem optisch konjugierten Raum, der zu diesen beiden genannten Räumen optisch konjugiert ist, befinden.
  • Aus der räumlichen Frequenz der Lichtverteilung in der Ebene des Kamera-Chips wird nach rechnerischem Abzug einer Trägerfrequenz, die aus dem Radius der Zylinderwelle in der Detektions-Ebene resultiert, rechnerisch eine Differenzfrequenz gebildet, so dass mittels Pixel einer jeder Linie des Kamera-Chips, mindestens jedoch in einer Linie, die Differenzfrequenz bestimmt wird.
  • Diese Differenzfrequenz kann jeweils der z-Abweichung von der schmalen Fokuslinie im Objektraum eines jeden Objektpunktes der zugehörigen Linie auf der Kamera zumindest näherungsweise proportional sein. Grundsätzlich kann die Fourier-Transformation der Lateral-Shear-Verteilung – wie bereits dargestellt – auch mit optischen Mitteln durchgeführt werden.
  • Im erfinderischen optischen Verfahren wird also eine Fokusfigur, ein Fokuspunkt oder eine Fokuslinielinie, auf der zu untersuchenden Objektoberfläche ausgebildet. Im weitweren wird die Fokuslinie betrachtet. Diese wird dabei auf die Objektoberfläche mehr oder weniger scharf abgebildet, so dass dabei innerhalb des Tiefenmessbereiches vorzugsweise eine linienhafte Lichtfigur auf der Objektoberfläche gebildet wird. Es erfolgt eine Abbildung der Objektoberfläche und eine Detektion. Die objektabbildenden, also die vom Objekt zurückkommenden, Strahlenbüschel in der Ebene senkrecht zur Fokuslinie, sind bei der Detektion grundsätzlich stark defokussiert, d. h. diese Strahlenbüschel bilden in der Ebene der Detektion keine linienhafte Lichtfigur. Auf dem Weg des Lichtes von der Objektoberfläche zur Ebene der Detektion, also im Strahlverlauf werden zwei kohärente Teilstrahlenbündel gebildet, die in Ebenen senkrecht zu einer Fokuslinie eine Lateral-Shear 2Δq, die ungleich null ist, aufweisen. Die objektabbildenden Strahlenbüschel in den Ebenen parallel zur Fokuslinie sind bei der Detektion eher gut fokussiert, bilden also das Objekt eher scharf in die Ebene der Detektion ab.
  • Der Grundgedanke des erfinderischen Verfahrens, auf das notwendigste reduziert, ist der Folgende: Das Licht von der auf die Objektoberfläche abgebildeten Fokusfigur, vorzugsweise eine Fokuslinie, wobei grundsätzlich auch ein Fokusfleck erzeugt werden kann, erfährt eine Teilung der Amplitude. Den beiden dabei entstehenden kohärenten Teilstrahlenbündeln wird außerdem eine Lateral-Shear 2Δq, die ungleich null ist, in der Ebene senkrecht zur Fokuslinie aufgeprägt. Die objektabbildenden Strahlenbüschel in der Ebene senkrecht zur Fokuslinie werden bei der Detektion defokussiert und die objektabbildenden Strahlenbüschel in der Ebene parallel zur Fokuslinie werden bei der Detektion fokussiert. Letztere bilden also das Objekt eher scharf ab. So werden Shear-Streifen in der Ebene der Detektion gebildet und detektiert. Aus dem Phasengang senkrecht zu den Shear-Streifen in einem definierten Bereich 2b eines Kamera-Chips wird die Ablage eines jeden Objektpunktes von seiner Referenzposition durch die Phasendifferenz zum Referenzphasengang bestimmt.
  • Es wird also mindestens ein einziger Fokuspunkt oder eine einzige schmale Fokuslinie im Objektraum ausgebildet. Die Ausbildung mehrerer Fokuspunkt oder Fokuslinien ist auch möglich. Das Licht aus der oder den Fokusfiguren, vorzugsweise Fokuslinien auf dem Objekt wird gerichtet reflektiert und/oder gestreut.
  • Der optische Sensor zur Hochgeschwindigkeits-Profilbestimmung weist eine Lichtquelle mit mindestens einer einzigen Lichtwellenlänge auf. Dieser Lichtquelle ist mindestens eine Abbildungsstufe und außerdem ein Fokussier-Objektiv nachgeordnet, wobei die Abbildungsstufe und das Fokussier-Objektiv zum einen zur Ausbildung mindestens einer Fokuslinie auf der Objektoberfläche dienen. So wird mindestens eine linienhafte Lichtfigur auf der Objektoberfläche gebildet. Das Fokussier-Objektiv dient darüber hinaus zur Abbildung der Objektoberfläche mit der darauf abgebildeten Fokuslinie. Dem Fokussier-Objektiv ist eine Kamera mit einem Kamera-Chip nachgeordnet. Erfinderisch ist das Fokussier-Objektiv astigmatisch abbildend ausgebildet oder aber das Fokussier-Objektiv ist anastigmatisch abbildend ausgebildet und auf dem Lichtweg von der Objektoberfläche zur Kamera ist dem Fokussier-Objektiv mindestens ein astigmatisch abbildendes System nachgeordnet. So besteht in jedem Fall ein astigmatisches Abbildungssystem, welches die Fokuslinie von der Objektoberfläche astigmatisch auf den Kamera-Chip abbildet. Die objektabbildenden, also die vom Objekt zurückkommenden Strahlenbüschel in der Ebene senkrecht zur Fokuslinie, sind bei der Detektion grundsätzlich stark defokussiert, d. h. diese Strahlenbüschel bilden in der Ebene der Detektion dann keine linienhafte Lichtfigur.
  • Im Strahlengang von der Objektoberfläche zur Ebene des Kamera-Chips ist ein Lateral-Shear erzeugendes optisches Mittel angeordnet. So werden im Strahlverlauf zwei kohärente Teilstrahlenbündel gebildet, die in den Ebenen senkrecht zu einer Fokuslinie eine Lateral-Shear 2Δq aufweisen.
  • Vorzugsweise ist dabei das astigmatisch abbildende System dem Lateral-Shear erzeugenden optischen Mittel vorgeordnet.
  • Vorzugsweise ist das astigmatisch abbildende System als Prismenanamorphot oder als Gitteranamorphot oder als Prismen-Gitter-Anamorphot ausgebildet und außerdem dem Lateral-Shear erzeugenden Strahlenbündelteiler vorgeordnet.
  • Es kann aber auch sein, dass das astigmatisch abbildende System mit mindestens einem Zylinderobjektiv ausgebildet ist. Dies ermöglicht eine volumenminimierte Anordnung.
  • Vorzugsweise ist der Lateral-Shear erzeugende optische Strahlenbündelteiler als ein asymmetrisches Dreieck-Interferometer ausbildet. Das Dreieck-Interferometer ist sehr robust und arbeitet am optischen Gangunterschied null. Dies ist für die stabile Funktion des Sensors von großer Bedeutung. Die sich am Ausgang desselben ergebende Lateral-Shear 2Δq ist eine Funktion der Asymmetrie und bei einem symmetrischen Dreieck-Interferometer null. Außerdem ist bei einem Dreieck-Interferometer die Lateral-Shear unabhängig von der Wellenlänge des Lichtes. Auch diese Eigenschaft kann bei der Signalauswertung von großem Vorteil sein, da so Licht unterschiedlicher Wellenlängen als cw-Licht oder gepulstes Licht mit Pulsen jeweils anderer Wellenlänge so Interferenz-Streifenmuster unterschiedlicher Ortsfrequenz bilden kann. Das gepulste Licht kann von einem oder mehreren Lasern generiert werden, wobei jeder Impuls eine andere Wellenlänge aufweisen kann. Bei Einsatz von mehreren gepulsten Lasern kann das Licht unterschiedlicher Wellenlänge zeitlich synchronisiert ausgesendet werden. So ist eine eindeutige Auswertung möglich.
  • Mittels Frequenzanalyse können über diese Interferenz-Streifenmuster unterschiedlicher Ortsfrequenz die erzeugenden Lichtwellenlängen wiedererkannt werden. Dies ist von Vorteil, wenn mehrere linienhafte Lichtfiguren mit Licht verschiedener Wellenlänge an lateral oder in der Tiefe verschiedenen Orten im Objektraum ausgebildet werden sollen. Es können Lichtquellen eingesetzt werden, die Frequenzkämme erzeugen. Mittels dieser spektralen Kodierung kann bei der Auswertung je über die zur Wellenlänge zugehörige Ortsfrequenz ν aus einer flächenhaften Lichtverteilung in der Detektorebene sowohl die z-Position als auch der laterale Ort eines Objektpunktes bestimmt werden. Dabei ist vorzugsweise dem asymmetrischen Dreieck-Interferometer im Strahlengang eine Spaltblende zugeordnet ist, wo die Strahlenbüschel aus Ebenen, die senkrecht zu Fokuslinien liegen, sich schneiden. Die Intensitätsverteilung I(x, ν) im Shear-Streifenfeld über x in der Ebene der Detektion, wobei die x-Richtung senkrecht zu den Streifen verläuft, kann mit der mittleren Intensität I0, der Streifensichtbarkeit ν, und einer Anfangsphase φ0, die aber in der Regel nahe null sein sollte, wie folgt beschrieben werden: I(x, ν) = I0[1 + ν·cos(2πνx + φ0)].
  • Für die Ortsfrequenz ν ergibt sich dann:
    Figure 00080001
    wobei ρL die detektierte Streifenzahl auf dem Kamera-Chip der ausgewerteten Breite 2b beträgt. Für den Randstrahlwinkel α gilt dann für hinreichend kleine Winkel näherungsweise
    Figure 00080002
  • Dabei stellt r den jeweils aktuellen Abstand des idealisierten Quellpunktes der interferierenden Wellen in einem Schnitt senkrecht zur Fokuslinie dar. Im Fall, dass sich ein Objektpunkt im Fokus des Fokussier-Objektivs befindet, soll r = r0 gelten. Ein möglicher Wert für r0 kann bei entsprechender Gestaltung des optischen Layouts des Sensors die Brennweite des Kameraobjektivs fK' sein. Ist der betrachtete Objektpunkt um einen Betrag Δz defokussiert, verändert sich der Randstrahlwinkel α. Liegt der idealisierte Quellpunkt der interferierenden Teilstrahlenbündel, die durch Zylinderwellen hinreichend gut beschrieben werden können, in der Hauptebene des Kameraobjektivs, gilt Δz = Δr, und es folgt für den hinreichend kleinen, objektpunktabhängigen Randstrahlwinkel α
    Figure 00080003
  • Aus diesen Zusammenhängen kann sowohl die Abhängigkeit der Streifenzahl ρL, die ja für den ortsabhängigen Phasengang über dem Detektionsfeld steht, bzw. die Ortsfrequenz in Abhängigkeit von der Ablage Δz des jeweiligen Objektpunktes von der Brennebene des Kameraobjektivs mit
    Figure 00090001
    bestimmt werden. Bei einer Breite des ausgewerteten Streifenfeldes von beispielsweise 2b = 4mm, wobei dieser Breite etwa 640 Pixel auf dem Kamera-Chip zugeordnet sind, einer fest eingestellten Lateral-Shear von 2Δq = 0,5 mm, bei einer Brennweite des Fokussierobjektivs fK' = 25 mm und einer Ablage des betrachteten Objektpunktes vom Fokus von 5 μm ergibt sich für die Lichtwellenlänge λ = 0,5 μm über dem Detektionsfeld eine Änderung der Streifenzahl um 0,032 bei einer Gesamtstreifenzahl von 160. Diese Änderung der Streifenzahl entspricht einer Phasenänderung im Feld von 11,5° über der Breite von 4mm. Eine derartige Phasenänderung kann mit den bekannten phasenauswertenden Algorithmen noch gut aufgelöst werden, wenn man bedenkt, dass im phasenauswertenden Algorithmus bis zu 640 Pixel für einen einzigen Phasenwert ausgewertet werden können. Dies trifft auch zu, wenn der Phasengang über dem Feld bei besonders kleinen Brennweiten fK' nicht streng linear ist. Dafür sind die Algorithmen in geeigneter Weise anzupassen. Wie das Dimensionierungsbeispiel zeigt, kann mit einem derartig dimensionierten Sensor eine Auflösung von besser als 5 μm erreicht werden. Es ergibt sich somit im Vergleich zu einem abstandsmessenden Interferometer mit der Lichtwellenlänge von ebenfalls 0,5 μm ein Dehnungsfaktor der effektiven Wellenlänge des Sensors von 625.
  • Der Tiefenmessbereich liegt bei dieser Aufgabenstellung in der Größe von mindestens 100 μm und ist somit für die Messung eines Mikroprofils in der Regel hinreichend groß. Zu bemerken ist noch, dass die unterschiedliche Tiefenposition nur eine vergleichsweise geringe Modulation der Ortsfrequenz erzeugt. In der Regel liegt die Abweichung von der mittleren Ortsfrequenzen in einem Bereich von maximal etwa +/– 2%. Dies ergibt sich aus dem begrenzten Tiefenschärfebereich. Außerhalb dieses Tiefenschärfebereiches ist der Kontrast der Interferenzerscheinung null. So kann ein Streifenmuster dessen zugehörige Lichtwellenlänge sich beispielsweise um mehr als 5% von einer ersten Wellenlänge, unterscheidet durch ein geeignetes frequenzselektives numerisches Auswerteverfahren „identifiziert" werden. Mit diesem Ansatz können in der Tiefe des Objektraumes mehrere, numerisch unterscheidbare Fokuslinien „positioniert" werden. Dies bietet die Möglichkeit der Schaffung eines gegenüber einer Einzelwellenlänge mehrfach vergrößerten Tiefenmessbereiches. So kann eine sehr hohe Messgenauigkeit durch diesen Mehrwellenlängen-Ansatz, bzw. chromatischen Ansatz mit einem großen Tiefenmessbereich gekoppelt werden. Die numerischen Auswerteverfahren können beispielsweise auf der Grundlage einer Bandpassfilterung durchgeführt werden, wobei diese Verfahren hier nicht weiter diskutiert werden. Es ist in jedem Fall hierbei jedoch möglich, moderne phasenauswertende Verfahren, einschließlich Wavelets, anzuwenden, um den Gesamtphasengang über der Breite 2b oder die Abweichung desselben von einem mittleren Gesamtphasengang mit hoher Auflösung zu bestimmen. Der Gesamtphasengang kann in der Größenordnung von 1000π liegen. Bestimmt werden muss also letztlich immer der Gesamtphasengang in jeder Linie des Kamera-Chips, die senkrecht zu den Shear-Streifen liegt. Dabei gibt es bei einer cw-Multiwellenlängen-Lichtquelle in der Regel gleichzeitig mehrere Muster unterschiedlicher Ortsfrequenz, um den Tiefenbereich lückenlos abdecken zu können. Bei der Auswertung muss jedoch beachtet werden, dass die Ortsfrequenz im Streifenmuster bei der Auswertung größerer Felder nur näherungsweise eine Konstante ist.
  • Es ist auch möglich, bei beispielsweise drei Laserwellenlängen, die 475 nm, 532 nm und 635 nm oder auch 633 nm betragen können, einen refraktiv, dispersiv oder dispersiv-refraktiv wirkenden optischen Keil im Strahlengang anzuordnen. Der optische Keil, der für die mittlere Wellenlänge vorzugsweise eine Ablenkung von null aufweist, ist im Strahlengang vorzugsweise vor dem Kameraobjektiv angeordnet und erzeugt eine wellenlängenabhängige Ablenkung der Lichtstrahlenbündel. So ergeben sich in der Detektions-Ebene, also auf dem Kamera-Chip, drei lateral völlig getrennte Bereiche für die drei Streifenmuster in den drei Wellenlängen. So ist eine einfache Auswertung der drei Streifenmuster möglich, da jeweils nur monofrequente Signale auftreten. Dabei sollten sich die drei Messbereiche in der Tiefe etwas überlappen.
  • Weiterhin wird der folgende erfinderische Ansatz vorgeschlagen: Der optische Sensor zur Hochgeschwindigkeits-Profilbestimmung weist eine Lichtquelle mit mindestens einer Lichtwellenlänge auf. Dieser ist mindestens eine Abbildungsstufe und außerdem ein Fokussier-Objektiv nachgeordnet, wobei die Abbildungsstufe und das Fokussier-Objektiv zum einen zur Ausbildung mindestens einer Fokuslinie auf der Objektoberfläche dienen. So wird eine linienhafte Lichtfigur auf der Objektoberfläche gebildet. Das Fokussier-Objektiv dient darüber hinaus zur Abbildung der Objektoberfläche mit der Fokuslinie. Dem Fokussier-Objektiv sind ein Kameraobjektiv und eine Kamera mit einem Kamera-Chip nachgeordnet. Erfinderisch ist hierbei, dass dem Fokussier-Objektiv auf dem Lichtweg mindestens ein astigmatisch abbildendes System nachgeordnet und dem Kameraobjektiv vorgeordnet sein kann und diesem Kameraobjektiv vorzugsweise ein Phasengitter zugeordnet ist, welches sich zumindest näherungsweise in der Fokusebene des Kameraobjektivs befindet, welche dem Fokussierobjektiv zugewandt ist. Das Phasengitter in der Fokusebene des Kameraobjektivs stellt gemeinsam mit dem Kameraobjektiv ebenfalls einen Lateral-Shear erzeugenden optischen Strahlenbündelteiler dar, jedoch ist hierbei bekannterweise die nach dem Kameraobjektiv auftretende Lateral-Shear abhängig von der Wellenlänge λ des verwendeten Lichtes. Als Effekt ergibt sich so in der Ebenen des Kamera-Chips für alle Wellenlängen die gleiche Ortsfrequenz. Dies kann von Vorteil sein, jedoch kann so aber keine Trennung von Licht verschiedener Wellenlängen erreicht werden.
  • Weiterhin wird der folgende erfinderische Ansatz für den Sensor vorgeschlagen: Der optische Sensor vorzugsweise zur Hochgeschwindigkeits-Profilbestimmung weist eine Lichtquelle mit mindestens einer Lichtwellenlänge auf. Dieser ist mindestens eine Abbildungsstufe und außerdem ein Fokussier-Objektiv nachgeordnet, wobei die Abbildungsstufe und das Fokussier-Objektiv zum einen zur Ausbildung mindestens einer Fokuslinie auf der Objektoberfläche dienen. So wird eine linienhafte Lichtfigur auf der Objektoberfläche gebildet. Das Fokussier-Objektiv dient darüber hinaus zur Abbildung der Objektoberfläche mit der Fokuslinie. Dem Fokussier-Objektiv sind ein Kameraobjektiv und eine Kamera mit einem Kamera-Chip nachgeordnet. Erfindungsgemäß können dem Fokussier-Objektiv auf dem Lichtweg mindestens ein astigmatisch abbildendes System nachgeordnet und ein Lateral-Shear erzeugender optischer Strahlenbündelteiler dem Kameraobjektiv nachgeordnet und dem Kamera-Chip vorgeordnet sein. Dies führt zu einer platzsparenden Anordnung, wenn vorzugsweise das abbildende System mit mindestens einem Zylinderobjektiv ausgebildet ist. Vorzugsweise ist dabei die Zylinder-Achse dieses Zylinderobjektivs parallel zur Fokuslinie angeordnet. Das astigmatisch abbildende System ist dabei vorzugsweise mit mindestens einem Prismenanamorphoten ausgebildet. Vorzugsweise wird der Lateral-Shear erzeugende optische Strahlenbündelteiler als ein Dreieck-Interferometer ausgebildet, um eine eine wellenlängenunabhängige Lateral-Shear erzeugen zu können. Wird jedoch für den Lateral-Shear erzeugende optische Strahlenbündelteiler ein Phasengitter eingesetzt, beispielsweise um eine sehr kompakte Sensoranordnung zu erhalten, wird das Phasengitter mit äquidistanten Furchen ausgebildet. Vorzugsweise weist das Zylinderobjektiv die gleiche Brennweite wie das Kameraobjektiv auf und der Fokus des Zylinderobjektivs befindet sich zumindest näherungsweise im Hauptpunkt des Kameraobjektivs, der dem Zylinderobjektiv zugewandt ist. So kann das Kameraobjektiv in der Ausdehnung im Hauptschnitt zur Volumenminimierung beschnitten werden. Das Zylinderobjektiv ist vorzugsweise als Phasengitter ausgebildet, um Bauvolumen zu sparen. Vorzugsweise ist eine Doppelspaltblende in der Fokalebene des Zylinderobjektivs angeordnet. Diese Doppelspaltblende sperrt unerwünschtes streuendes und gebeugtes Licht.
  • Der Sensor ist vorzugsweise in der folgenden Weise ausgebildet. Als Lichtquelle wird ein Laser eingesetzt und das Fokussierobjektiv und Kameraobjektiv sind als eine afokale Abbildungsstufe ausgebildet. Das vorzugsweise angeordnete Phasengitter zur Erzeugung von zwei kohärenten Teilbündeln ist in der gemeinsamen Brennebene von Fokussierobjektiv und Kameraobjektiv angeordnet. Das astigmatische Abbildungssystem ist vorzugsweise als diffraktive Zylinderlinse ausgebildet und der diffraktiven Zylinderlinse ist vorzugsweise eine Spaltblende nachgeordnet.
  • Vorzugsweise kann das diffraktiv und vorzugsweise auch als Phasengitter ausgebildete Zylinderobjektiv auch etwas dezentriert sein, wobei die Richtung der Dezentrierung senkrecht zur Fokuslinie ausgebildet ist. So entstehen durch Amplitudenteilung vorzugsweise zwei kohärente Teilbündel mit unterschiedlicher Krümmung. Vorzugsweise werden die kohärenten Teilbündel mittels Sagittalstrahlen scharf in die Ebene der Detektion abgebildet. Vorzugsweise wird ein kohärentes Teilbündel mittels Meridionalstrahlen scharf in die Ebene der Detektion abgebildet. In diesem Fall entstehen keine äquidistanten Shear-Interferenz-Streifen in der Ebene der Detektion. Jedoch ist eines der kohärenten Bündel vom anderen vollständig überdeckt. So wird die Lichtenergie optimal genutzt.
  • Für den Sensor können mehrere Laser mit jeweils unterschiedlichen Wellenlängen als Lichtquellen eingesetzt werden. Es kann zur spektralen Trennung des Lichtes eine farbsensitive Kamera mit mindestens zwei Farbkanälen oder wie bereits erwähnt ein optischer Keil zur spektralen Aufspaltung angeordnet sein, beispielsweise der ImSpektor der Firma ZEUTEC verwendet werden. Dabei ist das Fokussierobjektiv vorzugsweise chromatisch ausgebildet, jedoch das Kameraobjektiv vorzugsweise achromatisch ausgebildet. Diese chromatische Gestaltung des Fokussierobjektivs ermöglicht, eine zweite oder weitere Fokuslinien in einer jeweils anderen Tiefe des Objektraumes auszubilden.
  • Beim Verfahren mit den angegebenen Mitteln wie Lichtquelle, Fokussier-Objektiv, Kamera-Chip einer Kamera ist also eine schmale Fokuslinie im Objektraum ausgebildet. Dabei wird das auf das Objekt treffende Licht aus der Fokuslinie durch Reflektion und/oder Streuung mittels Strahlenbüschel, deren Ebenen parallel zur Fokuslinie liegen, scharf abgebildet. Die Strahlenbüschel, deren Ebenen senkrecht zur Fokuslinie liegen sind bei der Detektion defokussiert und vor der scharfen Abbildung aus dem Strahlenbündel vom Objekt werden zwei kohärente Teilstrahlenbündel erzeugt, die eine Lateral-Shear zueinander und in der Ebene senkrecht zur Fokuslinie aufweisen. So können bei der Detektion in der Ebene der scharfen Abbildung der Strahlenbüschel Shear-Streifen aufgenommen werden.
  • Es können also gemäß dem erfinderischen Verfahren zwei kohärente Teilstrahlenbündel mit einer Lateral-Shear mittels erstens Strahlteilung durch Diffraktion oder zweitens Amplitudenteilung an einer Teilerschicht erzeugt werden. Weiterhin wird also eine Wellenfrontformung des Lichtes auf dem Weg vom Objekt zur Kamera durchgeführt wird. So werden zylindrische Wellenfronten gebildet und so besteht eine astigmatische Abbildung der Fokuslinie auf den Kamera-Chip der Kamera. Der Ort dieser Wellenfrontformung ist dem Lateral-Shear erzeugenden optischen Strahlenbündelteiler auf dem Lichtweg jeweils vorgeordnet und aus den Pixeln der flächenhaften Kamera, die auf einer Linie senkrecht zur schmalen Fokuslinie im Objektraum ausgerichtet sind, wird die räumliche Frequenz der Lichtverteilung oder der Phasengang über der lateralen Ausdehnung des Kamera-Chips bestimmt. Es kann aus dieser Frequenz nach Abzug einer Trägerfrequenz, die aus dem Radius der Zylinderwelle resultiert, eine Differenzfrequenz gebildet werden, so dass mittels Pixel einer jeder Linie des Kamera-Chips, mindestens jedoch in einer Linie, eine Differenzfrequenz bestimmt wird, wobei diese Differenzfrequenz jeweils zur Berechnung der z-Abweichung eines jeden Objektpunktes von der schmalen Fokuslinie im Objektraum verwendet wird.
  • Weiterhin können vorzugsweise mehrere Fokuslinien im Objektraum übereinander angeordnet sein, wodurch synchron das Mikroprofil über einen größeren Tiefenbereich erfasst werden kann. Vorzugsweise sind mehrere Fokuslinien unterschiedlicher Farbe im Objektraum nebeneinander angeordnet. Es können aber auch mehrere Fokuslinien im Objektraum unterschiedlicher Farbe auf einer schrägen Fläche angeordnet sein.
  • Die Anordnungsreihenfolge von Shear-erzeugenden und Astigmatismus-erzeugenden optischen Mitteln ist beim Einsatz eines Dreieck-Interferometers zur Lateral-Shear Erzeugung beliebig. Beim Einsatz einer asphärischen Linse, in der Regel eine Zylinderlinse zur Erzeugung von Astigmatismus, und einem Phasengitter-Strahlenbündelteiler ist diese asphärische Linse dem Phasengitter stets vorgeordnet. Beim Einsatz eines Gitter- oder Prismen-Anamorphoten zur Erzeugung von Astigmatismus ist dessen Position zum Lateral-Shear erzeugenden optischen Strahlenbündelteiler beliebig. Für eine Multi-Linien-Anordnung, wobei der Linienort über die Wellenlänge diffraktiv oder refraktiv erzeugt wird, ist wohl ein Dreieck-Interferometer als Lateral-Shear erzeugender optischer Strahlenbündelteiler besonders geeignet, da jede Wellenlänge in der Detektorebene immer in eine eigene Ortfrequenz umgewandelt wird.
  • Für einen Sensor mit einem besonders langbrennweitigen Fokussierobjektiv kann ein großer Tiefenmessbereich mit einer reduzierten Tiefenempfindlichkeit realisiert werden. So kann mit einer entsprechend schnellen Kamera eine Erfassung von vergleichsweise groben 3D-Profilen auch aus der Hand erfolgen. Dabei kann der Betrag der Bewegung in Bewegungsrichtung des Sensors, also hier in x-Richtung, durch ein externes optisches Positionsbestimmungssystem, beispielsweise in der An eines Mini-GPS, welches die Lage des Sensorkopfes zumindest näherungsweise erfasst werden. Es kann aber auch die Bewegung des Sensors durch eine Korrelationsauswertung von Strukturmerkmalen des Messobjektes selbst erfasst werden. Das optische Positionsbestimmungssystem kann dabei auch auf der Triangulation basieren.
  • Für die Messung der Schichtdicke liefert jeder Reflex von einer Grenzfläche ein reflektiertes Bündel, welches in zwei kohärente Teilbündel aufgespaltet und vorzugsweise in der beschriebenen An astigmatisch abgebildet wird. Aus dem entstehenden Interferogramm in der Detektionsebene wird die Schichtdicke unter Berücksichtigung der bekannten Brechungsindizes der Schicht bestimmt. Bei diesem optisches Verfahren werden Informationen über die Schichtdicke einer Schicht gewonnen, indem das detektierte Interferogramm ausgewertet wird. Von besonderem Vorteil ist die Detektion mit einer schnellen CCD-Zeilenkamera.
  • Beschreibung der Figuren
  • Die in 1 bis 8 dargestellten Sensoren werden als Shearoline-Sensor bezeichnet, da die auf dem Objekt entstehende Fokusfigur jeweils eine Linie darstellt und der Shear-Effekt angewendet wird.
  • Das in 1 von einer Laserdiode 1, die als Punktlichtquelle ausgebildet ist, ausgehende Lichtbündel gelangt auf eine refraktive Zylinderlinse 2, so dass die Strahlen im Hauptschnitt kollimiert werden. Gegebenenfalls auftretender Astigmatismus der Laserdiode 1 spielt hier nur eine untergeordnete Rolle, bzw. wird durch fachgerechtes Tun korrigiert. Die Strahlen senkrecht zum Hauptschnitt nach der Zylinderlinse 2 verlaufen unverändert weiter. So besteht eine zylindrische Welle mit der Zylinderachse parallel zur Hauptebene. Diese Welle tritt in den Teilerwürfel 3 ein. Das reflektierte Licht gelangt auf das sphärische Objektiv 4, dessen rückabgebildeter Brennpunkt mit der Punktlichtquelle zusammenfällt, und es entsteht wieder eine zylindrische Wellenfront, jedoch nun mit der Zylinderachse senkrecht zur Hauptschnitt. Es bildet sich auf dem Objekt 5 in und auch in der Umgebung der Fokusposition eine Fokuslinie aus. Das sphärische Objektiv 4 ist refraktiv ausgebildet und mindestens nahezu beugungsbegrenzt für die Laserwellenlänge korrigiert, da die Fokuslinie schon eine Ausdehnung von einigen Millimetern aufweisen kann. Das von dieser Fokuslinie von der Objektoberfläche rückgestreute Licht passiert das Objektiv 4 und den Teilerwürfel 3 und gelangt auf eine refraktive Zylinderlinse 6, die zweite Zylinderlinse im Sensor. Die an der Zylinderlinse 6 konvergierende Zylinderwelle durchsetzt ein Phasengitter 7 mit äquidistanten Mikrofurchen. Es entstehen durch Diffraktion zwei kohärente Teilbündel, also hier zwei zylindrische Wellen. Von großer Wichtigkeit ist, dass sich das Phasengitter 7 in der Fourier-Ebene des nachgeordneten Kameraobjektivs 8 befindet. Die zylindrischen Wellen konvergieren im Hauptschnitt je nach Fokusposition, beispielsweise unmittelbar vor dem Kameraobjektiv in Om1' und Om2', wo eine ausreichend breite Spaltblende angeordnet ist, um Streulicht und weitere gebeugtes Licht zu sperren. Die Spaltbreite ist jedoch so gewählt, dass auch bei defokussierter Objektlage beide kohärente Lichtbündel die Spaltblende passieren können, da sich die ausbildenden Fokuslinien bei Defokussierung in der Tiefe verschieben. Die sich ausbildenden Fokuslinien stellen hier die reellen Bilder Om1' und Om2' der Durchstoßpunkte der Fokuslinien auf dem Objekt hier im Hauptschnitt dar. Grundsätzlich kann auch eine lichtstreuende Zylinderlinse verwendet werden, da es grundsätzlich keine Rolle spielt, ob die Bilder Om1' und Om2' des Fokusflecks O reell oder virtuell sind. D. h., das 2. Zylinderlinsen-Objektiv kann lichtsammelnd oder lichtstreuend sein. Bei einer sammelnden Zylinderlinse sind die Anforderungen an das nachfolgende Objektiv in der Regel geringer, da die benutzte Öffnung desselben kleiner ist.
  • Die beiden kohärenten Bilder der Fokuslinien, wobei sich die Fokuslinien auf dem Objekt ausbilden, werden durch das Kameraobjektiv 8 auf den Kamera-Chip 9 einer Kamera abgebildet. Dorthin werden die Sagittalstrahlen Os1' und Os2' des Objektpunktes O abgebildet. Das sich auf dem Kamera-Chip 9 ergebene Shear-Streifenbild zeigt 2. Die Ortsfrequenzänderung auf dem Kamera-Chip 9 wurde hier übertrieben stark dargestellt. Die Ortsfrequenzänderung liegt typischerweise nur im Bereich von ein bis zwei Prozent der mittleren Frequenz. Fokuslagen, die eine größere Ortsfrequenzänderung bewirken könnten, liefern Interferenzen mit dem Streifenkontrast um null, da dann der Objektpunkt sich bereits deutlich außerhalb des Tiefenmessbereiches befindet.
  • Das sphärische Objektiv 8 ist hier refraktiv ausgebildet. Es kommt auf dem Kamera-Chip 9 zur Interferenz der Teilstrahlenbündel mit Lateral-Shear, so dass im Überlappungsbereich der beiden kohärenten Zylinderwellen Lateral-Shear-Streifen detektiert werden können. Die Sagittalstrahlen, also die Strahlen in Büscheln senkrecht zum Hauptschnitt, bilden die Fokuslinie auf dem Objekt 5 zumindest näherungsweise scharf auf den Kamera-Chip 9 ab. In Abhängigkeit von der aktuellen Lage eines jeden Punktes des Objektes 5 in der Fokuslinie entsteht eine von der Abweichung Δr von der Brennebene abhängige Raumfrequenz ν. So kann das Profil entsprechend der numerischen Apertur der beiden Objektive 4 und 8 lateral in Richtung der Fokuslinie aufgelöst werden. Die 2 zeigt eine typische Lateral-Shear-Streifen-Verteilung auf dem Kamera-Chip 9. Die Auswertung zur Bestimmung der Ortsfrequenz kann durch eine FFT erfolgen. Es ist aber auch möglich die Phasenänderung über einen definierten Bereich 2b auf dem Kamera-Chip mittels bekannter räumlicher Phasenauswertung zu bestimmen. Da die diffraktive Zylinderlinse 6 eine zusätzliche Wellenfrontkrümmung eingeführt hat, die zu einer Trägerfrequenz führt, muss diese Trägerfrequenz herausgerechnet werden. Dann ist die Ortsfrequenz ν in jeder Zeile des Kamera-Chips dem Abstand Δz eines jeden Objektpunktes von der Brennebene des Fokussierobjektivs zumindest näherungsweise proportional. Die Bestimmung des Phasenganges über 2b kann mittels räumlicher Phasenzellen erfolgen. So können Algorithmen aus dem dynamischen Phasenschiebeverfahren angewendet werden. Beispielsweise kann der bekannte 5-Phasen-Schiebe-Algorithmus nach J. Schwider Einsatz finden.
  • Der Objektivwechsel von Objektiv 2 erfolgt stets so, dass der Fokus eines jeden Objektivs in der Position F2 ist. Eine entsprechende mechanische Tubuslänge ist bei Objektiven unterschiedlicher Brennweite bei Konstruktion stets zu berücksichtigen.
  • Es kann eine CMOS-Flächenkamera mit einer logarithmischen Kennlinie eingesetzt werden, wenn beispielsweise nur die Grundwelle einer zumindest näherungsweise bekannter Frequenz ausgewertet wird. So ist eine große Dynamik zu erreichen.
  • Die Anordnung in der 1 ermöglicht einen großen Tiefenmessbereich, und führt zu einem konstanten Abbildungsmaßstab und die Ortsfrequenzdifferenz ist streng proportional zur Ablage Δz eines Objektpunktes von der Fokalebene.
  • Die Anordnung nach 3, die weitgehend auf der Gestaltung nach 1 basiert, ermöglicht bei einer einfachen Anordnung mit nur einem Fokussierobjektiv 4 einen etwas kleineren Tiefenmessbereich. Der Abbildungsmaßstab ist hier über der Tiefe nicht ganz konstant, da es hier keinen telezentrischen Strahlengang gibt. Die Prismengruppe stellt eines Prismenanamorphoten 10 dar, der aus dem sphärischen Bündel eine asphärische Wellenfront erzeugt. Durch die Bündelvergrößerung nach dem Prismenanamorphoten 10 werden die Strahlenbüschel aus Ebenen parallel zur Fokuslinie „extrafokal" abgebildet. Das Bild des Punktes O wird mittels Meridionalstrahlen in Om1' und Om2' abgebildet und mittels Sagittalstrahlen nach Os1' und Os2'. Das sich auf dem Kamera-Chip 9 ergebene Shear-Streifenbild zeigt 4. Wirkt der Prismenanamorphot 10 bündelverkleinernd, indem die erste Prismenfläche jeweils senkrecht durchsetzt wird, werden die Strahlenbüschel aus Ebenen parallel zur Fokuslinie „intrafokal" abgebildet.
  • In 5 ist eine Lichtquelle 21 angeordnet, die als Multiwellenlängen-Laser-Licht-Quelle, ausgebildet ist. Diese Lichtquelle kann also eine Frequenzkamm-Charakteristik aufweisen. Der Lichtquelle 21 ist ein astigmatisch abbildendes, wellenfrontformendes optisches System 22 nachgeordnet. Dieses System 22 erzeugt gemeinsam mit dem chromatisch ausgebildeten Fokussierobjektiv 4 jeweils Fokuslinien in unterschiedlichen Tiefen des Objektraumes in Abhängigkeit von der Wellenlänge des von der Lichtquelle 21 ausgesendeten Lichtes. Dabei bleibt es letztlich fachgerechtem Tun vorbehalten, die speziellen Eigenschaften der Lichtquelle 21 wie z. B. in Lichtausbreitungsrichtung unterschiedliche Positionen der Quellzentren und/oder unterschiedliche Abstrahlcharakteristiken zu kompensieren. Das System 22 sollte am besten die Quellzentren aller Farben nach Unendlich abbilden, wobei die Ausbreitungsrichtung für alle Wellenlängen zumindest im Hauptschnitt gleich sein sollte. Dann ist das Ziel, linienhafte Fokusfiguren, die in der Tiefe, bzw. Höhe, in einer stehenden Ebene „gestapelt" zu generieren, erreichbar. Für die messtechnische Applikation bringt die Anordnung der Fokuslinien in der stehenden Ebene Vorteile, da so ein präziser Schnitt durch das Messobjekt erzeugt werden kann. Die Frequenzabstände sind so groß gemacht, dass mittels geeigneter Auswertetechnik die jeweilige Wellenlänge erkannt wird. Es sind auch gepulste Laser mit einer jeweils anderen Wellenlänge einsetzbar, so dass ein zeitliches Multiplexing betrieben werden kann. Die Frequenzmodulation durch die Tiefenposition ist stets geringer als der Ortsfrequenzabstand, der sich durch die Lichtwellenlänge ergibt. Gut für die Auswertung ist, wenn auf dem Kamera-Chip 9 nur maximal zwei bis drei Interferenzstreifenmuster verschiedener Ortsfrequenz gleichzeitig zur Ausbildung kommen. Das Licht der anderen Wellenlängen wird schon an der Einzelspaltblende 16 weitgehend blockiert. Dazu befindet sich diese Einzelspaltblende 16 in der Brennebene des Zylinderobjektivs 6. Die Wirkung dieser Einzelspaltblende 16 ist der eines konfokalen Pinholes vergleichbar, auch wenn die sperrende Wirkung hier nur in einer Richtung auftritt.
  • 7 zeigt eine Anordnung mit einem vergleichsweise großen Tiefenmessbereich. Der Abbildungsmaßstab ist konstant und die auf dem Kamera-Chip 9 zu detektierende Ortsfrequenzdifferenz ist proportional zu Δz. Es wird eine diffraktive Zylinderlinse 6 verwendet. Der Lateral-Shear-erzeugende Strahlenbündelteiler besteht aus einem Phasengitter 7 und dem Objektiv 8, wobei sich das Phasengitter 7 in der Brennebene des Objektivs 8 befindet. Das sich auf dem Kamera-Chip 9 ergebene Shear-Streifenbild zeigt 8. Auch hier ist die Ortsfrequenzvariation extrem übertrieben stark dargestellt. Fremdlicht, welches beispielsweise bei translucenten Objekten auftreten kann, wird an der Doppelspaltblende 17 weitgehend blockiert. Dazu befindet sich diese Doppelspaltblende 17 in der Brennebene des Zylinderobjektivs 6.

Claims (32)

  1. Optischer Sensor, mit einer Lichtquelle (1) mit mindestens einer Lichtwellenlänge, einem Fokussier-Objektiv (4), einer Abbildungsstufe (2) zur Ausbildung mindestens einer Fokuslinie auf der Objektoberfläche (5) und einer Kamera mit einem Kamera-Chip (9), gekennzeichnet dadurch, dass das Fokussier-Objektiv (4) astigmatisch abbildend ausgebildet ist oder dass das Fokussier-Objektiv (4) anastigmatisch abbildend ausgebildet ist und auf dem Lichtweg zum Kamera-Chip (9) der Kamera dem Fokussier-Objektiv (4) mindestens ein astigmatisch abbildendes System nachgeordnet ist, so dass ein astigmatisches Abbildungssystem besteht, welches die Fokusfigur, ein Fokuspunkt oder eine Fokuslinielinie, von der Objektoberfläche (5) astigmatisch auf den Kamera-Chip (9) abbildet und auf dem Lichtweg zum Kamera-Chip (9) ein Lateral-Shear erzeugender optischer Strahlenbündelteiler im Strahlengang angeordnet ist.
  2. Optischer Sensor nach Anspruch 1, gekennzeichnet dadurch, dass das astigmatisch abbildende System dem Lateral-Shear erzeugenden optischen Strahlenbündelteiler vorgeordnet ist.
  3. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 2, gekennzeichnet dadurch, dass das astigmatisch abbildende System als Prismenanamorphot (10) oder als Gitteranamorphot ausgebildet ist und dem Lateral-Shear erzeugenden optischen Strahlenbündelteiler vorgeordnet ist.
  4. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 3, gekennzeichnet dadurch, dass das astigmatisch abbildende System mit mindestens einem Zylinderobjektiv (6) ausgebildet ist.
  5. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 4, gekennzeichnet dadurch, dass der Lateral-Shear erzeugende optische Strahlenbündelteiler als ein asymmetrisches Dreieck-Interferometer (11) ausbildet ist.
  6. Optischer Sensor nach Anspruch 5, gekennzeichnet dadurch, dass dem asymmetrischen Dreieck-Interferometer (11) im Strahlengang eine Spaltblende 16 zugeordnet ist, zumindest näherungsweise dort, wo die Strahlenbüschel aus Ebenen, die senkrecht zu Fokuslinien liegen, sich schneiden.
  7. Optischer Sensor, mit einer Lichtquelle (1) mit mindestens einer Lichtwellenlänge, einem Fokussier-Objektiv (4), einer Abbildungsstufe zur Ausbildung mindestens einer Fokuslinie, einem Kameraobjektiv (8) und einem Kamera-Chip (9) einer Kamera, gekennzeichnet dadurch, dass dem Fokussier-Objektiv (4) auf dem Lichtweg mindestens ein astigmatisch abbildendes System nachgeordnet und dem Kameraobjektiv (8) vorgeordnet ist und diesem Kameraobjektiv ein Phasengitter zugeordnet ist, welches sich zumindest näherungsweise in der Fokusebene des Kameraobjektivs (8) befindet, welche dem Fokussierobjektiv (4) zugewandt ist.
  8. Optischer Sensor, mit einer Lichtquelle mit mindestens einer Lichtwellenlänge, einem Fokussier-Objektiv (4), einer Abbildungsstufe zur Ausbildung mindestens einer Fokuslinie, einem Kameraobjektiv (8) und einem Kamera-Chip (9) einer Kamera, gekennzeichnet dadurch, dass dem Fokussier-Objektiv (4) auf dem Lichtweg mindestens ein astigmatisch abbildendes System nachgeordnet und ein Lateral-Shear erzeugender optischer Strahlenbündelteiler dem Kameraobjektiv (8) nachgeordnet und dem Kamera-Chip (9) vorgeordnet ist.
  9. Optischer Sensor nach mindestens einem der Ansprüche 7 oder 8, gekennzeichnet dadurch, dass das astigmatisch abbildende System mit mindestens einem Zylinderobjektiv (6) ausgebildet ist.
  10. Optischer Sensor nach Anspruch 9, gekennzeichnet dadurch, dass die Zylinder-Achse des Zylinderobjektivs (6) parallel zur Fokuslinie angeordnet ist.
  11. Optischer Sensor nach Anspruch 8, gekennzeichnet dadurch, dass das astigmatisch abbildende System mit mindestens einem Prismenanamorphoten (10) ausgebildet ist.
  12. Optischer Sensor nach Anspruch 8, gekennzeichnet dadurch, dass der Lateral-Shear erzeugende optische Strahlenbündelteiler als ein Dreieck-Interferometer (11) ausgebildet ist.
  13. Optischer Sensor nach mindestens einem der Ansprüche 7, 9 und 10, gekennzeichnet dadurch, dass das Phasengitter (7) mit äquidistanten Furchen ausgebildet ist.
  14. Optischer Sensor nach mindestens einem der Ansprüche 7 bis 11 und 13, gekennzeichnet dadurch, dass das Zylinderobjektiv (6) die gleiche Brennweite wie das Kameraobjektiv (2) aufweist und der Fokus des Zylinderobjektivs (6) sich zumindest näherungsweise im dem Zylinderobjektiv zugewandten Hauptpunkt des Kameraobjektivs befindet und das Zylinderobjektiv (6) als Phasengitter ausgebildet ist und eine Doppelspaltblende (17) zumindest näherungsweise in der Fokalebene des Zylinderobjektivs (6) angeordnet ist.
  15. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 11 und 13 bis 14, gekennzeichnet dadurch, dass das Fokussierobjektiv (4) und das Kameraobjektiv (8) als afokale Anordnung ausgebildet sind und das Phasengitter (7) zur Erzeugung von zwei kohärenten Teilbündeln in der gemeinsamen Brennebene von Fokussierobjektiv (4) und Kameraobjektiv (8) angeordnet ist und das astigmatische Abbildungssystem als diffraktive Zylinderlinse (6) ausgebildet ist und der diffraktiven Zylinderlinse (6) eine Doppelspaltblende (17) nachgeordnet ist.
  16. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 15, gekennzeichnet dadurch, dass mindestens ein Laser (1) als Lichtquelle eingesetzt wird.
  17. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 15, gekennzeichnet dadurch, dass mehrere Laser mit unterschiedlichen Wellenlängen als Lichtquelle eingesetzt werden und eine farbsensitive Kamera mit mindestens zwei Farbkanälen angeordnet ist.
  18. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 15, gekennzeichnet dadurch, dass mindestens ein gepulster Laser (1) als Lichtquelle eingesetzt wird.
  19. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 15, gekennzeichnet dadurch, dass mehrere gepulster Laser (1) als Lichtquelle eingesetzt werden, die Licht unterschiedlicher Wellenlänge zeitlich synchronisiert aussenden.
  20. Optischer Sensor nach mindestens einem der Ansprüche 17 bis 19, gekennzeichnet dadurch, dass das Fokussierobjektiv (4) chromatisch ausgebildet, jedoch das Kameraobjektiv (8) achromatisch ausgebildet ist.
  21. Optischer Sensor nach mindestens einem der Ansprüche 16 bis 20, gekennzeichnet dadurch, dass ein refraktiv, dispersiv oder dispersiv-refraktiv wirkender optischen Keil im Strahlengang angeordnet ist.
  22. Optischer Sensor nach mindestens einem der Ansprüche 1 bis 21, gekennzeichnet dadurch, dass dem Fokussier-Objektiv (4) eine Mikrolinsenanordnung vorgeordnet ist.
  23. Optischer Sensor nach Anspruch 22, gekennzeichnet dadurch, dass die Mikrolinsenanordnung als eine Mikrolinsenzeile ausgebildet ist.
  24. Optisches Verfahren mit den angegebenen Mitteln des Oberbegriffs für den Sensor, bei dem eine schmale Fokuslinie im Objektraum ausgebildet ist, gekennzeichnet dadurch, dass das auf das Objekt treffende cw-Licht oder gepulste Licht aus der Fokuslinie durch Reflexion und/oder Streuung mittels Strahlenbüschel, deren Ebenen parallel zur Fokuslinie liegen, bei der Detektion scharf abgebildet wird und die Strahlenbüschel, deren Ebenen senkrecht zur Fokuslinie liegen bei der Detektion defokussiert sind und vor der scharfen Abbildung aus dem Strahlenbündel vom Objekt (5) zwei kohärente Teilstrahlenbündel erzeugt werden, die eine Lateral-Shear zueinander und in der Ebene senkrecht zur Fokuslinie aufweisen und Shear-Streifen durch Interferenz der Teilstrahlenbündel in der Ebene der Detektion gebildet werden und aus dem Phasengang senkrecht zu den Shear-Streifen in einem definierten Bereich die Ablage eines Objektpunktes zur Brennebene bestimmt wird.
  25. Optisches Verfahren nach Anspruch 24, gekennzeichnet dadurch, dass zwei kohärente Teilstrahlenbündel mit einer Lateral-Shear mittels erstens Strahlteilung durch Diffraktion oder zweitens Amplitudenteilung an einer Teilerschicht erzeugt werden und eine Wellenfrontformung des Lichtes auf dem Weg vom Objekt zur Kamera durchgeführt wird und der Ort dieser Wellenfrontformung dem Lateral-Shear erzeugenden optischen Strahlenbündelteiler auf dem Lichtweg jeweils vorgeordnet ist und mittels der Pixel des Kamera-Chips (9), die auf einer Linie senkrecht zur schmalen Fokuslinie im Objektraum ausgerichtet sind, jeweils die räumliche Frequenz der Shear-Streifen bestimmt wird.
  26. Optisches Verfahren nach Anspruch 25, gekennzeichnet dadurch, dass mehrere Fokuslinien im Objektraum übereinander angeordnet sind.
  27. Optisches Verfahren nach Anspruch 25, gekennzeichnet dadurch, dass mehrere Fokuslinien unterschiedlicher Farbe im Objektraum nebeneinander angeordnet sind.
  28. Optisches Verfahren nach Anspruch 25, gekennzeichnet dadurch, dass mehrere Fokuslinien im Objektraum unterschiedlicher Farbe auf einer zum Sensor geneigten Ebene angeordnet sind.
  29. Optisches Verfahren nach mindestens einem der Ansprüche 24 bis 28, gekennzeichnet dadurch, dass der Betrag der Bewegung in Bewegungsrichtung des Sensors durch ein externes optisches Positionsbestimmungssystem, welches die Lage des Sensorkopfes zumindest näherungsweise erfasst, bestimmt wird.
  30. Optisches Verfahren nach mindestens einem der Ansprüche 24 bis 28, gekennzeichnet dadurch, dass die Bewegung des Sensors durch eine Korrelationsauswertung von Strukturmerkmalen des Messobjektes erfasst wird.
  31. Optisches Verfahren mit den angegebenen Mitteln des Oberbegriffs für den optischen Sensor, bei dem mindestens ein Fokuspunkt im Objektraum ausgebildet ist, gekennzeichnet dadurch, dass das auf das Objekt treffende cw-Licht oder gepulste Licht aus dem Fokuspunkt durch Reflexion und/oder Streuung scharf abgebildet wird und die Strahlenbüschel, deren Ebenen parallel zur Referenzebene liegen bei der Detektion defokussiert sind und vor der scharfen Abbildung aus dem Strahlenbündel vom Objekt (5) zwei kohärente Teilstrahlenbündel erzeugt werden, die eine Lateral-Shear zueinander und in der Ebene parallel zur Referenzebene aufweisen und Shear-Streifen durch Interferenz der Teilstrahlenbündel in der Ebene der Detektion gebildet werden und aus dem Phasengang senkrecht zu den Shear-Streifen in einem definierten Bereich die Ablage eines Objektpunktes zur Brennebene bestimmt wird.
  32. Optisches Verfahren nach mindestens einem der Ansprüche 24 oder 31, gekennzeichnet dadurch, dass Informationen über die Schichtdicke einer Schicht gewonnen werden, indem das detektierte Interferogramm ausgewertet wird.
DE2003121887 2003-05-07 2003-05-07 Robuster optischer Sensor und Verfahren zur Hochgeschwindigkeits-Detektion Withdrawn DE10321887A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2003121887 DE10321887A1 (de) 2003-05-07 2003-05-07 Robuster optischer Sensor und Verfahren zur Hochgeschwindigkeits-Detektion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2003121887 DE10321887A1 (de) 2003-05-07 2003-05-07 Robuster optischer Sensor und Verfahren zur Hochgeschwindigkeits-Detektion

Publications (1)

Publication Number Publication Date
DE10321887A1 true DE10321887A1 (de) 2004-12-02

Family

ID=33394618

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2003121887 Withdrawn DE10321887A1 (de) 2003-05-07 2003-05-07 Robuster optischer Sensor und Verfahren zur Hochgeschwindigkeits-Detektion

Country Status (1)

Country Link
DE (1) DE10321887A1 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008008559A1 (de) 2008-02-08 2009-08-13 Robert Bosch Gmbh Interferometer
WO2010046340A1 (de) * 2008-10-20 2010-04-29 Siemens Aktiengesellschaft Interferometrie-verfahren zum optischen untersuchen von schichten
DE102009040990A1 (de) * 2009-09-10 2011-03-17 Carl Zeiss Ag Vorrichtung und Verfahren zum Vermessen einer Oberfläche
US20120307258A1 (en) * 2010-01-22 2012-12-06 Universitaet Stuttgart Method and arrangement for robust interferometry
CN106840051A (zh) * 2017-03-05 2017-06-13 中国科学院上海光学精密机械研究所 电机位移平台运动平整度的非接触式测量装置及测量方法
AT15358U1 (de) * 2015-12-14 2017-07-15 Evk Di Kerschhaggl Gmbh Optische Vorrichtung zur Erzeugung eines Flächenbildes
US20220065617A1 (en) * 2019-05-10 2022-03-03 Nikon Corporation Determination of a change of object's shape

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008008559A1 (de) 2008-02-08 2009-08-13 Robert Bosch Gmbh Interferometer
WO2010046340A1 (de) * 2008-10-20 2010-04-29 Siemens Aktiengesellschaft Interferometrie-verfahren zum optischen untersuchen von schichten
DE102009040990A1 (de) * 2009-09-10 2011-03-17 Carl Zeiss Ag Vorrichtung und Verfahren zum Vermessen einer Oberfläche
US20120307258A1 (en) * 2010-01-22 2012-12-06 Universitaet Stuttgart Method and arrangement for robust interferometry
US8934104B2 (en) * 2010-01-22 2015-01-13 Universitaet Stuttgart Method and arrangement for robust interferometry for detecting a feature of an object
AT15358U1 (de) * 2015-12-14 2017-07-15 Evk Di Kerschhaggl Gmbh Optische Vorrichtung zur Erzeugung eines Flächenbildes
CN106840051A (zh) * 2017-03-05 2017-06-13 中国科学院上海光学精密机械研究所 电机位移平台运动平整度的非接触式测量装置及测量方法
US20220065617A1 (en) * 2019-05-10 2022-03-03 Nikon Corporation Determination of a change of object's shape

Similar Documents

Publication Publication Date Title
EP1984770B1 (de) Verfahren und anordnung zur schnellen und robusten, chromatisch-konfokalen 3d-messtechnik
EP2843360B1 (de) Robustes One-Shot-Interferometer und OCT- Verfahren, insbesondere zur Materialmessung und auch Tumorzellen-Erkennung
DE102008062879B4 (de) Verfahren und Anordnung zur skalierbaren Interferometrie
EP2526373B1 (de) Verfahren und anordnung zur robusten interferometrie
EP1805477B1 (de) Interferometrisches verfahren und anordnung
DE112019002028T5 (de) Lidar-erfassungsanordnungen
DE102008020902B4 (de) Anordnung und Verfahren zur konfokalen, spektralen Zweistrahl-Interferometrie
WO2013171309A1 (de) Lichtmikroskop und verfahren zur bildaufnahme mit einem lichtmikroskop
WO2012136238A1 (de) Verfahren und anordnung zur kurz-kohärenz-holografie
WO2020109419A1 (de) Verfahren, interferometer und signalverarbeitungsvorrichtung, jeweils zur bestimmung einer eingangsphase und/oder einer eingangsamplitude eines eingangslichtfelds
EP2589924B1 (de) Vorrichtung und Verfahren zur interferometrischen Vermessung eines Objekts
DE102004052205A1 (de) Interferometrischer Multispektral-Sensor und interferometrisches Multispektral-Verfahren zur hochdynamischen Objekt-Tiefenabtastung oder Objekt-Profilerfassung
DE102010006239B3 (de) Verfahren und Anordnung zur robusten Interferometrie
WO2002004889A1 (de) Interferometrische, kurzkohärente formmessvorrichtung für mehrere flächen (ventilsitz) durch mehrere referenzebenen
DE102005061464A1 (de) Verfahren und Vorrichtung zur optischen Abstandsmessung
DE10321887A1 (de) Robuster optischer Sensor und Verfahren zur Hochgeschwindigkeits-Detektion
WO2012100763A1 (de) Verfahren zur bestimmung von geschwindigkeiten in strömungen und phasen-frequenz-geschwindigkeits-feldsensor
DE10321894A1 (de) Verfahren und Anordnung zur interferenziellen und hochdynamischen Keyhole-Tiefen-Detektion
DE102005042733B3 (de) Verfahren und Anordnung zur Spektral-Interferometrie mit chromatischer Tiefenaufspaltung, insbesondere auch Mirau-Interferometer
DE10131779B4 (de) Interferometrische Messvorrichtung
DE10321886A1 (de) Robuster interferometrischer Sensor und Verfahren zur Objektabtastung
EP1805476B1 (de) Interferometer mit einer spiegelanordnung zur vermessung eines messobjektes
WO2007131602A1 (de) Anordnung und verfahren zur konfokalen durchlicht-mikroskopie, insbesondere auch zur vermessung von bewegten phasenobjekten
EP3742956B1 (de) Verfahren zur erzeugung eines zweidimensionalen interferogramms mit einem freistrahl-interferometer des michelson-typs
WO2002004888A1 (de) Interferometrische, kurzkohärente formmessvorrichtung für mehrere flächen (ventilsitz) durch multifokaloptik, optiksegmente oder hohe schärfentiefe

Legal Events

Date Code Title Description
8122 Nonbinding interest in granting licenses declared
8139 Disposal/non-payment of the annual fee