DE102004035102A1 - 3 D object measurement projector has real or virtual point light sources with separate spectral intensity distributions strip modulated by cylindrical lens - Google Patents
3 D object measurement projector has real or virtual point light sources with separate spectral intensity distributions strip modulated by cylindrical lens Download PDFInfo
- Publication number
- DE102004035102A1 DE102004035102A1 DE200410035102 DE102004035102A DE102004035102A1 DE 102004035102 A1 DE102004035102 A1 DE 102004035102A1 DE 200410035102 DE200410035102 DE 200410035102 DE 102004035102 A DE102004035102 A DE 102004035102A DE 102004035102 A1 DE102004035102 A1 DE 102004035102A1
- Authority
- DE
- Germany
- Prior art keywords
- light
- light sources
- strip
- execution
- absolute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000003595 spectral effect Effects 0.000 title claims abstract description 9
- 238000009826 distribution Methods 0.000 title claims abstract 5
- 238000005259 measurement Methods 0.000 title abstract description 9
- 238000000034 method Methods 0.000 claims abstract description 19
- 230000003287 optical effect Effects 0.000 claims description 16
- 238000011156 evaluation Methods 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 13
- 230000010287 polarization Effects 0.000 claims description 13
- 238000001228 spectrum Methods 0.000 claims description 12
- 238000013461 design Methods 0.000 claims description 7
- 238000005286 illumination Methods 0.000 claims description 7
- 230000010363 phase shift Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000005305 interferometry Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 230000005693 optoelectronics Effects 0.000 claims 1
- 230000001419 dependent effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000004441 surface measurement Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2509—Color coding
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
Berührungsfrei arbeitendes optisches Verfahren zur Ermittlung der 3D-Koordinaten von Oberflächen im Raum. Eine Aufnahmeapparatur, im weiteren „Sensor" genannt, besteht mindestens aus einem bildgebenden optischen Detektor (z.B. einer elektronischen Kamera) und mindestens einer Beleuchtungsapparatur (z.B. einem Projektor).contactless working optical method for determining the 3D coordinates of surfaces in the room. A recording apparatus, hereinafter referred to as "sensor", consists of at least one imaging optical detector (e.g., an electronic camera) and at least one lighting device (e.g., a projector).
Die Auswertung der 3D-Form basiert auf einer Phasenauswertung wie aus der Phase-Sampling-Interferometry (PSI) bekannt: Ein auf die Szene projiziertes Muster (z.B. Sinus-Streifen) wird hier durch die Tiefenvariation der Objektkoordinaten lokal verformt. Diese Verformung wird als Phasenveränderung gedeutet und durch Auswertung einer Sequenz von mindestens 3 Einzelbildern für jeden Bildpunkt ermittelt. Die Einzelbilder unterscheiden sich dabei in einer kontrollierten globalen Phasenverschiebung des aufprojizierten Musters. Mit Kenntnis der Sensorgeometrie (innere Orientierung) kann die lokale Phasenveränderung in 3D-Koordinaten umgerechnet werden.The Evaluation of the 3D shape is based on a phase evaluation like out Phase Sampling Interferometry (PSI): A projected onto the scene Pattern (e.g., sinusoidal stripes) here is represented by the depth variation the object coordinates are locally deformed. This deformation is called phase change interpreted and by evaluation of a sequence of at least 3 individual images for each Pixel determined. The single images differ in one controlled global phase shift of the projected pattern. With knowledge of sensor geometry (inner orientation), the local phase change be converted into 3D coordinates.
Zur Realisierung eines Echtzeit-Systems wird die Sequenz von aufprojizierten Einzelbildern bezüglich der Wellenlänge des Beleuchtungslichtes codiert: Die aufprojizierten Muster verschiedener globaler Phasenlage unterscheiden sich damit zudem in der Wellenlänge (physiologischer Eindruck im sichtbaren Bereich: die Farbe). Dadurch ist es prinzipiell möglich, beliebig viele Einzelbilder zu codieren, solange die Spektren der Lichtquellen für die Einzelbilder hinreichend voneinander separiert sind.to Realization of a real-time system is the sequence of projected on Single images with respect to the wavelength of the illumination light: the projected patterns of various global phase position thus also differ in the wavelength (physiological Impression in the visible area: the color). This makes it possible in principle, arbitrarily many frames to encode as long as the spectra of the light sources for the Frames are sufficiently separated from each other.
Im
Hinblick auf eine kostengünstige
Lösung, die
auch auf vorhandene Bauelemente zurückgreift, können folgende Einstellungen
gewählt
werden:
Drei Einzelbilder, mit Projektionsmustern codiert im sichtbaren
Bereich mit den Farben Rot, Grün
und Blau (R, G, B). Als Detektor wird eine handelsübliche 3-Chip-Kamera
verwendet. Die Spektren der Projektionsmuster werden jeweils so
gewählt,
dass ein Übersprechen
in die anderen „Farb"-Kanäle minimiert
ist.With regard to a cost-effective solution, which also uses existing components, the following settings can be selected:
Three frames, with projection patterns coded in the visible area with the colors red, green and blue (R, G, B). As a detector, a commercially available 3-chip camera is used. The spectra of the projection patterns are each chosen so that crosstalk in the other "color" channels is minimized.
Der erfindungsgemäße Projektor besteht aus mindestens 3 reellen oder virtuellen Lichtquellen, einem Modulationselement zur Erzeugung des Projektionsmusters und einem Objektiv. Die Lichtquellen sind so angeordnet, dass ein festeingestellter globaler Phasenversatz zwischen den Einzelmustern im Messvolumen erzielt wird. Der globale Phasenversatz ist definiert durch den örtlichen Abstand der Lichtquellen zueinander. Die Lichtquellen können je nach Ausführung auch faseroptisch realisiert werden. Mit diesen Eigenschaften weist der Projektor keinerlei mechanisch bewegliche Teile auf.Of the Projector according to the invention consists of at least 3 real or virtual light sources, one Modulation element for generating the projection pattern and a Lens. The light sources are arranged so that a fixed global phase offset between the individual patterns in the measurement volume is achieved. The global phase offset is defined by the local phase offset Distance between the light sources. The light sources can vary depending on execution also be realized fiber optic. With these features points the projector has no mechanical moving parts.
Zusätzlich wird durch die Verwendung spezieller optischer Komponenten das Projektionslicht mit hoher Schärfentiefe moduliert. Dadurch muss bei der Platzierung des Sensors in einer Szene lediglich auf die Einhaltung der Schärfentiefe hinsichtlich der Abbildung auf den Detektor geachtet werden.In addition will through the use of special optical components, the projection light with high depth of field modulated. This must be done when placing the sensor in one Scene only on the maintenance of the depth of field in terms of Pay attention to the detector.
Stand der Technik:State of the art:
In der bildgebenden optischen 3D-Meßtechnik (Topometrie) wird die zu untersuchende Objektoberfläche mit einem ortsvarianten Intensitätsmuster beleuchtet (strukturierte Beleuchtung). Die Szene wird aus einer zur Beleuchtungsrichtung unterschiedlichen Richtung beobachtet. Die Tiefeninformation des Messobjektes ist dann in einer lokalen Verzerrung des aufprojizierten Musters codiert. Die lokale Verzerrung wird unter Verwendung von Algorithmen aus der Phase-Sampling-Intereferometry (PSI) in eine ortsvariante Phase umgerechnet. Dazu ist eine Sequenz von mindestens 3 Einzelbildern mit zueinander global verschobenen Projektionsmustern von typischerweise sinusförmiger Intensitätsvariation nötig. Nach dem Prinzip der Triangulation wird daraufhin die 3D-Information über das Objekt gewonnen.In 3D imaging optical metrology (topometry) the object surface to be examined with a location variant Illuminated intensity pattern (structured lighting). The scene turns into an illumination direction observed in different directions. The depth information of the DUT is then in a local distortion of the projected Pattern coded. The local distortion is calculated using Algorithms from Phase Sampling Intereferometry (PSI) into one Variant phase converted. This is a sequence of at least 3 single frames with globally shifted projection patterns of typically sinusoidal intensity variation necessary. According to the principle of triangulation then the 3D information about the Object won.
Die nach diesem Verfahren gewonnenen 3D-Daten sind relativ, d.h. die Entfernung von Messpunkten zum Sensor kann nur bis auf ein ganzzahliges Vielfaches einer Konstanten, der sog. Empfindlichkeit, angegeben werden. Dies rührt von der Tatsache, dass periodische Muster mit z.B. sinusförmigem Verlauf, aufprojiziert werden und lokale Verschiebungen mit Vielfachen einer Periode nicht unterscheidbar sind.The 3D data obtained by this method is relative, i. the Distance from measuring points to the sensor can only be up to an integer Multiple of a constant, the so-called sensitivity, indicated become. This is touching from the fact that periodic patterns with e.g. sinusoidal course, be projected and local shifts with multiples of one Period are indistinguishable.
Für absolute Messwerte ist daher eine andere Codierung des Messvolumens erforderlich. Typischerweise kommt für die absolute Codierung der Gray-Code zum Einsatz, der eine minimale Hamming-Distanz und damit eine Möglichkeit zur Erkennung von Fehlern bei der Detektion des Projektionsmusters bietet. Hierzu wird eine Sequenz von unterschiedlichen Mustern auf das Objekt aufprojiziert. Die Wahl der Muster geschieht derart, dass für jedes beobachtete Oberflächenelement des Objektes nach Überlagerung der Einzelbilder ein eindeutiger numerischer Wert vorliegt. Durch Vergleich der Lage dieses Wertes im bildgebenden Detektor mit der Lage des selben numerischen Wertes bei einem bekannten Objekt, typischerweise ein planes Objekt, kann unter Kenntnis der Sensorgeometrie auf die Tiefe des Messpunktes geschlossen werden. Der eindeutige numerische Wert wird dabei durch einen typischerweise 6- bis 8-stelligen Bit-Wert repräsentiert. Dies bedeutet, dass zur Erzeugung des entsprechenden Gray-Codes 6-8 Einzelbilder aufprojiziert werden müssen.For absolute Measured values therefore require a different coding of the measuring volume. Typically comes for The absolute coding of the Gray code is used, which is a minimum Hamming distance and thus a possibility to detect errors in the detection of the projection pattern offers. For this purpose, a sequence of different patterns the object is projected on. The choice of patterns happens in such a way that for every observed surface element of the object after superposition the frames have a unique numeric value. By Comparison of the position of this value in the imaging detector with the Location of the same numeric value in a known object, typically a plan object, knowing the sensor geometry on the Depth of the measuring point to be closed. The unique numeric Value is given by a typically 6- to 8-digit bit value represents. This means that to generate the corresponding Gray code 6-8 frames must be projected.
Wegen der fundamentalen Limitierung des (Orts-)Bandbreiteproduktes stellt eine Absolutcodierung zwar ein Verfahren mit größerer Tiefenausdehnung, aber geringerer Genauigkeit als die o.g. Relativcodierung dar.Because of the fundamental limitation of (Local) Bandwidth product is an absolute coding Although a method with greater depth extension, but lower accuracy than the above Relativcodierung represents.
In praktischen absolut messenden Systemen werden daher die beiden o.g. Verfahren kombiniert. Dies hat zur Folge, dass ca. 9-11 unterschiedliche Muster auf das Objekt aufprojiziert werden müssen.In practical absolute measuring systems, therefore, the two o.g. Method combined. This has the consequence that about 9-11 different patterns must be projected onto the object.
Gemäß dem Stand der Technik werden die unterschiedlichen Muster in zeitlicher Abfolge aufprojiziert. Zwischen je zwei unterschiedlichen Mustern wird mittels des Detektors ein Intensitätsbild der Szene angefertigt. Die Muster werden entweder interferometrisch oder abbildend erzeugt.According to the state In technology, the different patterns are arranged in chronological order projected onto. Between each two different patterns is by means of of the detector an intensity image the scene made. The patterns become either interferometric or imaged.
Vor der Aufnahme muß eine Kalibrierung des optischen Abbildungssystems vorgenommen werden, um ein Bezugssystem zwischen den Koordinatensystemen der Aufnahmekamera, des Meßobjektes sowie des Projektionssystems herzustellen. Dazu werden eine Reihe von Eichmessungen durchgeführt, wobei wohlbekannte Objekte im Meßvolumen plaziert werden. Nach erfolgter Kalibrierung darf die Meßanordnung nicht mehr verändert werden.In front the recording must have a Calibration of the optical imaging system are made, a frame of reference between the coordinate systems of the recording camera, of the object to be measured and the projection system. This will be a series carried out by calibration measurements, where well-known objects are placed in the measuring volume. To After calibration, the measuring arrangement must not be changed.
Nachteile der bisherigen Verfahren:Disadvantages of the previous Method:
Während der gesamten Dauer der Sequenz muss das Objekt mindestens in den Grenzen der Sensorauflösung statisch sein, um unerwünschte Artefakte zu vermeiden. Dies hat zur Folge, dass entsprechend dynamische Objekte, Szenen oder Aufnahme-Geometrien (z.B. bewegter Sensor) nicht mit den gegenwärtig üblichen Verfahren erfasst werden können.During the Total duration of the sequence must be at least within the limits of the object the sensor resolution be static to unwanted To avoid artifacts. This has the consequence that correspondingly dynamic Objects, scenes or recording geometries (e.g., moving sensor) not with the current ones Procedure can be detected.
Zur Beleuchtung des zu vermessenden Objektes werden gegenwärtig gängige Projektionssysteme verwendet. Hierbei wird ein Dia mit dem entsprechenden Muster auf das Objekt abgebildet. Die typischerweise sehr geringe Tiefenschärfe dieser Abbildung beschränkt dabei die Tiefenausdehnung des Meßvolumens. Dies hat zwei schwerwiegende Nachteile zur Folge:
- 1. Zur Messung von Objekten mit hoher Tiefenausdehnung müssen mehrere Messungen von jeweils unterschiedlichen Tiefenbereichen angefertigt werden.
- 2. Das Projektionssystem muß zur Beleuchtung unterschiedlicher Tiefenbereiche jeweils nachfokussiert werden, wobei typischerweise der Vergrößerungsmaßstab der Projektion verändert wird, was eine erneute Kalibrierung nötig macht.
- 1. To measure objects with high depth extension, multiple measurements of different depth ranges must be made.
- 2. The projection system must be refocused to illuminate different depth ranges, typically changing the magnification scale of the projection, necessitating recalibration.
Ziele der Erfindug:Objectives of the invention:
- – optische Erfassung von 3D-Daten zur Relativ- und Absolutvermessung von Oberflächen in einem einzelnen Aufnahmevorgang.- optical Acquisition of 3D data for the relative and absolute measurement of surfaces in a single recording process.
- – Erleichterte Sensorplatzierung in der Szene durch Erzeugung einer strukturierten Messbeleuchtung mit sehr hoher Tiefenschärfe.- Relieved Sensor placement in the scene by creating a structured Measuring illumination with very high depth of field.
Vorteile der Erfindung:Advantages of the invention:
Mit dem erfindungsgemäßen Verfahren kann eine 3D-Szene mit einer einzigen Aufnahme erfasst werden. Damit ist es im Gegensatz zu allen bekannten Verfahren zur hochauflösenden, absoluten und bildgebenden optischen 3D-Formerfassung möglich, dynamische Szenen zu erfassen, wobei die Dynamik lediglich durch die minimale Belichtungsdauer des Bilddetektors limitiert ist, und damit im Rahmen der verfügbaren Technologien skalierbar ist. Um ganze Video-Sequenzen zu erfassen, können Datensätze mittels einer Speichervorrichtung, die mehrkanalige Video-Aufzeichnung bietet, für eine nachfolgende off-line Verarbeitung zur Errechnung von absoluten 3D-Daten erstellt werden.With the method according to the invention a 3D scene can be captured with a single shot. In order to it is in contrast to all known methods of high-resolution, absolute and imaging optical 3D shape detection possible, dynamic Capturing scenes, where the dynamics only by the minimum Exposure duration of the image detector is limited, and thus in the frame the available Technologies is scalable. To capture entire video sequences, can Records using a memory device that provides multi-channel video recording, for one subsequent off-line processing to calculate absolute 3D data to be created.
Durch Verwendung der erfindungsgemäßen Beleuchtungseinrichtung steht projektorseitig eine praktisch unbegrenzte Schärfentiefe zur Verfügung. Dadurch wird die Schärfentiefe des gesamten Sensors lediglich durch die Abbildung auf die bildgebenden Detektoren bestimmt. Ein Objekt muss also lediglich bzgl. der Detektoren korrekt platziert werden, die gleichzeitige Beachtung des Abstandes zur Projektorvorrichtung entfällt. Dies erleichtert die Einstellarbeiten hinsichtlich der Positionierung des Sensors relativ zur Szene auf ein Maß wie es in der Fotographie üblich ist. Weiterhin ermöglicht die praktisch unbegrenzte Schärfentiefe des Projektors eine Szene durch einen einzigen statisch positionierten Projektor und eine bewegliche oder mehrere bewegliche oder statisch positionierte erfindungsgemäße Detektorsysteme zu erfassen..By Use of the illumination device according to the invention Projector side has a virtually unlimited depth of field to disposal. Thereby will the depth of field of the entire sensor merely by imaging on the imaging Detectors determined. An object must therefore only with respect to the detectors be placed correctly, the simultaneous consideration of the distance to the projector device deleted. This facilitates the adjustment work in terms of positioning the sensor relative to the scene to a level as is customary in photography. Furthermore possible the practically unlimited depth of field of the projector a scene by a single statically positioned Projector and a movable or multiple movable or static positioned detector systems according to the invention capture..
Ausführungsbeispiele:EXAMPLES
Im Folgenden werden zwei erfindungsgemäße Ausführungsbeispiele nebst Varianten beschrieben. Zum Einen eine Ausführung, die eine simultane Aufnahme aller Daten für eine bildgebende absolute Oberflächenvermessung erlaubt (Ausführungsbeispiel I). Zum Zweiten eine Ausführung, die mit stark vermindertem konstruktiven Aufwand im Vergleich zu Ausführungsbeispiel I erlaubt, ebenfalls eine schnelle absolute Oberflächenvermessung durchzuführen, wobei hier allerdings drei sequentielle Bildaufnahmevorgänge benötigt werden (Ausführungsbeispiel II).in the Below are two embodiments of the invention and variants described. On the one hand an execution, the simultaneous acquisition of all data for an imaging absolute surface measurement allowed (embodiment I). Second, an execution the with greatly reduced design complexity compared to the embodiment I also allows a fast absolute surface measurement perform Here, however, three sequential image acquisition processes are needed (Embodiment II).
Für beide Ausführungsbeispiele werden jeweils die Projektionseinrichtungen zur Erzeugung des Signallichtes zur PSI-Auswertung und des Absolut-Codierungslichtes (im Folgenden Projektor genannt) beschrieben, weiterhin die Einrichtungen zur Bildaufnahme und Signalauswertung (im Folgenden Detektor genannt), sowie die Vorgehensweise der Signalauswertung für beide Ausführungsbeispiele.For both embodiments, the projection devices for generating the signal light for PSI evaluation and the absolute coding light (hereinafter referred to as the projector) are described in each case, furthermore the devices for image acquisition and signal evaluation (hereinafter Called detector), as well as the procedure of the signal evaluation for both embodiments.
Ausführungsbeispiel I:Embodiment I:
Absolut messend bei gleichzeitiger Aufnahme aller bildgebenden DatenAbsolutely measuring at the same time Recording of all imaging data
1. Projektor:1st projector:
- a. 3 Lichtquellen (L1, L2 und L3) mit voneinander wohl separiertem Spektrum, so im optischen Aufbau positioniert, dass die globale Phasenverschiebung des Musters je Lichtquelle gegeben ist. Das Licht dieser Lichtquellen befindet sich einheitlich in einem bestimmten Polarisationszustand P1. Die Intensitätsmodulation (bspw. sinusförmige Streifen) wird durch ein optisches Phasenelement erreicht (siehe Bild 1).a. 3 light sources (L1, L2 and L3) with each other well separated spectrum, so positioned in the optical structure that given the global phase shift of the pattern per light source is. The light of these light sources is uniform in a certain polarization state P1. The intensity modulation (eg sinusoidal Strip) is achieved by an optical phase element (see Image 1).
- b. In einem weiteren Strahlengang im selben Projektor werden die selben Lichtquellen dazu verwendet, um eine Beleuchtung zur Farbkalibrierung zu erzielen. Dazu wird ein Teil des Lichtes der unter 1.a beschriebenen Lichtquellen vereint zu einer gemeinsamen virtuellen Lichtquelle. Das Licht dieser virtuellen Lichtquelle wird unstrukturiert auf die Objektszene geworfen. Dieses Licht (Farbkalibrierungslicht) ist hat einen Polarisationszustand P2, orthogonal zum Polarisationszustand P1 aus 1.a (Bild 2).b. In another beam path in the same projector will be the same light sources used to provide lighting for To achieve color calibration. This will be a part of the light of under 1.a described light sources united to a common virtual light source. The light of this virtual light source is thrown unstructured on the object scene. This light (color calibration light) has a polarization state P2, orthogonal to the polarization state P1 from 1.a (picture 2).
- c. Die Absolut-Codierung wird mit einer weiteren Lichtquelle (L4) mit einem von den unter 1.a. beschriebenen Lichtquellen L1, L2 und L3 wohl separierten Spektrum realisiert (Bild 2). Damit werden Markierungen auf die Szene projiziert nach folgenden Verfahren: i. Es werden unterscheidbare Markierungen aufprojiziert, wobei 1. die Markierungen individuell codiert sind, um sie durch einen nachfolgenden Bildverarbeitungsschritt eindeutig erkennen zu können. Die Codierung kann durch den Intensitätsverlauf, die Form oder die Strukturierung der Marken erreicht werden. 2. Markierungen nicht individuell, sondern lediglich gruppenweise unterscheidbar sind. ii. Es werden ununterscheidbare Markierungen aufprojiziert, wobei die Absolut-Codierung aus der relativen Lage der Markierungen zueinander abgeleitet werden kann.c. The absolute encoding comes with another light source (L4) with one of the under 1.a. described light sources L1, L2 and L3 probably separated spectrum realized (Figure 2). With that Markers on the scene projected by the following procedure: i. Distinctive markers are projected on, wherein 1. the markers are individually coded to be followed by a subsequent one Image processing step to clearly identify. The coding can be through the intensity course, the form or the structuring of the marks are achieved. Second Markings not individual, but only groupwise distinguishable are. ii. Indistinguishable markers are projected where the absolute coding from the relative position of the markers can be derived to each other.
- d. Alternativ zu c wird die Absolut-Codierung mit k weiteren Lichtquellen mit untereinander und gegenüber den unter 1.a. beschriebenen Lichtquellen L1, L2 und L3 wohl separierten Spektren realisiert. Damit wird ein k-Bit tiefer Gray-Code in einem Schritt gleichzeitig mit der Projektion wie in I.1.a und I.1.b aufprojiziert. Die einzelnen k Projektionsbilder sind spektral codiert.d. As an alternative to c, the absolute coding with k becomes further Light sources with each other and with respect to the 1.a. described Light sources L1, L2 and L3 well separated spectra realized. This will make a k-bit deep gray code in one step at a time projected as shown in I.1.a and I.1.b. The single ones k projection images are spectrally coded.
2. Detektor:2nd detector:
Für die bildgebenden Detektoren können handelsübliche Chips (CCD, C-MOS, o.ä.) verwendet werden. Entlang des Strahlenganges des eintreffenden Lichtes ist die Detektorkomponente des erfindungsgemäßen Sensors wie folgt aufgebaut (Bild 3):
- a. Ein polarisierender Strahlteiler (PolBS) trennt das eintreffende Licht in zwei Kanäle auf. Der eine Kanal enthält das unter I.1.a beschriebene streifencodierte Licht, was nachfolgend auf eine handelsübliche Multi-Chip Kamera abgebildet wird.
- b. Der zweite Kanal enthält das Licht zur Absolut-Codierung und zur Farb-Kalibrierung.
- c. Die Trennung des Lichts zur Absolut-Codierung und zur Farb-Kalibrierung wird durch einen wellenlängensensitiven Strahlteiler (λ-BS) erreicht.
- d. Das Farb-Kalibrierungssignal wird auf eine weitere Multi-Chip-Kamera abgebildet. Damit wird der spektrale Reflexionskoeffizient der Szene für jeden Bildpunkt ermittelt.
- e. Das Absolut-Codierungslicht wird auf eine monochrome 1-Chip Camera abgebildet.
- f. Alternativ, entsprechend der Ausführung des Projektors, wie in I.1.d beschrieben, wird der k-Bit tiefe Gray-Code durch k spektral unterschiedlich empfindliche Detektoren gleichzeitig erfaßt. Dazu können handelsübliche monochrome Kameras mit vorgeschaltetem Spektralfilter, alternativ eine geringere Anzahl von Multi-Chip Kameras verwendet werden.
- a. A polarizing beam splitter (PolBS) separates the incident light into two channels. The one channel contains the strip-coded light described under I.1.a, which is subsequently imaged on a commercially available multi-chip camera.
- b. The second channel contains the light for absolute coding and color calibration.
- c. The separation of the light for absolute coding and color calibration is achieved by a wavelength-sensitive beam splitter (λ-BS).
- d. The color calibration signal is mapped to another multi-chip camera. This determines the spectral reflection coefficient of the scene for each pixel.
- e. The absolute coding light is displayed on a monochrome 1-chip camera.
- f. Alternatively, according to the design of the projector as described in I.1.d, the k-bit deep gray code is detected simultaneously by k spectrally different sensitive detectors. For this purpose, commercially available monochrome cameras with upstream spectral filter, alternatively a smaller number of multi-chip cameras can be used.
3. Auswertung:3. Evaluation:
- a. Zur Ermittlung der Farbtextur der Szene wird das unter I.2.d beschriebene Farb-Kalibrierungssignal verwendet. Daraus werden für jeden Bildpunkt drei Koeffizienten ermittelt, die die relative Gewichtung der 3 Farbkanäle (I.1.b) nach Reflexion an der Szene beschreiben. Dadurch entsteht eine Wertetabelle (Look-Up-Table), in der ortsaufgelöst die spektrale Objektreflektivität abgelegt ist. a. To determine the color texture of the scene the color calibration signal described in I.2.d is used. This will be for determines each pixel three coefficients, the relative weighting of the 3 color channels (I.1.b) after reflection at the scene. This creates a Value table (look-up table) in which spatially resolved spectral object reflectivity is stored.
- b. Das unter I.2.a beschriebene Streifenlichtsignal wird mit der Wertetabelle verrechnet zur Erzielung einer konstanten spektralen Objektreflektivität. Danach erfolgt die Auswertung nach bekannten PSI Verfahren. Als Ergebnis liegt die relative Phasenlage je Bildpunkt vor.b. The strip light signal described in I.2.a is with the value table is calculated to obtain a constant spectral Objektreflektivität. After that the evaluation is carried out according to known PSI methods. As a result the relative phase position per pixel is present.
- c. Die absolute Phase wird aus der lateralen Verschiebung der Kodierungspunkte auf dem Objekt mit der 1 Chip Kamera gewonnen. Die absolute Phase wird ortsabhängig als Offset zur relativen Phase addiert (Phase-Matching).c. The absolute phase is derived from the lateral displacement of the Encoded points on the object obtained with the 1-chip camera. The absolute phase becomes location-dependent added as an offset to the relative phase (phase matching).
Ausführungsbeipiel II:Exemplary embodiment II:
Absolut messend, jedoch mit sequentieller Erzeugung des verschobenen StreifenmustersAbsolutely measuring, however with sequential generation of the shifted stripe pattern
1. Projektor:1st projector:
- a. 3 Lichtquellen und optischer Aufbau wie unter I.1.a beschrieben, jedoch mit weitgehend identischem Spektrum. Die Lichtquellen sind individuell schaltbar. Die Einzelprojektionsbilder mit gegenseitiger globaler Phasenverschiebung werden sequentiell nacheinander durch sequentielles An- und Abschalten der Lichtquellen erzeugt.a. 3 light sources and optical design like described under I.1.a, but with a largely identical spectrum. The light sources are individually switchable. The single projection pictures with mutual global phase shift become sequential successively by sequentially turning on and off the light sources generated.
- b. Alternativ wie II.1.a., jedoch mit nur einer Lichtquelle, einem nachfolgenden Mehrfachstrahlteiler zur Aufteilung der Intensität in drei optische Kanäle. Die Kanäle sind durch aktive optische Komponenten schaltbar.b. Alternatively as II.1.a., but with only one light source, a subsequent multi-beam splitter for dividing the intensity into three optical channels. The channels are switchable by active optical components.
- c. Absolut-Codierung wie in I.1.c durch eine weitere Lichtquelle mit wohl separiertem Spektrum bzgl. der Lichtquellen unter II.1.a und Markierungen zur Absolutcodierung wie unter I.1.c beschrieben.c. Absolute coding as in I.1.c by another light source with well separated spectrum with respect to the light sources under II.1.a and marks for absolute coding as described under I.1.c.
- d. Alternativ wie II.1.c, Absolut-Codierung jedoch mit einer Lichtquelle mit ähnlichem Spektrum wie II.1.a. Zusätzlich weisen die unter II.1.a. und die Lichtquelle für die Absolut-Codierung eine zueinander orthogonale Polarisationszustände auf.d. Alternatively as II.1.c, but absolute coding with one Light source with similar Spectrum as II.1.a. additionally those under II.1.a. and the light source for the absolute coding one mutually orthogonal polarization states.
2. Detektor:2nd detector:
- a. Für die bildgebenden Detektoren können handelsübliche monochrome Chips (CCD, C-MOS, o.ä.) verwendet werden. Entlang des Strahlenganges des eintreffenden Lichtes ist die Detektorkomponente des erfindungsgemäßen Sensors wie folgt aufgebaut (Bild 4): Ein Strahlteiler teilt das gemeinsame Signal aus (z.B. sinusförmig) moduliertem Streifenlicht und Absolut-Codierungslicht auf. Vor dem jeweiligen bildgebenden Detektor ist ein Wellenlängenfilter platziert, der nur das für den betreffenden Detektor erwünschte Licht passieren lässt.a. For the imaging detectors can commercial monochrome chips (CCD, C-MOS, etc.) be used. Along the beam path of the incoming light the detector component of the sensor according to the invention is constructed as follows (Photo 4): A beam splitter distributes the common signal (e.g. sinusoidal) modulated strip light and absolute coding light. Before the respective imaging detector is placed a wavelength filter that only that for desired detector Let light pass.
- b. Wie II.2.a, jedoch mit polarisationsabhängigen Strahlteilern, falls Lichtquellen gemäß II.1.d verwendet werden. Die beiden Ausgänge des Strahlteilers werden auf je einen bildgebenden Detektor geleitet.b. Like II.2.a, but with polarization dependent beam splitters, if Light sources according to II.1.d be used. The two outputs of the beam splitter become directed to a respective imaging detector.
3. Auswertung:3. Evaluation:
- a. Das (z.B. sinusförmig) codierte Streifenlicht dient zur Ermittlung der lokalen Phase nach Verfahren aus der Phase-Sampling-Interferometry (PSI).a. The (e.g., sinusoidally) coded stripe light is used for determining the local phase according to methods from the Phase Sampling Interferometry (PSI).
- b. Ermittlung der absoluten Phase wie unter I.3.c beschrieben.b. Determination of the absolute phase as described under I.3.c.
Literatur:Literature:
- Roland Zumbrunn:,Vorrichtung zur Vermessung der Oberfläche eines Objektes mittels Projektion von Streifenmustern, Europäischen Patenschrift 037909 B2. Anmeldetag: 12.1.90Roland Zumbrunn:, Device for measuring the surface of a Object by projection of stripe patterns, European patent 037909 B2. Filing date: 12.1.90
- Breuckmann B.: "Bildverarbeitung und optische Meßtechnik in der industriellen Praxis" Franzis-Verlag ISBN 3-7723-4861-0Breuckmann B .: "Image processing and optical metrology in industrial practice "Franzis-Verlag ISBN 3-7723-4861-0
- Daniel Malacara: "Optical Shop Testing", 2nd Edition, John Wiley & Son, Inc.(1992)Daniel Malacara, "Optical Shop Testing", 2nd Edition, John Wiley & Son, Inc. (1992)
Claims (30)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE200410035102 DE102004035102A1 (en) | 2004-07-20 | 2004-07-20 | 3 D object measurement projector has real or virtual point light sources with separate spectral intensity distributions strip modulated by cylindrical lens |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE200410035102 DE102004035102A1 (en) | 2004-07-20 | 2004-07-20 | 3 D object measurement projector has real or virtual point light sources with separate spectral intensity distributions strip modulated by cylindrical lens |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102004035102A1 true DE102004035102A1 (en) | 2006-02-16 |
Family
ID=35668469
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE200410035102 Withdrawn DE102004035102A1 (en) | 2004-07-20 | 2004-07-20 | 3 D object measurement projector has real or virtual point light sources with separate spectral intensity distributions strip modulated by cylindrical lens |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102004035102A1 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2008014783A1 (en) * | 2006-08-03 | 2008-02-07 | Dürr Assembly Products GmbH | Method for the determination of the axle geometry of a vehicle |
| WO2010136329A1 (en) * | 2009-05-25 | 2010-12-02 | Siemens Aktiengesellschaft | Topographic measurement of an object |
| DE102012001307A1 (en) * | 2012-01-19 | 2013-07-25 | Friedrich-Schiller-Universität Jena | Method for three dimensional measurement of objects, particularly under obstructive lighting conditions, involves detecting to be changed or multiple different patterns by detector, where patterns are projected on object surface |
| DE102013002399A1 (en) * | 2013-02-13 | 2014-08-14 | Otto-Von Guericke-Universität Magdeburg Technologie-Transfer-Zentrum | Device for generating light patterns with a one-dimensionally focused illumination device |
| CN109751969A (en) * | 2017-11-01 | 2019-05-14 | 天津微深科技有限公司 | A kind of three-dimensional non-contact scanning method using positive and negative Gray's code line shifted raster |
| CN112781522A (en) * | 2020-12-25 | 2021-05-11 | 复旦大学 | Remove highlight contourgraph based on colored phase shift structured light |
| CN113654479A (en) * | 2020-05-12 | 2021-11-16 | 赫克斯冈技术中心 | Improved structured light projection by minimizing visual artifacts through intentionally introduced optical aberrations |
-
2004
- 2004-07-20 DE DE200410035102 patent/DE102004035102A1/en not_active Withdrawn
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2008014783A1 (en) * | 2006-08-03 | 2008-02-07 | Dürr Assembly Products GmbH | Method for the determination of the axle geometry of a vehicle |
| US7907265B2 (en) | 2006-08-03 | 2011-03-15 | Dürr Assembly Products GmbH | Method for the determination of the axle geometry of a vehicle |
| WO2010136329A1 (en) * | 2009-05-25 | 2010-12-02 | Siemens Aktiengesellschaft | Topographic measurement of an object |
| EP2259013A1 (en) * | 2009-05-25 | 2010-12-08 | Siemens Aktiengesellschaft | Topographical measurement of an object |
| DE102012001307A1 (en) * | 2012-01-19 | 2013-07-25 | Friedrich-Schiller-Universität Jena | Method for three dimensional measurement of objects, particularly under obstructive lighting conditions, involves detecting to be changed or multiple different patterns by detector, where patterns are projected on object surface |
| DE102013002399A1 (en) * | 2013-02-13 | 2014-08-14 | Otto-Von Guericke-Universität Magdeburg Technologie-Transfer-Zentrum | Device for generating light patterns with a one-dimensionally focused illumination device |
| DE102013002399B4 (en) * | 2013-02-13 | 2016-12-22 | Chromasens Gmbh | Device for generating light patterns with a one-dimensionally focused illumination device |
| CN109751969A (en) * | 2017-11-01 | 2019-05-14 | 天津微深科技有限公司 | A kind of three-dimensional non-contact scanning method using positive and negative Gray's code line shifted raster |
| CN113654479A (en) * | 2020-05-12 | 2021-11-16 | 赫克斯冈技术中心 | Improved structured light projection by minimizing visual artifacts through intentionally introduced optical aberrations |
| US12025470B2 (en) | 2020-05-12 | 2024-07-02 | Hexagon Technology Center Gmbh | Structured light projection through the minimization of visual artifacts by way of deliberately introduced optical aberrations |
| CN112781522A (en) * | 2020-12-25 | 2021-05-11 | 复旦大学 | Remove highlight contourgraph based on colored phase shift structured light |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE69207176T2 (en) | Optical sensor | |
| DE19536297C2 (en) | Method for the geometric calibration of 3D optical sensors for the three-dimensional measurement of objects and apparatus for this purpose | |
| EP2079981B1 (en) | Device and method for the contactless detection of a three-dimensional contour | |
| DE69734504T2 (en) | METHOD AND DEVICE FOR MEASURING THE STRIP PHASE IN THE ILLUMINATION OF AN OBJECT | |
| EP0534284B1 (en) | Method and device for determining the absolute coordinates of an object | |
| EP1825217A1 (en) | Measuring device and method that operates according to the basic principles of confocal microscopy | |
| DE102009009372A1 (en) | Monitoring of tiltable mirrors | |
| DE102008002730A1 (en) | Distance image generating method for three-dimensional reconstruction of object surface from correspondence of pixels of stereo image, involves selecting one of structural elements such that each element exhibits different intensity value | |
| DE9017720U1 (en) | Device for direct phase measurement of radiation, in particular light radiation | |
| EP0449859B1 (en) | Process and device for observing moire patterns on test surfaces by moireing with phase shifts | |
| EP2019281B1 (en) | Method for operating a 3D sensor | |
| EP2799810A1 (en) | Apparatus and method for simultaneous three-dimensional measuring of surfaces with multiple wavelengths | |
| DE102014002084A1 (en) | Method and apparatus for measuring the deflection of light rays through an object structure or medium | |
| DE102017116758A1 (en) | Method and device for scanning surfaces with a stereo camera | |
| DE19509962A1 (en) | Three spatial components of three=dimensional object surface displacement vector field determn. method | |
| DE102004035102A1 (en) | 3 D object measurement projector has real or virtual point light sources with separate spectral intensity distributions strip modulated by cylindrical lens | |
| DE102012102580A1 (en) | Method for measuring an object and intraoral scanner | |
| WO2007093385A1 (en) | Optical surface sensor | |
| DE19846145A1 (en) | Three-dimensional imaging device for shape measurement has transmitter array whose elements move in straight, parallel lines | |
| DE102013105102A1 (en) | Method and device for determining features on objects to be measured | |
| DE3789901T2 (en) | DISTANCE MEASUREMENT BY DIFFERENTIATION. | |
| DE10321883A1 (en) | Triangulation measurement device for determining object 3D structure has illumination and observation arrays with a projected pattern being evaluated using cross correlation or phase shift analysis | |
| DE102006042311A1 (en) | Method and device for the three-dimensional measurement of objects in an extended angle range | |
| DE102012001307A1 (en) | Method for three dimensional measurement of objects, particularly under obstructive lighting conditions, involves detecting to be changed or multiple different patterns by detector, where patterns are projected on object surface | |
| DE102016125451B4 (en) | Device and method for interferometric determination of a surface topography of a measurement object |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8122 | Nonbinding interest in granting licenses declared | ||
| R005 | Application deemed withdrawn due to failure to request examination |
Effective date: 20110721 |