DE102021111417A1 - Method and system for determining the position of a marker in a 2D image and marker designed therefor - Google Patents
Method and system for determining the position of a marker in a 2D image and marker designed therefor Download PDFInfo
- Publication number
- DE102021111417A1 DE102021111417A1 DE102021111417.9A DE102021111417A DE102021111417A1 DE 102021111417 A1 DE102021111417 A1 DE 102021111417A1 DE 102021111417 A DE102021111417 A DE 102021111417A DE 102021111417 A1 DE102021111417 A1 DE 102021111417A1
- Authority
- DE
- Germany
- Prior art keywords
- marker
- image
- pattern
- area
- distortion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
- G01C11/28—Special adaptation for recording picture point data, e.g. for profiles
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur 3D-Lokalisierung von Markern (10a-10d) mittels 2D-Bildaufnahmen, umfassend folgende Schritte: Bereitstellen von mehreren Markern (10a-10d) in einem 3D-Raum, wobei jeder Marker (10a-10d) eine 2D-Markerfläche (12) hat, die eine optisch detektierbare Struktur aufweist, Aufnehmen von mehreren 2D-Bildern des 3D Raumes aus verschiedenen Perspektiven mittels mindestens eines optischen Bildsensors (6), wobei Abbilder der Markerflächen (12) in den 2D-Bildern enthalten sind, Ermitteln der 3D-Lokalisierung der Marker (1 Oa-1 Od) im 3D-Raum durch subpixelgenaues Auswerten der Abbilder der Markerflächen (12) in den 2D-Bildern, wobei der Schritt des Bereitstellens von mehreren Markern (10a-10d) es umfasst, dass die optisch detektierbare Struktur von mindestens einem ersten Marker (10a) so ausgebildet ist, dass sie die Markerfläche (12) mit einem Muster (16) bedeckt, in dem mindestens ein vom Bildsensor (6) optisch detektierbarer Parameter über die Markerfläche (12) hinweg so variiert ist, dass Orte der Markerfläche (12) individuelle Werte des Parameters haben und dass das Muster (16) die Markerfläche (12) mit einem lokalen Koordinatensystem kodiert, der Schritt des Aufnehmens es umfasst, dass der mindestens eine optische Bildsensor (6) die Kodierung auflöst, und der Schritt des Ermittelns der 3D-Lokalisierung es umfasst, in einem Bereich des Bildsensors (6), auf dem das Abbild der Markerfläche (12) des ersten Markers (10a) liegt, anhand des Musters (16) und des lokalen Koordinatensystems eine lokale Bildverzeichnung des Abbildes der Markerfläche (12) in dem Bereich des Bildsensors (6) zu ermitteln und die lokale Bildverzeichnung beim Ermitteln der 3D-Lokalisierung zu berücksichtigen.The invention relates to a method for the 3D localization of markers (10a-10d) using 2D images, comprising the following steps: providing a plurality of markers (10a-10d) in a 3D space, each marker (10a-10d) having a 2D - has a marker surface (12) which has an optically detectable structure, recording a plurality of 2D images of the 3D space from different perspectives using at least one optical image sensor (6), images of the marker surfaces (12) being contained in the 2D images, Determining the 3D localization of the markers (10a-10d) in 3D space by evaluating the images of the marker areas (12) in the 2D images with subpixel accuracy, the step of providing a plurality of markers (10a-10d) comprising it, that the optically detectable structure of at least one first marker (10a) is designed in such a way that it covers the marker area (12) with a pattern (16) in which at least one parameter that can be optically detected by the image sensor (6) over the marker area e (12) is varied across such that locations of the marker area (12) have individual values of the parameter and that the pattern (16) encodes the marker area (12) with a local coordinate system, the step of recording comprises that the at least one optical image sensor (6) resolves the coding, and the step of determining the 3D localization includes it in a region of the image sensor (6) on which the image of the marker surface (12) of the first marker (10a) lies, based on the pattern (16) and the local coordinate system to determine a local image distortion of the image of the marker surface (12) in the area of the image sensor (6) and to take the local image distortion into account when determining the 3D localization.
Description
Die Erfindung bezieht sich auf ein Verfahren und ein System zur Bestimmung der Lage eines Markers in einem 2D-Bild und auf einen Marker, der dafür ausgebildet sind.The invention relates to a method and a system for determining the position of a marker in a 2D image and to a marker designed for this.
Lokalisierungsaufgaben stellen sich u.a. bei der Vermessung von Gegenständen, bei der Triangulation oder bei der Kalibration von Kameras und Inspektionssystemen. Hierbei werden Marker in einem 3D-Raum angeordnet und mittels mindestens eines Bildsensors aus verschiedenen Perspektiven abgebildet, so dass mehrere zweidimensionale (2D) Aufnahmen erhalten werden. Hierfür sind Algorithmen bekannt, um die genaue Lage der Marker im dreidimensionalen Raum mit einer Sub-Pixelgenauigkeit aus den erhaltenen 2D-Bildern zu ermitteln. Dazu ist die Größe des Markers so bemessen, dass die von ihm bereitgestellte Markerfläche auf mehrere Sensorpixel des Bildsensors abgebildet wird. Hierdurch ist beispielsweise eine Schwerpunktbestimmung möglich. Aspekte dieses Ansatzes sind in B. Atcheson und W. Heidrich, „Non-parametric acquisition of near-Dirac pixel correspondences“, VISAPP (2), 2012; K. Kutulakos und E. Steger, „A theory of refractive and specular 3D shape by light-path triangulation“, International Journal of Computer Vision, 76.1 (2008): 13-29; M. Hullin et al., „Fluorescent immersion range scanning“, ACM Trans. Graph, 27.3 (2008): 87-1; B. Trifonov et al., Tomographie reconstruction of transparent objects, ACM, 2006; M. Grossberg und S. Nayar, „The raxel imaging model and ray-based calibration“, International Journal of Computer Vision, 61.2 (2005): 119-137, angesprochen.Localization tasks arise, among other things, when measuring objects, triangulating or calibrating cameras and inspection systems. Here, markers are arranged in a 3D space and imaged from different perspectives using at least one image sensor, so that several two-dimensional (2D) images are obtained. Algorithms are known for this purpose in order to determine the exact position of the markers in three-dimensional space with sub-pixel accuracy from the 2D images obtained. For this purpose, the size of the marker is dimensioned in such a way that the marker area provided by it is mapped onto a number of sensor pixels of the image sensor. This makes it possible, for example, to determine the center of gravity. Aspects of this approach are discussed in B. Atcheson and W. Heidrich, "Non-parametric acquisition of near-Dirac pixel correspondences", VISAPP (2), 2012; K Kutulakos and E Steger, "A theory of refractive and specular 3D shape by light-path triangulation", International Journal of Computer Vision, 76.1 (2008): 13-29; M. Hullin et al., "Fluorescent immersion range scanning", ACM Trans. Graph, 27.3 (2008): 87-1; B. Trifonov et al., Tomography reconstruction of transparent objects, ACM, 2006; M. Grossberg and S. Nayar, "The raxel imaging model and ray-based calibration", International Journal of Computer Vision, 61.2 (2005): 119-137.
Der Erfindung liegt die Aufgabe zugrunde, die Genauigkeit bei der Ermittlung der Lage eines Markers in einem 2D-Bild zu verbessern.The object of the invention is to improve the accuracy when determining the position of a marker in a 2D image.
Die Erfindung ist in den Ansprüchen 1, 7 und 13 definiert. Die abhängigen Ansprüche betreffen bevorzugte Weiterbildungen.The invention is defined in
Im Verfahren wird mind. ein, bevorzugt mehrere Marker bereitgestellt, z.B. in einem 3D-Raum angeordnet. Jeder Marker hat eine 2D-Markerfläche, die eine optisch detektierbare Struktur aufweist. Diese ist so ausgebildet, dass sie die Markerfläche bedeckt. Ein in der Struktur ausgebildetes Muster kodiert Orte der Markerfläche eindeutig als vorbestimmtes lokales Koordinatensystem. Das Muster kennzeichnet jeden Ort auf der Markerfläche durch ortsabhängige Variation mind. eines Parameters eindeutig, wobei natürlich eine gewisse Pixelierung bestehen kann, d.h. die Variation kann gemäß Markerpixeln erfolgen. Aufgrund des Musters kann somit eine Zuordnung zwischen Orten in einem Abbild der Markerfläche und den tatsächlichen Orten auf der Markerfläche erfolgen.At least one, preferably several markers are provided in the method, e.g. arranged in a 3D space. Each marker has a 2D marker area that has an optically detectable structure. This is designed in such a way that it covers the marker area. A pattern formed in the structure clearly encodes locations of the marker area as a predetermined local coordinate system. The pattern uniquely identifies each location on the marker surface by varying at least one parameter depending on the location, whereby a certain pixelation can of course exist, i.e. the variation can take place according to marker pixels. Based on the pattern, locations in an image of the marker area and the actual locations on the marker area can thus be assigned.
Anschließend wird mind. ein 2D-Bild aufgenommen, das das Abbild des Markers enthält. Hierzu wird mindestens ein optischer Bildsensor verwendet, der Sensorpixel aufweist. Im 2D-Bild ist das Abbild der Marker i.d.R. perspektivisch verzerrt. Die Ortsauflösung des Bildsensors ist dabei so, dass das Abbild der Markerfläche mehrere Sensorpixel überdeckt. Weiter ist der optische Bildsensor so ausgestaltet, dass er in der Lage ist, die Kodierung aufzulösen. Darunter ist zu verstehen, dass der optische Bildsensor denjenigen oder diejenigen Parameter, welche für die Kodierung variiert werden, auflöst, also unterschiedliche Werte des Parameters detektiert. Er kann damit die zur Kodierung genutzte Größe in Messwerte wandeln.At least one 2D image containing the image of the marker is then recorded. At least one optical image sensor that has sensor pixels is used for this purpose. In the 2D image, the image of the marker is usually distorted in terms of perspective. The spatial resolution of the image sensor is such that the image of the marker area covers several sensor pixels. Furthermore, the optical image sensor is designed in such a way that it is able to resolve the coding. This means that the optical image sensor resolves that or those parameters that are varied for the coding, ie detects different values of the parameter. It can thus convert the variable used for coding into measured values.
Anschließend wird die Lage des Markers durch sub-pixelgenaues (bezogen auf die Sensorpixel) Auswerten der Abbilder der Markerfläche im 2D-Bild ermittelt. Hierbei wird nun zusätzlich zur perspektivischen Verzerrung auch eine lokale Bildverzeichnung des Abbildes der Markerflächen auf denjenigen Bereichen des Bildsensors, auf denen die Abbilder der Markerflächen liegen, ermittelt und berücksichtigt. Hierzu werden das Muster und das von ihm bewirkte lokale Koordinatensystem entsprechend herangezogen. Aus dem Muster und dem lokalen Koordinatensystem ist es bekannt, wo die einzelnen Orte im zweidimensionalen Abbild auf der Markerfläche liegen.The position of the marker is then determined by evaluating the images of the marker area in the 2D image with sub-pixel accuracy (related to the sensor pixels). Here, in addition to the perspective distortion, a local image distortion of the image of the marker areas on those areas of the image sensor on which the images of the marker areas lie is determined and taken into account. For this purpose, the pattern and the local coordinate system caused by it are used accordingly. From the pattern and the local coordinate system, it is known where the individual locations are in the two-dimensional image on the marker surface.
Das ermöglicht eine hochpräzise Bestimmung der Lage des Markers im 2D-Bild, die zusätzlich zur Korrektur der perspektivischen Verzerrung auch die genannte lokale Bildverzeichnung berücksichtigt und kompensiert. „Lokal“ bezieht sich dabei auf die Bildverzeichnung, die innerhalb des Abbildes auftritt, z. B. durch Bildfehler einer Optik. Ermittelt wird deshalb die lokale Bildverzeichnung, d. h. die Bildverzeichnung in dem Bereich des Bildsensors, auf dem das Abbild der jeweiligen Markerfläche liegt. Die lokale Bildverzeichnung ist zu unterscheiden von einer perspektivischen, d. h. globalen Verzerrung, die sich durch die Perspektive der Bildaufnahme und/oder die Ausrichtung der Marker ergibt. Zwar wird diese natürlich ebenfalls berücksichtigt, sie ist jedoch zu unterscheiden von der lokalen Bildverzeichnung, welche zu Abweichungen innerhalb des Bereichs des Bildsensors führt, auf dem das Abbild der Markerfläche des ersten Markers liegt und die zur perspektivischen, d. h. globalen Verzerrung hinzutritt.This enables the position of the marker in the 2D image to be determined with high precision, which, in addition to correcting the perspective distortion, also takes into account and compensates for the local image distortion mentioned. "Local" refers to the image distortion that occurs within the image, e.g. B. by aberrations of a lens. The local image distortion is therefore determined, i. H. the image distortion in the area of the image sensor on which the image of the respective marker area lies. The local image distortion is to be distinguished from a perspective, i. H. global distortion resulting from the perspective of the image acquisition and/or the orientation of the markers. Although this is of course also taken into account, it must be distinguished from the local image distortion, which leads to deviations within the area of the image sensor on which the image of the marker surface of the first marker lies and which leads to perspective, i. H. global distortion is added.
Durch Berücksichtigung der lokalen Bildverzeichnung ist die Ermittlung der Lage des Markers im 2D-Bild genauer, insbesondere ist die Sub-Pixelgenauigkeit (bezogen auf Sensorpixel) gesteigert, denn die lokale Bildverzeichnung kann je nach Anwendung, insbesondere je nach Verhältnis zwischen Auflösung des Bildsensors, Abstand zum Marker und Größe und Orientierung der Markerfläche, eine starke Beschränkung für Sub-Pixelgenauigkeit sein.By taking the local image distortion into account, the determination of the position of the marker in the 2D image is more precise, in particular the sub-pixel accuracy (related to sensor pixels) is increased, because the local image distortion can be a strong limitation for sub-pixel accuracy depending on the application, especially depending on the relationship between the resolution of the image sensor, the distance to the marker and the size and orientation of the marker area.
Das lokale Koordinatensystem kann durch das Muster als zweidimensionale Variation, die vom Ort auf der Markerfläche abhängt, mindestens eines der folgenden Parameter bereitgestellt werden: Wellenlänge, Polarisation, Strahlungsintensität oder Größe eines farbmetrischen Bezugssystems, Hellbezugswert, Sättigung, bunttongleiche Wellenlänge, Farbangabe. Mit Hilfe dieser Parameter kann das Muster so variiert werden, dass jeder Ort des Musters auf der Markerfläche durch einen eindeutigen Wert des entsprechenden Parameters gekennzeichnet ist.The local coordinate system can be provided by the pattern as a two-dimensional variation that depends on the location on the marker surface, at least one of the following parameters: wavelength, polarization, radiation intensity or size of a colorimetric reference system, lightness reference value, saturation, wavelength of the same hue, color specification. With the help of these parameters, the pattern can be varied in such a way that each location of the pattern on the marker area is characterized by a unique value of the corresponding parameter.
In Ausführungsformen hat der Marker eine unbekannte Lage und/oder Orientierung in dem Raum, der mit dem 2D-Bild abgebildet wird.In embodiments, the marker has an unknown location and/or orientation in the space mapped with the 2D image.
Zusätzlich oder alternativ kann das Muster abhängig vom Ort auf der Markerfläche auch auf zeitlich vorbestimmte Weise variiert werden, so dass man durch Berücksichtigung der zeitlichen Veränderung der Abbilder ebenfalls ein lokales Koordinatensystem erhält, welches jeden Ort auf der Markerfläche eindeutig kennzeichnet. Diese zeitliche Variation kann dadurch erreicht werden, dass die Markerfläche ein steuerbares Display aufweist, welches das zeitlich variierende Muster anzeigt, oder dass die Markerfläche mit einem Projektor beleuchtet wird, der ein zeitlich variierendes Muster projiziert.Additionally or alternatively, the pattern can also be varied in a temporally predetermined manner depending on the location on the marker area, so that by taking into account the temporal change in the images, a local coordinate system is also obtained which uniquely identifies each location on the marker area. This variation over time can be achieved by the marker area having a controllable display that shows the pattern that varies over time, or by illuminating the marker area with a projector that projects a pattern that varies over time.
Die Berücksichtigung der lokalen Bildverzeichnung kann in einem der Lokalisierungsberechnung vorgelagertem Schritt ausgeführt werden. In diesem Fall wird zuerst die lokale Bildverzeichnung ermittelt und ein lokal unverzeichnetes Abbild der Markerfläche errechnet, auf dessen Basis dann die Lokalisierungsberechnung stattfindet. Gleichermaßen ist es als Alternative möglich, das lokale Koordinatensystem bei der Lokalisierungsberechnung direkt einfließen zu lassen.The local image distortion can be taken into account in a step preceding the localization calculation. In this case, the local image distortion is determined first and a locally undistorted image of the marker area is calculated, on the basis of which the localization calculation then takes place. Likewise, as an alternative, it is possible to include the local coordinate system directly in the localization calculation.
Letztere Alternative ist besonders einfach und rechensparsam, wenn die lokale Bildverzeichnung mittels eines Modells aus dem Abbild des Musters ermittelt wird, da dieses Modell dann in bevorzugten Ausführungsvarianten direkt in der Lokalisierungsberechnung eingesetzt wird. Der Einsatz eines Modells ist aber auch anderweitig, d.h. mit dem erwähnten mehrstufigen Ansatz mit dem vorgelagerten Schritt möglich.The latter alternative is particularly simple and computationally economical if the local image distortion is determined using a model from the image of the pattern, since this model is then used directly in the localization calculation in preferred embodiment variants. However, a model can also be used in other ways, i.e. with the aforementioned multi-stage approach with the upstream step.
Die Ermittlung der Lage des Markers kann besonders bevorzugt für eine 3D-Triangulation eingesetzt werden. Dann werden mehrere 2D-Bilder von bevorzugt mehreren Markern aus verschiedenen Perspektiven aufgenommen.The determination of the position of the marker can be used particularly preferably for a 3D triangulation. Then multiple 2D images of preferably multiple markers are recorded from different perspectives.
Die geschilderten Aspekte gelten gleichermaßen für das genannte Verfahren wie auch für das System. In diesem werden entsprechende Auswertungs- und Berechnungsschritte von einem Bildprozessor ausgeführt, der insbesondere einen Rechenprozessor und einen entsprechenden Speicher aufweisen kann. Der Bildsensor kann insbesondere einen lichtempfindlichen Chip aufweisen, welcher entsprechende Sensorpixel hat. Die Marker umfassen insbesondere einen Markerkörper, der eine Oberfläche hat, welche die Markerfläche bereitstellt, die bevorzugt Markerpixel hat.The aspects described apply equally to the method mentioned and to the system. In this, corresponding evaluation and calculation steps are carried out by an image processor, which in particular can have an arithmetic processor and a corresponding memory. The image sensor can in particular have a light-sensitive chip which has corresponding sensor pixels. In particular, the markers comprise a marker body having a surface providing the marker area, which preferably has marker pixels.
Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in den angegebenen Kombinationen, sondern auch in anderen Kombinationen oder in Alleinstellung einsetzbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.It goes without saying that the features mentioned above and those still to be explained below can be used not only in the specified combinations, but also in other combinations or on their own, without departing from the scope of the present invention.
Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die beigefügten Zeichnungen, die ebenfalls erfindungswesentliche Merkmale offenbaren, noch näher erläutert. Diese Ausführungsbeispiele dienen lediglich der Veranschaulichung und sind nicht als einschränkend auszulegen. Beispielsweise ist eine Beschreibung eines Ausführungsbeispiels mit einer Vielzahl von Elementen oder Komponenten nicht dahingehend auszulegen, dass alle diese Elemente oder Komponenten zur Implementierung notwendig sind. Vielmehr können andere Ausführungsbeispiele auch alternative Elemente und Komponenten, weniger Elemente oder Komponenten oder zusätzliche Elemente oder Komponenten enthalten. Elemente oder Komponenten verschiedener Ausführungsbespiele können miteinander kombiniert werden, sofern nichts anderes angegeben ist. Modifikationen und Abwandlungen, welche für eines der Ausführungsbeispiele beschrieben werden, können auch auf andere Ausführungsbeispiele anwendbar sein. Zur Vermeidung von Wiederholungen werden gleiche oder einander entsprechende Elemente in verschiedenen Figuren mit gleichen Bezugszeichen bezeichnet und nicht mehrmals erläutert. Von den Figuren zeigen:
-
1 eine Schemadarstellung eines Systems zur 3D-Lokalisierung, -
2 eine Schemadarstellung eines Markers, -
3 eine Darstellung zur Erläuterung der Wirkung einer lokalen Bildverzerrung und -
4 ein Ablaufschema eines Verfahrens zur Ermittlung der Lage des Markers.
-
1 a schematic representation of a system for 3D localization, -
2 a schematic representation of a marker, -
3 a representation to explain the effect of local image distortion and -
4 a flow chart of a method for determining the position of the marker.
Die Kameras 4a-4c sind mit einer Steuereinrichtung 14 verbunden, die insbesondere einen Bildprozessor 14.1 und einen RAM 14.2 aufweist. Die Steuereinrichtung 14 steuert die Kameras 4a-4c zur Aufnahme von Bildern an. Aufgrund der unterschiedlichen Lagen der Kameras 4a-4c nehmen die Kameras die Marker 10-10d aus unterschiedlichen Perspektiven auf. Es handelt sich dabei jeweils um 2D-Aufnahmen. Diese 2D-Aufnahmen werden von der Steuereinrichtung 14, insbesondere dem Bildprozessor 14.1, verwendet, um anhand der Abbilder der Marker 10a-10d mittels Triangulation eine exakte 3D-Lokalisierung der Marker und damit beispielsweise der Oberflächenform des Objektes 2 zu ermitteln.The
Die Triangulation ist nachfolgend nicht weiter von Bedeutung; es geht hier vielmehr um die genaue Bestimmung der Lage eines der Marker im 2D-Bild, das einer der Bildsensoren 6 erzeugt. Selbstverständlich ist auch die Zahl der Marker in der Schemadarstellung der
Nachfolgend wird die hier wesentliche hochgenaue Bestimmung der Lage der Marker aus einem der 2D-Bilder erläutert.The high-precision determination of the position of the markers from one of the 2D images, which is essential here, is explained below.
Jeder Marker 10a-10d weist eine Markerfläche 12 auf. Die Ausgestaltung dieser Markerfläche 12 ist in
Beim Parameter, der die unterschiedlichen Werte W11-W55 einnimmt, kann es sich beispielsweise um einen Hellbezugswert, eine Farbe oder eine Polarisation handeln. Möglich sind insbesondere die Variation einer ersten Größe eines farbmetrischen Bezugssystems (z.B. bunttongleiche Wellenlänge oder Rot-Wert) entlang einer ersten Richtung und die Variation einer zweiten Größe des farbmetrischen Systems (z.B. Hellbezugswert oder Grün-Wert) entlang einer zweiten Richtung. Auch kann eine Kodierung in Form einer Richtungsmodulation der Abstrahl-/Reflexionsintensität verwendet werden, z.B. mittels eines Hologramms oder einer Blaze-Spiegelstruktur. Im Falle der Farbe ist es beispielsweise möglich, dass mit zunehmender Spalte eine rote Intensität zunimmt, mit zunehmender Zeile eine grüne Intensität. Auch können die Werte W11- W55 unterschiedliche, individuelle Grauwerte sein.The parameter, which takes on the different values W11-W55, can be, for example, a brightness reference value, a color or a polarization. In particular, it is possible to vary a first variable of a colorimetric reference system (e.g. wavelength of the same hue or red value) along a first direction and vary a second variable of the colorimetric system (e.g. lightness reference value or green value) along a second direction. Coding in the form of directional modulation of the emission/reflection intensity can also be used, e.g. by means of a hologram or a blazed mirror structure. In the case of color, for example, it is possible for a red intensity to increase as the column increases, and a green intensity as the row increases. The values W11-W55 can also be different, individual gray values.
Im Falle des Hellbezugswertes können sich die Markerpixel 18 z.B. im Grauwert unterscheiden. Verteilt man einen Graubereich von 0% bis 100%, so haben z.B. die Pixel 18 folgende Grauwerte:
Auf diese Weise hat jedes Markerpixel 18 einen individuellen Grauwert. Dies ergibt diskretisiert steigende Werte auf einer Achse, z.B. in x-Richtung, aber nicht in der anderen Achse, d.h. in y-Richtung. Optional sind die Werte auch auf der zweiten Achse zunehmend.In this way, each
Besonders bevorzugt ist es, wie später noch erläutert, dass die Markerkodierung in 2D steigende Werte hat - entweder in Form von diskreten Pixeln oder stetig. Dies ist besonders von Vorteil, wenn zugleich der Marker auf weniger Sensorpixel abgebildet wird, als Markerpixel vorhanden sind, und jedes Sensorpixel über einen ihm durch die Abbildungsgeometrie zugeordenten Flächenbereich und damit z.B. mehrere nebeneinanderliegende Markerpixel der Markerfläche integriert, z.B. eine Summierung. Diese Integralbildung hat einen geringeren Effekt, wenn die Kodierung in 2D kontinuierlich, z.B. im Sinne von stetig, variiert. Dann wird bei der Integration ein Mittelwert erreicht. Diese ist auch unabhängig von der Pixelierung des Sensors, da schon die optische Lichtverteilung durch die PSF der Optik eine Verschmierung aufweist.As will be explained later, it is particularly preferred that the marker coding in 2D has increasing values—either in the form of discrete pixels or continuously. This is particularly advantageous if at the same time the marker is imaged on fewer sensor pixels than there are marker pixels, and each sensor pixel is integrated over an area assigned to it by the imaging geometry and thus e.g. several adjacent marker pixels of the marker area, e.g. a summation. This integral formation has a smaller effect if the coding in 2D varies continuously, e.g. in the sense of continuously. A mean value is then reached during integration. This is also independent of the pixelation of the sensor, since the optical light distribution already shows smearing due to the PSF of the optics.
Das Muster 16 kann auf dem Marker fest angebracht, beispielsweise aufgedruckt sein. Gleichermaßen ist es möglich, dass die Musterfläche 12 ein Display ist, das die entsprechenden Werte W11-W55 erzeugt. Ebenso ist es möglich, dass das Muster 16 auf die Markerfläche 12 von einem externen Projektor projiziert wird.The
In den letzten beiden Varianten kann das Muster auch zeitveränderlich sein, wobei die Zeitveränderung entweder einem vorbestimmten festen Muster, gekoppelt an eine Normzeit, entspricht oder durch die Steuereinrichtung 14 oder einer mit ihr verbundenen Subeinheit vorgegeben wird.In the last two variants, the pattern can also vary over time, with the change in time either corresponding to a predetermined fixed pattern coupled to a standard time, or being specified by the
Die genannte optionale Aufständerung ist in
Das Muster 16 spannt ein lokales Koordinatensystem auf, indem es die einzelnen Orte auf der Musterfläche 12 durch Variation des Parameters, der vom Bildsensor 6 detektierbar ist, individuell kennzeichnet. In allen Ausführungsformen ist sichergestellt, dass der Parameter vom Bildsensor 6 in der Kamera 4a (und gegebenenfalls 4b und 4c) aufgelöst werden kann, d.h. dass die Kamera in der Lage ist, unterschiedliche Werte des Parameters und insbesondere die Unterschiede in den Werten W11-W55 zu erkennen. Damit ist nicht zwingend verbunden, dass die optische Auflösung der Kamera genügt, die Markerpixel 18 des Musters 16 individuell aufzulösen. Dies ist bei manchen Ausführungsformen nicht der Fall, da die 3D-Lokalisierung mittels der Kameras erst durch eine rechnerische Auswertung der 2D-Bilder erfolgt und die Orte der Marker 10a-10d im 3D-Raum mit einer Genauigkeit angibt, die bezogen auf die Ortsauflösung der Bildsensoren 6 mit Subpixel-Genauigkeit gegeben ist. Üblicherweise fällt damit das Abbild einer Markerfläche 12 nur auf wenige Sensorpixel des Bildsensors 6.The
Dieses lokale Koordinatensystem dient dazu, lokale Bildverzeichnungen auf dem Bildsensor 6 zu ermitteln. Die Bedeutung dieser Bildverzerrungen ist schematisch in
In der Darstellung der
Nun wird das Zentrum der Markerfläche 12 ermittelt (zentraler Punkt in
Im dargestellten Beispiel der
Diese Problematik kann auch nicht dadurch behoben werden, dass die Zahl der Sensorpixel verändert wird. Reduziert man die Zahl der Sensorpixel und damit die Sensorfläche, würde zwar die Wirkung der lokalen Bildverzeichnung abnehmen, die Ortsgenauigkeit für das Zentrum der Markerfläche würde jedoch aufgrund der geringeren Sensorpixelzahl ebenfalls abnehmen. Erhöht man die Sensorpixelzahl und damit die Sensorfläche, steigt hingegen die Problematik der lokalen Bildverzeichnung.This problem cannot be solved by changing the number of sensor pixels. If you reduce the number of sensor pixels and thus the sensor area, the effect of local image distortion would decrease, but the location accuracy for the center of the marker area would also decrease due to the lower number of sensor pixels. If you increase the number of sensor pixels and thus the sensor area, the problem of local image distortion increases.
Durch das Muster 16 auf der Markerfläche 12 kann nun der Bildprozessor die lokale Bildverzeichnung korrigieren, so dass bei der Ermittlung der Lage des Marker(zentrums) im 2D-Bild die in
In
Die Ausführungsformen stellen bildverzeichnungs-invariante Marker bereit. Dieser Begriff heißt natürlich nicht, dass die Marker bei der Abbildung auf den Bildsensor 8 selbst keiner Bildverzeichnung unterworfen sind. Er stellt vielmehr darauf ab, dass die Marker durch das Muster der Markerfläche und das dadurch bereitgestellte lokale Koordinatensystem eine Korrektur der lokalen Bildverzeichnungen ermöglichen und damit letztlich ein Abbild des Markers zur Lageermittlung verwendet werden kann, das eine Invarianz gegen lokale Bildverzeichnungen ermöglicht, welche auf dem Bildsensor 8 im Abbild des Markers auftreten.The embodiments provide image distortion invariant markers. Of course, this term does not mean that the markers themselves are not subject to any image distortion when they are imaged on the
Die Lageermittlung mit einer (auf den Bildsensor bezogenen) Sub-Pixelgenauigkeit ist beispielsweise auch aus der Tommaselli, A.M.G. and Berveglieri, A., „Measuring photogrammetric control targets in low contrast images“, Bulletin of Geodetic Sciences, Vol. 24, Issue 2, 171-185, Apr.-Jun., 2018, bekannt, die diesbezüglich hier vollumfänglich eingebunden wird.Position determination with sub-pixel accuracy (related to the image sensor) is also known, for example, from Tommaselli, A.M.G. and Berveglieri, A., "Measuring photogrammetric control targets in low contrast images", Bulletin of Geodetic Sciences, Vol. 24,
Der Schritt S3 und allgemein die Berücksichtigung bzw. Ermittlung der lokalen Bildverzeichnung kann auf Basis des lokalen Koordinatensystems gemäß folgendem Formalismus ausgeführt werden:Step S3 and in general the consideration or determination of the local image distortion can be carried out on the basis of the local coordinate system according to the following formalism:
Grundsätzlich erzeugt jedes Pixel des Bildsensors, auf das ein Abbild der Markerfläche fällt, eine x/y-Messung der Lage der Markerfläche in deren Ebene. Bezeichnet man die Sensorpixelorte mit (xi,yi) und die dekodierten, d.h. aus den 2D-Aufnahmen rekonstruierten Positionen in der Markerfläche, mit (x̂i,ŷi), wobei i den Zählindex der Sensorpixel benennt, kann man eine Funktion, deren Parameter ein Vektor ist, wie folgt angeben:
Im Folgenden wird die Wahl der Funktionen f und g diskutiert, wobei diese Diskussion darauf abzielt, die zu beachtenden Bedingungen herauszustellen. Sie ist nicht als einschränkend für die Erfindung zu verstehen.In the following, the choice of the functions f and g will be discussed, with this discussion aiming at emphasizing the conditions to be observed. It is not to be understood as limiting the invention.
In einem einfachen Fall können f und g affine Funktionen sein:
Um diese Funktionen an die Messdaten anzufitten, werden mindestens 6 unabhängige Messwertpaare
mit i=1, ..., N und N >= 6
benötigt. Für die folgende Darstellung sind die Parameter a, b, c, d, e, φ in einem Parametervektor
with i=1, ..., N and N >= 6
needed. For the following representation, the parameters a, b, c, d, e, φ are in a parameter vector
Bei komplexeren lokalen Verzeichnungen können mächtigere Modelle für f und g zum Einsatz kommen, z.B. :
Da bei komplexeren lokalen Verzeichnungsmodellen für f, g, mehr Messwerte benötigt werden, um zu einer eindeutigen Lösung zu gelangen, andererseits die lokale optische Verzeichnung umso stärker ausfallen wird, je grösser das Abbild des Markers auf dem Sensor erscheint, bietet es sich an, das Verzeichnungsmodell dynamisch nach der Abbildungsgröße des Markers zu wählen:
- - Wenn der Marker klein erscheint, gibt es wenige Messwertpaare, aber auch die lokale Verzeichnung ist einfach, d.h. ein einfaches Modell, z.B. nach Gleichung (1), reicht zur Beschreibung aus
- - Wenn der Marker groß erscheint, gibt es viele Messwertpaare, aber auch die lokale Verzeichnung ist nun komplexer und ein aufwendigeres Modell, z.B. nach Gleichung (2), kann zum Einsatz kommen.
- - If the marker appears small, there are few pairs of measured values, but the local distortion is also simple, ie a simple model, eg according to equation (1), is sufficient for the description
- - If the marker appears large, there are many pairs of measured values, but the local distortion is now more complex and a more complex model, eg according to equation (2), can be used.
Dabei sollen für N Parameter im Verzeichnungsmodell mindestens N Messwertpaare vorhanden sein. Überbestimmte Modelle führen zu einer gewünschten fehlerreduzierenden Mittelung, die die Detektionsgenauigkeit, wie erwünscht, erhöht.At least N pairs of measured values should be available for N parameters in the distortion model. Overdetermined models lead to a desired error-reducing averaging that increases the detection accuracy as desired.
Wie man sieht, ist die Grundvoraussetzung für die Anwendung des Verfahrens die Verfügbarkeit der Messwertpaare (xi,yi) ↔(x̂j,ŷi), i=1, ..., N, die gerade durch die erfindungsgemäße Einführung des lokalen Markerkoordinatensystems ermöglicht wird.As can be seen, the basic prerequisite for the application of the method is the availability of the pairs of measured values (x i ,y i ) ↔(x̂ j ,ŷ i ), i=1, ..., N, which are precisely due to the inventive introduction of the local Marker coordinate system is made possible.
Alternativ kann die inverse Funktion angefittet werden. Dann muss nur (ƒ-1(0,0),g-1(0,0)) ausgewertet werden. Die inverse Funktion lautet:
Claims (15)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021111417.9A DE102021111417A1 (en) | 2021-05-03 | 2021-05-03 | Method and system for determining the position of a marker in a 2D image and marker designed therefor |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021111417.9A DE102021111417A1 (en) | 2021-05-03 | 2021-05-03 | Method and system for determining the position of a marker in a 2D image and marker designed therefor |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102021111417A1 true DE102021111417A1 (en) | 2022-11-03 |
Family
ID=83601024
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102021111417.9A Withdrawn DE102021111417A1 (en) | 2021-05-03 | 2021-05-03 | Method and system for determining the position of a marker in a 2D image and marker designed therefor |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102021111417A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE202023000938U1 (en) | 2023-04-27 | 2023-05-25 | Dr. Clauß Bild- und Datentechnik GmbH | Arrangement for photogrammetric object recording |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20040233461A1 (en) | 1999-11-12 | 2004-11-25 | Armstrong Brian S. | Methods and apparatus for measuring orientation and distance |
| DE102014102634A1 (en) | 2014-02-27 | 2015-08-27 | Lavision Gmbh | Method for calibrating an optical arrangement, use of a display of a mobile electronic device as a calibration plate, method for displaying a periodic pattern and computer program product |
| DE102017112976A1 (en) | 2016-06-13 | 2017-12-14 | Carl Zeiss Industrielle Messtechnik Gmbh | Method for calibrating an optical arrangement of a coordinate measuring machine |
| WO2018145113A1 (en) | 2017-02-06 | 2018-08-09 | MODit3D, INC. | System and method for 3d scanning |
| DE102018108154A1 (en) | 2018-04-06 | 2019-10-10 | pmdtechnologies ag | Calibration device and calibration method for a camera system |
-
2021
- 2021-05-03 DE DE102021111417.9A patent/DE102021111417A1/en not_active Withdrawn
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20040233461A1 (en) | 1999-11-12 | 2004-11-25 | Armstrong Brian S. | Methods and apparatus for measuring orientation and distance |
| DE102014102634A1 (en) | 2014-02-27 | 2015-08-27 | Lavision Gmbh | Method for calibrating an optical arrangement, use of a display of a mobile electronic device as a calibration plate, method for displaying a periodic pattern and computer program product |
| DE102017112976A1 (en) | 2016-06-13 | 2017-12-14 | Carl Zeiss Industrielle Messtechnik Gmbh | Method for calibrating an optical arrangement of a coordinate measuring machine |
| WO2018145113A1 (en) | 2017-02-06 | 2018-08-09 | MODit3D, INC. | System and method for 3d scanning |
| DE102018108154A1 (en) | 2018-04-06 | 2019-10-10 | pmdtechnologies ag | Calibration device and calibration method for a camera system |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE202023000938U1 (en) | 2023-04-27 | 2023-05-25 | Dr. Clauß Bild- und Datentechnik GmbH | Arrangement for photogrammetric object recording |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3186952B1 (en) | Image capturing device and method for image capturing | |
| EP2329222B1 (en) | Method and measuring assembly for determining the wheel or axle geometry of a vehicle | |
| EP2603767B1 (en) | Method for calibrating a measurement system and device for carrying out the method | |
| DE10354752B4 (en) | Method and device for the automatic equalization of single-channel or multi-channel images | |
| DE102006055758B4 (en) | Method for calibrating cameras and projectors | |
| DE112016004540T5 (en) | Camera calibration using synthetic images | |
| CH692873A5 (en) | Device and method for the geometric calibration of CCD cameras. | |
| DE102013108070A1 (en) | Image calibration and equalization of a wide-angle camera | |
| DE102014209137A1 (en) | Method and device for calibrating a camera system of a motor vehicle | |
| DE102017010683B4 (en) | Method for automatic restoration of a measured state of a projection system | |
| DE102014201271A1 (en) | A method and controller for detecting a change in a relative yaw angle within a stereo video system for a vehicle | |
| EP3186776A1 (en) | Image capturing device and method for image capturing | |
| EP4227636A1 (en) | Determination of depth values of a surface area of a workpiece | |
| DE112021005870T5 (en) | STEREO IMAGE PROCESSING DEVICE AND IMAGE CORRECTION DEVICE | |
| DE102014219423B4 (en) | Dynamic model to compensate for windshield distortion | |
| DE102021111417A1 (en) | Method and system for determining the position of a marker in a 2D image and marker designed therefor | |
| EP4220077A1 (en) | Calibration system for calibrating a camera system and associated calibration system | |
| EP3420533B1 (en) | Method for calibrating an optical measurement set-up | |
| DE19953063A1 (en) | Method for three-dimensional optical measurement of object surfaces | |
| DE102011055967B4 (en) | Measuring method and device for carrying out the measuring method | |
| DE102014219418B4 (en) | Process for the stereo rectification of stereo camera images and driver assistance system | |
| DE102020118723B4 (en) | A method for determining a position of a first object in a positioning system, a positioning system and a computer program | |
| WO2024032971A1 (en) | Device and method for measuring three-dimensional virtual images and objects on a head-up display | |
| EP4068198A1 (en) | Method for generating an image of an object, computer program product and imaging system for carrying out the method | |
| DE102017220720B4 (en) | Method and device for contactless measurement of three-dimensional surface contours |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R163 | Identified publications notified | ||
| R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |