DE19509277C1 - Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen - Google Patents
Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugenInfo
- Publication number
- DE19509277C1 DE19509277C1 DE19509277A DE19509277A DE19509277C1 DE 19509277 C1 DE19509277 C1 DE 19509277C1 DE 19509277 A DE19509277 A DE 19509277A DE 19509277 A DE19509277 A DE 19509277A DE 19509277 C1 DE19509277 C1 DE 19509277C1
- Authority
- DE
- Germany
- Prior art keywords
- intensity
- modulated
- derivatives
- determination
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Description
Die vorliegende Erfindung betrifft ein Verfahren zur Auswertung von Sensordaten,
um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von
Automaten, zu erzeugen, das die folgenden Schritte umfaßt:
- - Messung von Sensordaten yi in Form von Tupeln mit mindestens einer Komponente und daraus Erhebung von Eingangsdaten zum Zweck der Bestimmung von gewünschten Ausgabesignalen xk mit Hilfe eines funktionalen Zusammenhanges 0=Fi(yi, x);
- - Bestimmung der in der Fehlerfortpflanzung im Rahmen einer linearen Näherung vorkommenden praktisch bestimmbaren partiellen Ableitungen
Eine automatische Steuerung benötigt i. allg. Sensordaten zur Bestimmung möglichst
zuverlässiger und präziser Steuersignale. Alle Sensordaten sind mit einer begrenzten Meßgenauigkeit
behaftet. Es stellt sich daher die Frage, auf welche Weise man mit einer begrenzten
Meßgenauigkeit erhobene Sensordaten yi automatisch auswählt und kombiniert,
um möglichst zuverlässige und präzise Daten xk als Steuersignale oder zur unmittelbaren
Bestimmung von Steuersignalen bereitszustellen. Dies heißt, häufig werden Sensorsignaldaten
erhoben, welche nicht direkt die gewünschte Information bereitstellen. Klassisch
wird dieses Problem in der Numerik mittels Ausgleichsrechnung (J. Stoer, Einführung
in die Numerische Mathematik I, Springer Verlag, 3. Auflage, Berlin, 1979) behandelt.
Hier wird genau das Problem bearbeitet, wie eine interessierende Größe bestimmt werden
kann, ohne daß es möglich ist, sie direkt zu messen. Man geht auf folgende indirekte Weise
vor: Statt der gesuchten Größe mißt man eine andere, leichter der Messung zugängliche
Größe,
welche auf eine bekannte gesetzmäßige Art und Weise von der gesuchten Größe abhängt.
Man führt eine Anzahl von Messungen durch, mißt die zugehörigen Resultate und stellt
ein Gleichungssystem auf. Üblicherweise handelt es sich dabei um ein über- bzw. unterbestimmtes
Gleichungssystem, außerdem sind die Meßwerte typischerweise mit Meßfehlern
behaftet. Die Aufgabe besteht dann darin, dies Gleichungssystem, wenn schon nicht exakt,
so doch "möglichst gut", zu lösen. Als Gütemaß für die Schätzung der gesuchten Parameter
wird gewöhnlich die maximale Abweichung bzw. die Summe der quadratischen Abweichungen
verwendet. Übertragen auf die z. B. bei einer Robotersteuerung bekannte Aufgabe,
indirekt die Relativpositionen und -bewegungen aus den direkt vorliegenden Bilddaten
eines bildgebenden Sensors zu bestimmen, bestehen die Meßorte aus benachbarten Bildpunkten
und die Messung entspricht der Erhebung von Intensitäten und der Berechnung
der Intensitätsgradienten. Ziel ist die Erzeugung des maximalen Informationsgewinns aus
den vorliegenden Sensorsignaldaten.
Mit einem derartigen gattungsgemäßen Verfahren kann z. B. das als "Structure from
Motion" bekannt gewordene Problem gelöst werden. Es kann allgemein wie folgt formuliert
werden. Gegeben sei eine Bildsequenz, welche durch einen monokularen Beobachter aufgenommen
wurde; rekonstruiere hieraus sowohl die Form und relative Tiefe der Objekte
in der Szene als auch die relative dreidimensionale Rotations- und Translationsbewegung
gegenüber sich unabhängig vom Beobachter bewegenden Objekten.
Das Problem kann grundsätzlich von den "visuellen" Sensoren auf die allgemeine Klasse
der "bildgebenden Sensoren" erweitert werden. Wichtig ist hierbei nur die hohe Auflösung
zur Gewinnung dichter und damit lokal auswertbarer Daten und die Kenntnis der zugrundeliegenden
projektiven Abbildungsgeometrie. Der für visuelle Sensoren verwendete Ausdruck
der Messung von "Intensitäten kann auf alle Sensoren, die als Ziel die Erfassung
von Oberflächenreflexionseigenschaften haben (wie z. B. Sensoren für die verschiedenen
Wellenlängenbereiche), erweitert werden.
Der oben genannte Schwerpunkt auf "monokulare" Bildfolgen kann gelockert werden,
wenn die dreidimensionale Orientierung und Position der Sensoren (und damit die Korrespondenz
der einzelnen Bildelemente) bekannt ist. Die Tiefeninformation kann zumindest
bis zu einer Entfernung von etwa 5 m auch binokular, d. h. durch Methoden des Stereosehens,
gewonnen werden. Auch sind hochauflösende "aktive" Sensoren, z. B. 2D Laserscanner,
wie sie in Zukunft aufgrund ihrer zunehmend kompakteren Bauweise den Robotikbereich
revolutionieren werden, zur Gewinnung der punktweisen Tiefeninformation denkbar.
Um die Problematik systematisch und konkret zu erschließen, sollte man sich zunächst
bewußt machen, daß alle Verfahren prinzipiell letztlich auf Hypothesen beruhen. Dabei
stellt sich die Frage, inwieweit diese praktisch immer erfüllt sind oder künstlich leicht
erfüllbar gemacht werden können. Als typische praktisch allgemeingültige Hypothesen
gelten:
- - Intensitätskonstanz: Die Intensität eines Objektpunktes ändert sich nicht von Bild zu Bild,
- - die Objekte werden mit Lambertoberflächen modelliert, d. h. die Intensität ändert sich nicht bei wechselndem Beobachterstandpunkt,
- - die Szene setzt sich aus Festkörpern, d. h. nichtdeformierbaren Objekten zusammen.
Unter den hochauflösenden Sensoren sind Verfahren mit dem Einsatz von Kameras am
besten erforscht. Daher soll prototypisch im folgenden auf den Stand der Technik in der
Bildverarbeitung eingegangen werden.
Die Forschung auf dem Gebiet der visuellen Bewegungswahrnehmung verlief im wesentlichen
in drei Stufen (C. Fermüller. Navigational Preliminaries. In Y. Aloimonos, (Hrsg.),
Active Perception, Kapitel 3, Seiten 103-150, Lawrence Erlbaum, 1993). Zunächst wurde
überhaupt nach Lösungen für das "Strukture from Motion" Problem gesucht. Später
beschäftigte man sich mit der Auflösung von verfahrensbedingten Mehrdeutigkeiten in den
erzeugten Lösungen. Heute steht die Suche nach robusten Lösungen im Vordergrund welche
Sicherheitsaspekte insbesondere im Zusammenhang mit der Anwendung (z. B. mobiler
Robotik, siehe unten) berücksichtigen. In Bezug auf Sicherheitsaspekte sind heuristische
Verfahren grundsätzlich problematisch. Schließlich müssen die Verfahren bei vielen Anwendungen,
etwa in der Robotik, nicht nur sicher sein, sondern auch in Echtzeit und
Rechenzeit schnell arbeiten und dabei ein hohes Auflösungsvermögen gewährleisten.
Traditionell wird das Problem als eine wesentliche Teilaufgabe genereller Sehsysteme,
d. h. solcher mit universeller Einsetzbarkeit zur Lösung allgemeiner visueller Probleme,
betrachtet. Deren Ziel besteht insbesondere darin, die Szene komplett zu rekonstruieren
(D. Marr, Vision, W. H. Freeman, San Francisco, CA, 1982 und B. K. P. Horn, Robot
Vision, MIT Press und McGraw-Hill, 1986). Diese Rekonstruktionsansätze sind vielfältig
und die Mehrheit läßt sich durch den folgenden modularen und hierarchischen Aufbau
beschreiben (Y. Aloimonos, (Hrsg.), Active Perception. Computer Vision, Lawrence Erlbaum,
1993):
- 1. Berechnung des optischen Flußfeldes, d. h. die Projektion der Bewegung der Szene relativ zum Beobachter auf die Kamera.
- 2. Segmentierung des Flußfeldes in Bereiche unterschiedlicher Relativbewegungen. Daraus Berechnung der 3D-Bewegungen.
- 3. Flächendeckende Berechnung der relativen Tiefen und damit der Objektoberflächennormalen, d. h. der Szenenstruktur.
Beispiele dieser Verfahren finden sich in (S. Ullman, The Interpretation of Visual Motion,
MIT Press, Cambridge, USA, 1979, H.C. Longuet-Higgins, A computer algorithm
for reconstructing a scene from two projections, Nature, 293: 133-135, September 1981,
G. Adiv, Determining three-dimensional motion and structure from optical flow generated
by several moving objects. IEEE Transactions on Pattern Analysis and Machine Intelligence,
7(4): 384-401, Juli 1985, M.E. Spetsakis und J.Y. Aloimonos. Structure from
motion using line correspondences. Int. J. of Computer Vision, 4: 171-183, 1990). Kein
robustes und schnelles Verfahren befindet sich im industriellen Einsatz.
Seit kurzer Zeit wird auf dem Forschungsgebiet der Bildverarbeitung der Sinn des
Strebens nach der Entwicklung genereller Sehsysteme in Frage gestellt. Als alternative
Aufgabenstellungen schlägt Aloimonos (Y. Aloimonos, (Hrsg.), Active Perception, Computer
Vision, Lawrence Erlbaum, 1993) die Entwicklung aufgabengetriebener Sehsysteme
vor, welche allgemeine statt spezielle Annahmen über die Szene machen, nur teilweise
statt komplett rekonstruieren und spezielle statt allgemeine Probleme zu lösen versuchen
(Y. Aloimonos, E. Rivlin und L. Huang, Designing Visual Systems: Purposive Navigation.
In Y. Aloimonos, (Hrsg.), Active Perception, Kapitel 2, Seiten 47-102, Lawrence
Erlbaum, 1993). Die meist aufwendige, fehlerbehaftete und/oder mit Heuristiken verbundene
Berechnung der optischen Flußfelder (J.L. Barron, D.J. Fleet und S.S. Beauchemin,
Systems and experiment: Performance of optical flow techniques, Int. J. of Computer
Vision, 12(1): 43-77, 1994) könnte dabei z. B. umgangen werden.
Ein wichtiges Anwendungsgebiet des gattungsgemäßen Verfahrens liegt z. B. im Einsatz
in Robotersystemen. Hier ist für die elementar wichtige Aufgabe des kollisionsfreien
Manövrierens eine vollständige Rekonstruktion der Szene nicht notwendig. Für eine erfolgreiche
Hindernisvermeidung muß lediglich die eigene Reaktionszeit mit der Zeit bis zu
einer potentiellen Kollision in Beziehung gesetzt werden. Im Hinblick auf eine geforderte
rechtzeitige Reaktion auf Gefahrensituationen ist es zudem notwendig echtzeitfähige Verfahren
zu entwickeln und einzusetzen. Echtzeitfähig in diesem Kontakt bedeutet, daß der
Roboter sich in üblichen Geschwindigkeiten bewegen kann. Damit scheiden rechenintensive
Verfahren aus. Auch wenn die für heutige Verhältnisse schnelle Bildverarbeitungshardware
eingesetzt wird, so stößt man doch schnell an die Grenzen.
Sicheres Manövrieren wird heute oft durch Telemanipulation, d. h. der Steuerung der
Roboter unter direkter menschlicher Kontrolle, und durch in den Boden eingelassene
Führungen erreicht. In Zukunft sind autonome Roboter gefragt, welche sich auch in unstrukturierter
Umgebung zuverlässig bewegen. Zwei Ansätze werden verfolgt (C.E. Thorpe,
Mobile robots, Int. Journal of Pattern Recognition and Artificial Intelligence, 5(3): 383-397,
1991): Erstens Szenenmanipulation durch Positionieren von Landmarken, zweitens
Einsatz von Sensoren zum Aufbau interner Karten.
Die industriell eingesetzte aktive Sensorik beschränkt sich meist auf niedrigauflösende
Sensorik wie Ultraschall und Infrarot und teure 1D-Laserscanner. Der Einsatz von hochauflösender
Sensorik ist im Industriebereich heutzutage noch selten und nur in äußerst kontrollierten
Umgebungen der Fall. Dabei bieten insbesondere die zunehmend kostengünstigeren
Kameras eine ausreichende Auflösung und die Möglichkeit der zusätzlichen Extraktion
weiterer Information wie z. B. die der Relativbewegung. In der Forschung ist der Einsatz
von Kameras für die mobile Robotik populär, jedoch mangelt es an robusten Verfahren.
Aus dem Stand der Technik sind Verfahren zur Auswertung von Sensordaten bekannt,
die die Durchführung von Ausgleichsrechnungen umfassen. Mit Ausgleichsrechnungen
ist jedoch der Nachteil verbunden, daß Willkürentscheidungen bezüglich
von Wichtungsfaktoren in die Rechnungen einfließen und zu einer z. B. für Robotersteuerungen ungenügenden Genauigkeit hinsichtlich der Ausgabesignale führen.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Verfügung
zu stellen, das vorgegebene Gleichungen, die mit konstanter Meßgenauigkeit gemessene
Größen und gewünschten Größen in Beziehungen setzen, so kombiniert, daß für die gewünschten
Größen der Informationsgewinn maximal wird, d. h., daß die Ausgabesignale mit einer
höheren Genauigkeit als z. B. bei Verwendung von Ausgleichsrechnungen bestimmbar werden.
Erfindungsgemäß wird diese Aufgabe gelöst durch Einlesen positiver Nützlichkeitsparameter
vk, welche die Genauigkeitsprioritäten eines Benutzers hinsichtlich der gewünschten
Ausgabesignale xk charakterisieren, und Einlesen mindestens einer bereitgestellten Meßgenauigkeit.
Gemeinsame Bestimmung der Ausgabesignale xk und der adaptierten Wichtungsfaktoren
γj derart, daß ein summierter quadratischer Fehler bei Verwendung der adaptierten
Wichtungsfaktoren die Beziehung ΣiγiF²i (yi, x) = minimal nahezu erfüllt und der wesentliche
Informationsgewinn W = Σkvklog₂ = maximal nahezu erfüllt ist, woei Σjγj
= konstant einzuhalten ist.
Dabei kann vorgesehen sein, daß
- - die Sensordaten yi Intensitäten I(x, y, t) an Bildpunkten (x, y) zu Zeitpunkten t eines bildgebenden Sensors entsprechen, wobei die Indizes i der Sensordaten yi Tripel (x, y, t) darstellen,
- - die gewünschten Größen x₁, x₂, x₃, x₄, x₅ und x₆ jeweils einer x-Rotation, y- Rotation, z-Rotation, tiefenskalierten x-Translation, tiefenskalierten y-Translation und tiefenskalierten z-Translation zwischen beliebigen Objekten und dem bildgebenden Sensor anhand einer Bildsequenez entsprechen, und
- - die Funktionen Fi entsprechend der Geometrie des bildgebenden Sensors und unter der Voraussetzung, daß die Gesamtintensität von Objekten konstant bleibt, aufstellbar sind,
- - ferner eine Erhebung von räumlichen und zeitlichen Intensitätsableitungen Ix, Iy und It der Intensitäten I(x, y, t) an den Bildpunkten (x, y) des bildgebenden Sensors als Eingangsdaten vorgenommen wird,
- - ferner eine gewährleistete relative Meßgenauigkeit des Sensors,
- - Nützlichkeitsparameter vk für die Bewegungsgrößen x₁, x₂, x₃, x₄, x₅, x₆ und
- - zusätzlich Bildregionen eingelesen werden, und
- - zur Bestimmung der Relativrotationen und tiefenskalierten Translationen Wichtungsmuster übernommen werden.
Weiterhin kann vorgesehen sein, daß die Erhebung der räumlichen und zeitlichen Intensitätsableitungen
mittels der folgenden Schritte durchgeführt wird:
- - Messung der Intensitätsverteilungen I(x, y, t) an Bildpunkten (x, y) einer Bildfläche des bildgebenden Sensors zu mindestens zwei aufeinanderfolgenden Zeitpunkten t,
- - Bildung der zugehörigen Intensitätsableitungen Ix, Iy und It der Intensitätsverteilungen nach den Bildpunktkoordinaten x, y aus mindestens zwei benachbarten Bildpunkten bzw. nach der Zeit t aus mindestens zwei aufeinanderfolgenden Bildpunkten.
Alternativ dazu kann vorgesehen sein, daß die Erhebung der räumlichen und zeitlichen
Intensitätsableitungen mittels der folgenden Schritte durchgeführt wird:
- - unmittelbare Umsetzung der gemessenen Intensität I(x, y, t) durch einen herkömmlichen elektronischen analogen Differentiatorschaltkreis in die partielle zeitliche Ableitung , wobei zur zusätzlichen Messung der räumlichen Intensitätsableitungen und dem bildgebenden Sensor hochfrequente Mikrobewegungen, sogenannte Mikrosakkaden, aufgeprägt werden.
Ferner kann dazu vorgesehen sein, daß die Mikrosakkaden durch Plazierung eines piezo-
elektrisch gesteuerten Spiegels im parallelen Strahlengang des einfallenden Bildes erzeugt
werden.
Andererseits kann auch vorgesehen sein, daß die Mikrosakkaden durch Plazierung brechungsindexvariierender
Flüssigkristalle im parallelen Strahlengang des einfallenden Bildes
erzeugt werden.
Alternativ dazu kann vorgesehen sein, daß die Mikrosakkaden durch mechanische, magnetisch
getriebene Oszillationen eines Spiegels im parallelen Strahlengang des einfallenden
Bildes erzeugt werden.
Weiterhin kann alternativ dazu auch vorgesehen sein, daß die Mikrosakkaden durch
piezoelektrisch gesteuerte Oszillationen eines bildgebenden Chips realisiert werden.
In einer besonderen Ausführungsform der Erfindung kann vorgesehen sein, daß der
bildgebende Sensor zusätzlich die Signallaufzeit für die doppelte Wegstrecke von dem bildgebenden
Sensor zu einem auf den Bildpunkt (x, y) projizierten Objekt bestimmt.
Vorzugsweise werden zusätzlich Mustermarkierungen in der Szene verwendet.
Weiterhin kann vorgesehen sein, daß die Wichtungsmuster anhand des maximalen
wesentlichen Informationsgewinnes bestimmt sind.
Alternativ dazu kann vorgesehen sein, daß die Wichtungmuster anhand des ausgewählten
Bildmaterials vorab bestimmt werden, wobei eine Klassifikation der möglichen gemessenen
Intensitäten und eine Bestimmung eines Wichtungsmusters mit relativ hohem
wesentlichen Informationsgewinn für jede Klasse vorgenommen wird.
Ferner kann auch vorgesehen sein, daß die Wichtungsmuster anhand einer Transformation
der gemessenen Intensitätsgradienten auf eingelesene Zielmuster bestimmt werden,
wobei dies die folgenden Schritte umfaßt:
- - Einlesen von speziellen Verfahrensparametern, wie konjugierten Bildpunkten, Zielmustern, modulierten Multipolen und symmetriesierten modulierten Multipolgleichungen,
- - Umsetzung der speziellen Verfahrensparameter, die eine Bestimmung der Symmetriefaktoren Pq, eine Berechnung der Symmetriekoeffizienten ax q, bx q, cx q, dx q, ax q, by q, cy q, dy q, at q, bt q, ct q und dt q für die ausgewählten Multipole, eine Bestimmung von Konjugationsfaktoren und eine Bestimmung der ausgewählten transformierten modulierten Multipole für die Intensitätsgradienten Ix und Iy aus den ausgewählten Zielmustern umfaßt,
- - Tranformation der gemessenen Intensitätsgradienten auf linear kombinierte Intensitätsgradienten mit der Zielmusterorientierung durch Berechnung der Linearfaktoren αk(j) für jeden konjugierten Bildpunkt eines Bildregionpunktes,
- - Bestimmung von Normierungsfaktoren ps j anhand einer Transformation der linear kombinierten Intensitätsgradienten auf das Zielmuster durch Normieren des linear kombinierten Intensitätsgradienten entsprechend dem Zielmuster,
- - Bestimmung der transformierten modulierten Multipole für zeitliche Intensitätsableitungen It durch Bestimmung der effektiven zeitlichen Intensitätsableitungen aus den gemessenen zeitlichen Intensitätsableitungen, den Linearfaktoren und den Normierungsfaktoren, Bestimmung der zeitlichen transformierten modulierten Multipolelemente aus den effektiven zeitlichen Intensitätsableitungen, Aufsummieren der transformierten modulierten Multipolelemente zu den transformierten modulierten Multipolen für die zeitlichen Intensitätsableitungen und Aufstellen der ausgewählten symmetrisierten modulierten Multipolgleichungen aus den transformierten modulierten Multipolen für die Intensitätsableitungen Ix, Iy und It.
Weiterhin kann auch vorgesehen sein, daß separat eine Bestimmung der x-Rotation, y-
Rotation und der tiefenskalierten z-Translation und dann der z-Rotation, tiefenskalierten
x-Translation und tiefenskalierten y-Translation vorgenommen wird.
Weiterhin kann auch vorgesehen sein, daß gewünschte relative Genauigkeiten qk =
mittels der folgenden Schritte in Nützlichkeitsparameter umgesetzt werden:
- - Einlesen der gewünschten Genauigkeiten qk,
- - Bestimmung der vk durch vk = v₁.
Schließlich kann auch vorgesehen sein, daß die gemeinsame Optimierungsaufgabe
der Minimierung von ΣiγiF²i(yi, x) und der Maximierung des wesentlichen Informationsgewinnes
durch folgende Schritte vorab gelöst wird:
- - Charakterisieren aller möglichen Konfigurationen der Eingangsdaten.
- - Auswahl von repräsentativen Konfigurationen der Eingangsdaten.
- - Für jede repräsentative Konfiguration der Eingangsdaten Lösung der Optimierungsaufgabe der gemeinsamen Bestimmung der gewünschten Daten xk und der Wichtungsfaktoren γj, wobei gilt Σjγj = konstant und ΣiγiF²i(yi, x) nahezu minimal, sowie Σkvklog₂ nahezu maximal.
- - Erstellung einer Klassifikation aller möglichen Konfiguration der Eingangsdaten mit jeweils einer repräsentativen Konfiguration pro Klasse.
- - Für jede Klasse Zuordnung der Lösung der Optimierungsaufgabe der zugehörigen repräsentativen Konfiguration.
- - Erstellung einer Datei mit dieser Zuordnung.
Der Erfindung liegen folgende ineinandergreifende Erkenntnisse zur Verwendung von
Sensordaten yi für eine automatische Generierung von Steuersignalen zugrunde: Generell
verwendet man bei einer automatischen Steuerung Sensoren, um Rückschlüsse von den
Sensordaten auf die zugehörigen Teile der Außenwelt zu erzielen. In dem Maße, in dem
diese Rückschlüsse mit entsprechenden Tatsachen der Außenwelt übereinstimmen, stellen
sie eine Information dar. Information wird üblicherweise durch die Anzahl der Binärstellen
einer Binärzahl bemessen. Entsprechend wird hier die für einen solchen Rückschluß
gewonnene Information eingeführt als die Anzahl der zuverlässig berechneten Binärstellen
einer (oder mehrerer) den Rückschluß beschreibenden Binärzahl(en) xk. Weiterhin entsprechend
wird hier für ein Verfahren zur Auswertung von Sensordaten gefordert, daß der
Informationsgewinn bezüglich der interessierenden Rückschlüsse, der sogenannte wesentliche
Informationsgewinn, maximal wird. Hierbei ist es essentiell, die in den gemessenen
Größen enthaltene Information über die gemessenen Größen zu unterscheiden von der aus
den gemessenen Größen gewinnbaren Information über die interessierenden Rückschlüsse.
Denn einerseits unterscheiden sich die Information über die Meßgrößen und die gewinnbare
Information quantitativ i. allg. sehr; andererseits erfordert ein Rückschluß prinzipiell
immer eine eigene zugrundeliegende Theorie (hier ist diese durch die Funktionen Fi ausgedrückt).
Falls die relativen Meßgenauigkeiten der Sensordaten einigermaßen gutartig sind, so
läßt sich der durch die Funktionen Fi zu den berechneten Daten xk fortgepflanzte Meßfehler
angemessen im Rahmen der linearen Fehlerfortpflanzungstheorie bestimmen. Hierdurch
kann man die zu erwartenden relativen Fehler der berechneten Größen xk aus den zu erwartenden
relativen Fehlern der gemessenen Größen yi bestimmen. Hieraus kann man den
wesentlichen Informationsgewinn aus den zu erwartenden relativen Fehlern der gemessenen
Größen yi bestimmen.
Weiterhin kann man die gemessenen Sensordaten yi entsprechend Wichtungen γi berücksichtigen,
und den wesentlichen Informationsgewinn aus den zu erwartenden relativen Fehlern
der gemessenen Größen yi zusammen mit den Wichtungen γi bestimmen. Schließlich
kann man die Wichtungen und die berechneten Größen zugleich so bestimmen, daß sowohl
der wesentliche Informationsgewinn praktisch maximal wird, als auch der mittlere
quadratische Fehler ΣiγiF²i(yi, x) praktisch minimal wird. Auf diese Weise kann man die
gewünschten Größen xk mit maximalem Informationsgewinn berechnen.
Dieser Ansatz der Maximierung des wesentlichen Informationsgewinns kann in einer
besonderen Ausführungsform gemäß Anspruch 2 für den wissenschaftlich und wirtschaftlich
wichtigen Fall der Bewegungsbestimmung verwendet werden. Hierbei sind die Rückschlüsse
über Bewegungen relativ schwierig zu gewinnen, weil die gemessenen Intensitäten
ein Signal darstellen, aus dem zwar relativ unmittelbar Information über die Helligkeit von
Objekten in der Außenwelt erschlossen werden kann, aus dem aber nur mit Hilfe relativ kleiner
Differenzen oder Differentiale Information über die relative Bewegung von Objekten
in der Außenwelt erschlossen werden kann. Daher ist es gerade hier besonders wichtig, ein
Verfahren anzuwenden, das den (interessierenden) wesentlichen Informationsgewinn (hier
über Bewegung) praktisch maximiert.
Zu diesem Zweck werden Meßgrößen naheliegender Bildpunkte einer sogenannten Bildpunktregion
verwendet. Für jeden dieser Bildpunkte können mit Hilfe der gemessenen Intensitäten
bzw. Intensitätsableitungen, unter der plausiblen Annahme konstanter Gesamtintensität
und entsprechend der Projektionsgeometrie des bildgebenden Sensors lineare
Gleichungen für die Rotationen und tiefenskalierten Translationen aufgestellt werden. Man
kann die obigen Gleichungen beliebig auswählen, wichten und additiv kombinieren, ohne
die Meßgenauigkeit effektiv zu beeinträchtigen; aber durch solche Gleichungskombination
läßt sich der wesentliche Informationsgewinn maximieren. Damit ist ein Verfahren zur
Maximierung des Informationsgewinns etabliert (dies ist unten in mehreren Varianten konkret
ausgeführt). Der dabei resultierende maximale Informationsgewinn hängt schließlich
noch von der anfänglichen Meßgenauigkeit der durch den bildgebenden Sensor gemessenen
Daten ab. Um diese Meßgenauigkeit zu erhöhen, kann man die zeitlichen Intensitätsableitungen
durch einen elektronischen Differentiator bestimmen, und die räumlichen durch
zusätzliche Anwendung sogenannter Mikrosakkaden.
Insgesamt liegt dem hier entwickelten Verfahren die grundlegende Einsicht zugrunde,
daß man das sogenannte Ausgleichsproblem (J. Stoer. Einführung in die Numerische
Mathematik I. Springer Verlag, 3. Auflage, Berlin, 1979.) durch gewichtete Gleichungskombination
abwandeln kann (dies ist als neutral für die Ergebnisse anzusehen, solange
kein zusätzliches a priori Wissen verfügbar ist), und daß man dabei den wesentlichen Informationsgewinn
maximieren kann. Dabei versteht man unter der Ausgleichsrechnung die
Bestimmung von gewünschten Größen xk (die einen Vektor x etablieren) aus gemessenen
Größen yi aufgrund eines funktionellen Zusammenhanges Fi(yi,x) = fi(x)-yi = 0 mit
geringstem quadratischen Fehler
Zunächst haben wird das Ausgleichsproblem dadurch abgewandelt, daß die Funktionen Fi
nicht notwendig die Form fi(x)-yi haben müssen. Aufgrund der Hypothese konstanter
Meßgenauigkeit haben wir dies Ausgleichsproblem durch optimal adaptierte Wichtungsfaktoren
γi dahingehend abgewandelt, daß erstens die gesuchten Größen xk mit geringstem
quadratischen Fehler bestimmt sind
und daß zweitens dabei der wesentliche Informationsgewinn maximal wird
Die mit der Erfindung erzielten Vorteile sind in den folgenden drei Listen genannt. Die
allgemeinen durch die Erfindung in Bezug auf maximierten Informationsgewinn erzielten
Vorteile sind:
- 1. Man kann gewünschte Daten indirekt durch Messungen anderer Daten vermittelt durch Relationen gewinnen, und dabei den Informationsgewinn bezüglich der gewünschten Daten durch eine optimal adaptierte Kombination der Meßdaten und der Relationen maximieren.
- 2. Dabei kann man von den gewünschten Daten besonders wichtige durch einen Nützlichkeitsfaktor in einem sogenannten wesentlichen Informationsgewinn hervorheben, den wesentlichen Informationsgewinn maximieren, und so die hervorgehobenen gewünschten Daten besonders genau und zuverlässig, d. h. mit besonders hohem Informationsgewinn, bestimmen. So kann man etwa bei der automatisch gesteuerten Landung eines Flugzeuges die relevantere Höhe genauer bestimmen als die irrelevantere seitliche Abweichung.
Die allgemeinen durch die Erfindung erzielten Vorteile sind (siehe hierzu auch Fig. 1):
- 1. Das Verfahren ist allgemein auf die Klasse der bildgebenden Sensoren mit projektiver Abbildungseigenschaft anwendbar.
- 2. Das Verfahren ist echtzeitfähig, etwa durch mögliche Trennung von Offline Kalibration der Verfahrensparameter von der Online Auswertung.
- 3. Das Verfahren ist interpretierbar als komplett adaptiver Kalibrator mit maximalem Informationsgewinn.
- 4. Durch die Bereitstellung von dichten Daten durch den bildgebenden Sensor ist es möglich, den wesentlichen Informationsgewinn durch Auswahl und Wichtung von Sensordaten zu maximieren.
- 5. Der erzielte wesentliche Informationsgewinn wird explizit bestimmt, d. h. es wird
eine Sicherheitsgarantie für die entsprechenden Binärstellen der bestimmten Größen
bereitgestellt.
In besonderen Ausführungsformen ergeben sich darüber hinaus weitere Vorteile. - 6. Durch völlig lokale Verarbeitung von Intensitäten wird die relative Rotation und die tiefenskalierte Translation zwischen dem bildgebenden Sensor und einem beliebigen Objekt eindeutig bestimmt.
- 7. Und zwar wird diese Relativbewegung lokal, ohne Iteration, eindeutig und schnell bestimmt.
- 8. Man kann Bildpunkte mit der gleichen Relativbewegung als einheitliche Objekte interpretieren und somit größere Objekte anhand bestimmter Relativbewegungen aus Bildpunkten zusammenbinden.
- 9. Bei Verwendung mehrerer lokaler Bereiche des gleichen Objekts ergibt sich redundante Information, mit der die Relativbewegung durch gekoppelte lineare Gleichungen besonders robust beestimmt werden kann.
- 10. Darüber hinaus kann die Szenenstruktur für jeden Bildpunkt durch sogenannte tiefenskalierte Translationen flächendeckend bestimmt werden. Die so bestimmte Szenenstruktur ist durch die lokale Verarbeitung hochauflösend. Diese Szenenstruktur läßt sich mit dem Verfahren auch ohne vorherige Bestimmung der Relativbewegung separat bestimmen; somit ist das Verfahren in selbstständige Teile gegliedert.
- 11. Falls in der Szene bewegte Objekte mit Mustermarkierungen sind, so können durch das Verfahren hieraus die zugehörigen relativen Rotationen und tiefenskalierten Translationen sicher innerhalb einer eindeutig bestimmten Fehlertoleranz bestimmt werden.
- 12. Mit dem Verfahren kann durch völlig lokal moduliert gemittelte Intensitätsbleitungen die obige Relativbewegung durch lineare Gleichungen sukzessive bestimmt werden. Daher wird diese Relativbewegung völlig lokal und ohne Iteration besonders schnell und funktional transparent bestimmt.
- 13. Insbesondere ist bei dem Verfahren keine Flußfeldbestimmung nötig, d. h. wir verwenden ein sogenanntes direktes Verfahren.
- 14. Um besonders robuste und sichere Verarbeitung zu ermöglichen, können Bildbereiche mit anisotrop radialen Intensitätsgradienten, sogenannte Sternmuster (siehe Fig. 6), erkannt und verwendet werden.
- 15. Dies Verfahren kann nicht nur durch Verwendung von Sternmustern, sondern auch durch Verwendung anderer Muster etwas begünstigt werden. Und zwar können diese so bestimmt werden, daß der wesentliche Informationsgewinn maximal wird.
- 16. Falls bildgebende Sensoren zusätzlich die Tiefeninformation liefern, kann statt einer tiefenskalierten Translation die relative Translation bestimmt werden. Insgesamt ist dann die Relativposition und -bewegung hochauflösend und zuverlässig bestimmt.
- 17. Durch Verwendung von analogen Differentiatoren und Ausführung von Mikrobewegungen ("Mikrosakkaden") des Sensors ist es möglich, die Intensitätsgradienten ohne Diskretisierungsfehler, d. h. mit besonders geringen relativen Meßfehlern, zu bestimmen. Als Ausführungsbeispiel kann die Mikrosakkadenbewegung ohne bewegliches Bauteil durch Plazierung eines piezoelektrisch gesteuerten Spiegels im parallelen Strahlengang des einfallenden Bildes realisiert werden (siehe Fig. 2). Die konsequente Verringerung des Meßfehlers ist wesentlich, da das nachfolgende Verfahren ohnehin keine Näherung enthält und zudem den maximalen Informationsgewinn bei gegebenem Meßfehler sicherstellt.
Die durch die Erfindung im Hinblick auf spezielle Anwendungen erzielten Vorteile sind:
- 1. Das Verfahren ermöglicht generell eine möglichst effiziente Nutzung von Sensordaten zur automatischen Erzeugung von Ausgabesignalen, insbesondere Steuersignalen.
- 2. Kostenaufwendige Leitsysteme können durch Markierungen, etwa mit anisotrop radialen Intensitätsgradienten in der Szene, sogenannte Sternmustermarkierungen (siehe Fig. 6), oder durch andere Mustermarkierungen kostengünstig substituiert werden.
- 3. Durch die Verwendung von bildgebenden Sensoren ist die für die sichere schnelle Steuerung unabdingbare hochauflösende Signalaufnahme besonders kostengünstig im Vergleich zu anderen Signalgebern, wie etwa Ultraschall.
- 4. Verwendete Kameras liefern Bilder, die einem Roboter vielfach nützlich sind, im Gegensatz etwa zur reinen Tiefeninformation eines Laserscanners.
- 5. Unser funktional transparentes Verfahren ist, z. B. bei Verwendung von Sternmustermarkierungen (oder von ähnlichen in der Szene bereitgestellten Mustermarkierungen), die Grundlage für ein garantiert sicheres Steuerungsverfahren, auch für hohe Geschwindigkeiten des bildgebenden Sensors und/oder bewegter Objekte. Diese hohen Geschwindigkeiten werden auch durch obige Iterationsvermeidung wesentlich gefördert.
Die Durchführung des erfindungsgemäßen Verfahrens erfolgt für den speziellen Fall der
Bildverarbeitung mit Hilfe lokaler Bildpunktregionen. Eine Bildpunktregion ist bestimmt
durch das Bildpunktregionszentrum hier mit den Koordinaten (xe, ye) bezeichnet, in der
Bildebene, sowie durch benachbarte Bildpunkte, hier mit den Koordinaten (xj, yj) bezeichnet
(siehe Fig. 3), sogenannte Bildregionpunkte. Die folgenden Verarbeitungsschritte
werden ausgeführt:
Weitere Merkmale und Vorteile der Erfindung ergeben sich aus den nachstehenden
Beschreibung, in der Ausführungsbeispiele anhand der Zeichnungen im einzelnen erläutert
sind. Dabei zeigt
Fig. 1 eine Darstellung des Verfahrensprinzips für das Beispiel der
Bewegungsbestimmung,
Fig. 2 Vorschläge zur Mikrosakkadensteuerung,
Fig. 3 eine Bildpunktregion der Größe 5 mal 5 Pixel,
Fig. 4 Faltungsmasken zur Berechnung der Intensitätsableitungen,
Fig. 5 mögliche konjugierte Punkte einer Bildpunktregion,
Fig. 6 die Illustration der Intensitätsverteilung eines sternförmigen und
anisotropen Zielmusters,
Fig. 7 die Abbildungsgeometrie der Transformation von 3D Szene auf 2D
Bildfläche am Beispiel eines Kameramodells.
Der Zweck dieses Verfahrens besteht
darin, die Sensordaten von Automaten optimal in Bezug auf die Ausgabesignale, auszuwählen
und zu wichten. Dabei wird davon ausgegangen, daß der Automat neben den
Sensordaten yi und den funktionalen Relationen Fi keine weiteren Hinweise (sogenanntes
a priori Wissen) in Bezug auf die Steuersignale und die anderen Ausgabesignale nutzen
kann. Falls irgendwelches Wissen vorläge, so wäre es mittels der Sensordaten yi und der
funktionalen Relationen Fi auszudrücken.
Eine automatische Steuerung benötigt i. allg. Sensordaten
zur Bestimmung möglichst zuverlässiger und präziser Ausgabesignale, insbesondere
Steuersignale. Alle Sensordaten sind mit einer begrenzten Meßgenauigkeit behaftet. Es
stellt sich daher die Frage, durch welches Verfahren man mit einer begrenzten Meßgenauigkeit
erhobene Sensordaten automatisch auswählt und kombiniert, um möglichst zuverlässige
und präzise Daten als Ausgabesignale, insbesondere Steuersignale, bereitzustellen. D. h.
man möchte gewünschte aber nicht unmittelbar meßbare Daten xk möglichst präzise
mittels einer (aus theoretischen Gründen gültigen) funktionalen Relation 0 = Fi(yi, x) aus
meßbaren Daten yi bestimmen. Dies heißt, man möchte für die gewünschten Daten xk
möglichst viele Binärstellen zuverlässig bestimmen. Es stellt sich also die Frage, welche
Meßdaten man hierfür auswählen sollte, und mit welchem Verfahren man die ausgewählten
Meßdaten kombinieren sollte, um möglichst viele Binärstellen der gewünschten Daten
xk zuverlässig zu bestimmen.
Diese Fragestellung wird zunächst im Rahmen der üblichen Bezeichnungen der Informationstheorie formuliert: Die in einer Binärzahl enthaltene Information in Einheiten von
Bit ist gleich der Anzahl der Binärstellen der Zahl. Die durch eine Messung gewonnene
Information in Einheiten von Bit ist entsprechend gleich der Anzahl der bei der Messung
zuverlässig bestimmten Binärstellen für die gemessene Größe. Wenn bei der Messung die
Größe yj gemessen wurde, und wenn dabei der Betrag des Meßfehlers Δyj nicht übersteigt,
so ist der relative Fehler
das entsprechende Signal- zu Rausch-Verhältnis ist der Kehrwert
Die Anzahl der zuverlässig bestimmten Binärstellen ist gleich der Differenz aus der Anzahl
der bestimmten Stellen und der Anzahl der unzuverlässig bestimmten Stellen, d. h.
log₂|yj|-log₂|Δyj|=log₂|yj/Δyj|. Dies ist definitionsgemäß der bei der Messung in
bezug auf die gemessene Größe erzielte Informationsgewinn:
Im Zusammenhang mit einer automatischen Generierung von Ausgabesignalen ist man
i. allg. jedoch nicht unmittelbar an der gemessenen Größe interessiert, sondern an aus
einer oder mehreren gemessenen Größen mit Hilfe funktionaler Relationen 0 = Fi(yi, x)
berechneten Größen xk. Für eine solche berechnete Größe xk ist der Informationsgewinn
entsprechend durch die Anzahl der zuverlässig bestimmten Binärstellen gegeben.
Bei vielen Fragestellungen ist man nicht einmal an einem möglichst großen Informationsgewinn bezüglich einer jeden aus gemessenen Größen berechneten Größe interessiert,
sondern es können bei manchen solchen berechneten Größen womöglich wenige zuverlässig
bestimmte Binärstellen genügen, wogegen man bei einer anderen derartigen berechneten
Größe womöglich viele zuverlässig bestimmte Binärstellen benötigt. Um solche Fragestellungen
kurz auszudrücken, kann man für mehrere berechnete Größen xk einen wesentlichen
Informationsgewinn durch ein gewichtetes Mittel aus Informationsgewinnen
wie folgt einführen: Vorab werden positive Nützlichkeitswichtungen vk vereinbart mit
Σkvk = konstant; der wesentliche Informationsgewinn ist dann
Es stellt sich also hier die Frage, wie man aus den relativen Meßgenauigkeiten die
relativen Genauigkeiten der berechneten Größen bestimmt. Für den Fall, daß eine
berechnete Größe xk aus gemessenen Größen mit einigermaßen kleinem relativen Fehler
bestimmt wird (dies ist praktisch immer der Fall), ist es angemessen, den relativen Fehler
der berechneten Größe mittels der linearen Fehlerfortpflanzungstheorie zu bestimmen.
Dann ist
Hierbei kann man die partiellen Ableitungen entweder mit Hilfe expliziter Gleichungen bestimmen,
oder numerisch durch Bestimmung von xk bei den ym für m≠j und bei yj±Δyj
schätzen. Und zwar ist
In jedem Fall erhält man so den wesentlichen Informationsgewinn W explizit als Funktion
der Meßgenauigkeiten Δyj durch Einsetzen von Gl. (9) in Gl. (7) wie folgt.
Man kann nun die funktionalen Relationen entsprechend mit geringstem quadratischen
Fehler auswerten, und dabei mit Wichtungsfaktoren γi, wobei gilt Σjγj = konstant,
wichten. Schließlich kann man mit einem Optimierungsverfahren (etwa mit einem genetischen
Algorithmus) gleichzeitig den gewichteten mittleren quadratischen Fehler
minimieren und den wesentlichen Informationsgewinn W (siehe Gl. (10)) maximieren. So
erhält man die gewünschten berechneten Größen xk entsprechend ihren Nützlichkeiten vk
mit maximalem Informationsgewinn.
Bei dieser Maximierung des Informationsgewinnes können i. allg. die yi Tupel, d. h.
Vektoren, aus einzelnen Sensordaten sein. In einem solchen Fall ist anstelle der partiellen
Ableitung der Gradient zu bestimmen; und dieser ist mit dem Vektor Δyj skalar zu
multiplizieren (siehe Gln. (8) und (10)).
Für den speziellen illustrativen und besonders einfachen Fall, daß alle vk gleich sind,
und daß die xk speziell die Steuersignale sind, wird der maximale Informationsgewinn in
unmittelbarer Weise die Steuersignale xk erzeugt.
Als besonderes Ausführungsbeispiel wird folgendes angeführt: Um die Komplexität der
obigen Optimierungsaufgabe zu verringern, kann man eine Vorauswahl an Sensordaten
anhand von allgemeinen Anhaltspunkten und Erfahrungswerten treffen.
Insgesamt werden also die gewünschten, für die Generierung von Steuersignalen relevanten
Größen xk mit maximalem wesentlichen Informationsgewinn durch folgende Schritte
bestimmt: 1. Messung der Sensordaten yi. 2. Bestimmung der partiellen Ableitungen.
3. Einlesen von Meßgenauigkeiten und Nützlichkeitsparametern. 4. Optimierungsaufgabe
lösen, und zwar E in Gl. (11) minimieren und gleichzeitig W in Gl. (10) maximieren
durch simultane Variation der gewünschten Größen xk und der Wichtungen γi für die
Sensordaten.
Hiermit ist das Verfahren zur Erzeugung maximalen Informationsgewinnes für Ausgabesignale,
insbesondere Steuersignale, von Automaten komplett spezifiziert. Im folgenden
werden wichtige Anwendungsgebiete des Verfahrens ausgeführt. Diese Ausführungen
schränken in keiner Weise die Allgemeinheit des bis hierher komplett dargelegten Verfahrens
ein.
Dies betrifft besondere Ausführungsformen der Erfindung gemäß den Unteransprüchen. Ein wichtiges Anwendungsgebiet des gattungsgemäßen Verfahrens liegt im
Einsatz von Robotersystemen. Hierbei ist die wichtige Aufgabe der Bestimmung von Relativrotationen und von tiefenskalierten Relativtranslationen mit beliebigen Objekten 22
anhand einer Bildsequenz eines bildgebenden Sensors zu lösen.
Dies betrifft den 4. Unterpunkt von Anspruch 2. Zunächst wird die
Vorverarbeitung in zwei Schritten ausgeführt:
- 1. Ein bewegter bildgebender Sensor erhebt eine Folge entsprechender Intensitätsverteilungen
I(x, y, t) an Punkten (x, y) der Bildebene 21 zu Zeitpunkten t.
Man denke an folgendes Ausführungsbeispiel: um die Intensitätsverteilung für die folgende differentialgeometrische Analyse besonders günstig vorzubereiten, kann man einen Tiefpaßfilter verwenden. - 2. Es werden die zugehörigen Intensitätsableitungen Ix, Iy und It der Intensitätsverteilung
nach x, y bzw. t bestimmt.
Man denke an folgende Ausführungsbeispiele:- (a) Man kann diese Intensitätsableitungen z. B. aus 2mal 2 oder aus 3mal 3 Bildpunkten zu zwei aufeinanderfolgenden Zeitpunkten bestimmen. (siehe Fig. 4).
- (b) Bei Objektgrenzen können besonders hohe Ableitungen auftreten. Entsprechend werden Bildpunkte (xk, yk) mit besonders hohen Ableitungen nur bedingt verwendet.
- (c) Bei homogenen Flächen können besonders niedrige Ableitungen auftreten. Entsprechend werden Bildpunkte (xk, yk) mit besonders niedrigen Ableitungen nur bedingt verwendet.
Weil die Bildpunkte einer Bildpunktregion relativ dicht beieinander
liegen, ist es plausibel anzunehmen, daß die relativen Meßfehler der zeitlichen und
räumlichen Intensitätsableitungen an diesen Bildpunkten konstant sind. Diese Hypothese
wird "error constancy", kurz ERCO genannt. Die ERCO wird wie folgt formuliert:
alles für (xj, yj) & (xk, yk) in gleicher Bildpunktregion. (Selbst wenn die ERCO nur näherungsweise
gelten sollte, so ließe sich das präsentierte Verfahren dadurch verallgemeinern,
daß man den relativen Meßfehler am Bildpunkt (xj, yj) mittels einer Taylorreihe ausdrückt
durch den relativen Meßfehler am Bildpunkt (xk, yk) und durch den Abstandsvektor
(xj-xk, yj-yk), denn mit dem repräsentierten Verfahren werden die Bewegungsgrößen
explizit durch stetige Funktionen der gemessenen Intensitätsableitungen bestimmt.)
Für die Anwendung des gattungsgemäßen Verfahrens der Maximierung
des wesentlichen Informationsgewinnes auf den Fall der Bestimmung der Relativrotationen
und der tiefenskalierten Relativtranslationen gilt folgende spezielle Betrachtung:
Hier ist die berechnete Größe xk mittels linearer Gleichungssysteme bestimmt (siehe
Anhang), dies läßt sich wie folgt ausdrücken:
Ax = b.
Zudem sind hier die Meßfehler durch Δ, Δ und ΔIt,j gegeben und bestimmen die
Fehler der obigen Inhomogenität und Matrix wie folgt.
ΔAÿ = αÿΔ+ÿΔ.
Δbk = βkΔIt,j.
Der relative Fehler kann mit Hilfe der Pseudoinversen A⁺ folgendermaßen expliziert werden:
Setzt man dies in die obige Gl. (7) ein, so erhält man einen expliziten Ausdruck für den wesentlichen
Informationsgewinn als Funktion der gemessenen Intensitätsgradienten inhärent
in den Komponenten bj und den Matrixelementen Aÿ und auch als Funktion der sichergestellten
Meßgenauigkeiten Δ, Δ und ΔIt,j. Diese explizite Funktion vereinfacht hier
speziell die Maximierung des wesentlichen Informationsgewinnes.
Dies betrifft Anspruch 4. Weil die besondere Ausführungsform des
Verfahrens nach Anspruch 2 zur Bestimmung von Relativrotationen und tiefenskalierten
Relativtranslationen aus Bildsequenzen bereits den wesentlichen Informationsgewinn bei
gemessenen Intensitätsableitungen an den Bildpunkten und bei gegebener Meßgenauigkeit
des bildgebenden Sensors maximiert, ist eine weitere Vergrößerung des wesentlichen
Informationsgewinns nur durch Verbesserung der Meßgenauigkeit für die gemessenen Intensitätsableitungen
möglich. Zu diesem Zweck kann man die Intensitätsableitungen an
einzelnen Bildpunkten mit Hilfe eines elektronischen analogen Schaltkreises bestimmen,
der als Differentiator arbeitet.
Und zwar liefert ein solcher Differentiator unmittelbar die zeitliche Ableitung der gemessenen
Intensität; dies i. allg. genauer als die Bestimmung der zeitlichen Intensitätsableitung
durch zwei aufeinanderfolgende Intensitätsmessungen.
Um auch bei der Messung der Intensitätsgradienten die Verwendung zweier, hier benachbarter, gemessener Intensitäten zu eliminieren, kann man den bildgebenden Sensor
mit Geschwindigkeiten
effektive Bewegungen,
sogenannte Mikrosakkaden 13 (Fig. 2), ausführen lassen.
Hierbei kann man die zeitliche Intensitätsableitung zu einem Zeitpunkt t- sehr kurz
vor dem Zeitpunkt t mit einem Differentiator messen, zum Zeitpunkt t und zu einem
Zeitpunkt t⁺ sehr kurz nach dem Zeitpunkt t. Dies ergibt mit Hilfe der Kettenregel drei
Gleichungen mit den drei Unbekannten
Daraus lassen
sich die drei Unbekannten, d. h. die verwendeten Intensitätsableitungen, bestimmen. Die
drei Gleichungen lauten
Hierbei ist die plausible Hypothese verwendet, daß It,j, und zu den Zeitpunkten
t, t- und t⁺ praktisch gleich sind.
Die obigen Mikrosakkaden 13 müssen physikalisch realisiert werden. Hierzu schlagen
wir vier Ausführungsbeispiele vor:
- 1. Piezoelektrische Aufhängung des bildgebenden Sensors: Man kann die Abmessungen eines piezoelektrischen Bauteils durch Anlegen einer elektrischen Spannung variieren. Somit kann man die Position des bildgebenden Sensors elektrisch unmittelbar variieren, d. h. man kann somit Mikrosakkaden 13 erzeugen (siehe Fig. 2(d)). Dies betrifft Anspruch 8 des Verfahrens.
- 2. Alternativ können diese Mikrosakkaden 13 an einem gewünschten Bauteil des Sensors ansetzen, etwa an einem (oder zwei) Spiegeln 10 im parallelen Strahlengang 11 (siehe Fig. 2(a)). Dies betrifft Anspruch 5 des Verfahrens.
- 3. Man kann ein gewünschtes gering bewegliches (etwa ein an einer Stahlmembran aufgehängtes) Bauteil des bildgebenden Sensors, etwa einen Spiegel 14 im parallelen Strahlengang 11, mit Hilfe einer (oder zwei) elektromagnetischen Spule(n) bewegen, d. h. durch magnetische Kräfte (siehe Fig. 2(b)). Dies betrifft Anspruch 7 des Verfahrens.
- 4. Man kann völlig ohne bewegliches Teil effektiv Mikrosakkaden 13 dadurch erzeugen, daß man bei ein (oder zwei) schräg zum parallelen Strahlengang 11 gestellte(n) Platten aus geeignetem Material (etwa gefüllt mit einem flüssigkristallinen Material 16) den Brechungsindex durch variable anliegende elektrische Spannungen variiert (siehe Fig. 2(c)). Dies betrifft Anspruch 6 des Verfahrens.
Nach Möglichkeit bestimmt der bildgebende Sensor zudem die Signallaufzeit
für die doppelte Wegstrecke vom Sensor zu einem auf dem Bildpunkt (x, y) projizierten
Objekt 22. Hieraus und aus der Signalausbreitungsgeschwindigkeit wird die Objektsensordistanz d(x, y) bestimmt. Hieraus und aus (x, y) wird mit Hilfe geometrischer
Relationen die Objektposition bestimmt, einschließlich der Tiefe. Dies betrifft Anspruch
9 des Verfahrens.
Dies hat folgende Fallunterscheidung zur Konsequenz: In der besonderen Ausführungsform
des Verfahrens nach Anspruch 2 kann in jedem Fall die Relativrotation und die
tiefenskalierte Relativtranslation des Objektes 22 aus den gemessenen Intensitätsableitungen
Ix, Iy und It bestimmt werden. Falls der Sensor zusätzlich die obige Laufzeit bestimmt,
so kann aus der tiefenskalierten Relativtranslation zusammen mit der Tiefe auch
die unmittelbare Relativtranslation bestimmt werden. Insgesamt ist dann die komplette
Relativposition- und bewegung zwischen dem bildgebenden Sensor und einem beliebigen
Objekt 22 bestimmbar.
Mustermarkierungen in der Szene werden verwendet, falls eine
Sicherheitsgarantie für die Erkennung von Objekten 22 gewünscht ist (siehe z. B. Fig. 6).
Dies betrifft Unteranspruch 10.
Die Bestimmung der Wichtungsmuster
γi benötigt i. allg. relativ viel Rechenzeit, da eine Optimierungsaufgabe zu lösen ist.
Entsprechend werden zur Bestimmung der Wichtungsmuster γi alternative unterschiedliche
Ausführungsformen mit spezifischen Vor- und Nachteilen entsprechend den Unteransprüchen
11., 12. und 13. dargelegt.
In der Praxis kann man Sensordaten vorab kombinieren und erhält so unterschiedliche
Gleichungen für Sensordaten. Somit entsprechen den Wichtungsmustern für Sensordaten
auch Wichtungsmuster für Gleichungen (siehe etwa für den Fall einer planaren Bildfläche
Gln. (90), (82), (80)). Alle verwendeten Gleichungen beruhen dabei letztlich auf der Geometrie
des bildgebenden Sensors (geometrische Optik) (siehe etwa für den Fall einer planaren
Bildfläche Gl. (84)) sowie auf der Hypothese ("brightness constancy", kurz BC) (siehe
Gl. (85)), daß die gesamte von einem Objekt 22 auf die Bildfläche projizierte Intensität
praktisch konstant ist, solange das Objekt 22 komplett auf die Bildfläche projiziert ist.
Die Gleichungen können beliebig kombiniert und gewichtet werden.
Der direkte Weg zur Bestimmung der Wichtungsmuster für Gleichungen
besteht in der Optimierung, d. h. in der Minimierung des Fehlers (siehe Gl. (11)) und der
gleichzeitigen Maximierung des wesentlichen Informationsgewinnes W (siehe Gl. (10)).
Dies betrifft den Unteranspruch 11 des Verfahrens.
Um nicht Online optimieren zu müssen, kann man die günstigen Wichtungsmuster
vorab bestimmen und Online durch eine look-up-Tabelle aufgreifen: Bestimmung
der Wichtungsmuster entsprechend ausgewähltem Bildmaterial vorab.
- 1. Klassifikation der möglichen gemessenen Intensitäten,
- 2. Bestimmung eines Wichtungsmusters mit relativ hohem wesentlichen Informationsgewinn wie in obiger Optimierung für jede Klasse.
Es ist leicht erkennbar, daß man auf derartige Weise auch andere verwendete Verfahrensparameter,
wie z. B. Zielmuster, optimieren kann. Dies betrifft den Unteranspruch 12
des Verfahrens.
Man kann geeignete Wichtungsmuster γi auch bestimmen, ohne eine
Optimierungsaufgabe zu lösen; dies führt zu einem relativ geringen Bedarf an Rechenzeit.
Dies betrifft den Unteranspruch 13 des Verfahrens. Diese Bestimmung der Wichtungsmuster
kann mit dem folgenden sogenannten /it Symmetrisierungsverfahren durchgeführt
werden. Dies Verfahren ist so explizit ausführbar, daß eine geschlossene Lösung angegeben
ist.
Für eine beliebige betrachtete Bildpunktregion mit Zentrum bei (xe, ye) werden die mit
dem bildgebenden Sensor gemessenen Intensitätsableitungen an den Bildregionpunkten 19
(xj, yj) mit Hilfe von sogenannten konjugierten Bildpunkten 20 auf sogenannte Zielmuster
transformiert und zu sogenannten modulierten Multipolen verarbeitet. Mit Hilfe dieser modulierten
Multipole wird ein Gleichungssystem für die Relativbewegung (Kurznotation ψe )
zwischen dem bildgebenden Sensor und dem auf diese Bildpunktregion projizierten Objekt
22 aufgestellt. Diese Gleichungen des Gleichungssystems für die Bildpunktregion mit Zentrum
(xe, ye) werden symmetrisierte modulierte Multipolgleichungen für (xe, ye) genannt,
kurz SMMEe. Dieses Teilverfahren, d. h. diese Umsetzung der durch den bildgebenden
Sensor gemessenen Intensitätsableitungen in die SMMEe, wird Symmetrisierung genannt.
Mit dieser Symmetrisierung wird zugleich eine statische Mittelung über die durch
den bildgebenden Sensor gemessenen Intensitätsableitungen ausgeführt, und eine Transformation
dieser Intensitätsableitungen auf Zielmuster durchgeführt. Durch diese statistische
Mittelung wird das Verfahren robust gegenüber Rauschsignalen und durch die Transformation
auf geeignete Zielmuster wird das Verfahren bei unterschiedlichen geometrischen
Anordnungen von Objekten und bei unterschiedlichen Objekthelligkeitsverhältnissen robust
anwendbar (weil die Matrix des Gleichungssystems bei geeigneten Zielmustern eine relativ
große Determinante hat). Dabei unterstützen sich die Transformation und die statistische
Mittelung gegenseitig. Insbesondere werden später modulierte Multipole bei beliebigen
gemessenen Intensitätsableitungen genau Null und damit stabil zu Matrixelementen weiterverarbeitet.
An dieser Stelle ist es wichtig zu unterstreichen, daß sich statistische Fehler im Eingang,
d. h. solche, die bei der Erhebung der Intensitäten durch den Sensor und bei der nachfolgenden
Berechnung der Ableitungen entstehen, durch die Transformation nicht weiter
akkumulieren, sondern im Gegenteil über den sich dann anschließenden Mittelungsprozeß
(bei der Bestimmung der Multipole) nach dem zentralen Grenzwertsatz kompensieren.
Dabei ist die Darstellung in Multipolen in Anlehnung an die elektromagnetische Feldtheorie
gewählt. Die modulierten Multipole stellen in gewissem Sinne (siehe unten) ein
vollständiges Funktionensystem dar mit prinzipiell unbegrenzt vielen modulierten Multipolen.
Entsprechend kann man unterschiedliche Versionen des Verfahrens erhalten, indem
man eine andere Auswahl modulierter Multipole trifft, indem man eine andere Auswahl
konjugierter Bildpunkte 20 trifft, oder indem man eine Transformation auf andere (für die
Invertierbarkeit der SMMEe günstige) Zielmuster anwendet.
Man könnte daran denken, ein anderes vollständiges Funktionensystem zu verwenden.
Dies kann bei diesem Verfahren völlig analog gemacht werden, falls gewünscht, ist jedoch
kaum sinnvoll. Es könnte höchstens bei bestimmten (nicht allgemeinen) gemessenen Intensitätsverhältnissen
einen begrenzten Geschwindigkeitsvorteil ergeben, denn die modulierten
Multipole kommen dadurch zustande, daß man die gemessenen Intensitätsableitungen
mit einer beliebigen Modulationsfunktion moduliert und die Modulationsfunktion durch
Polynome darstellt. Diese Darstellung ist nur für endlich viele Bildpunkte (im wesentlichen
aus der Bildpunktregion) nötig und kann daher praktisch mit beliebigen Funktionensystemen
mit endlich vielen Termen exakt erfolgen. Insgesamt kann das Verfahren praktisch mit
jedem Funktionensystem durchgeführt werden, zudem ist die Wahl des Funktionensystem
ist die Wahl des Funktionensystems
weitgehend irrelevant und wird daher im folgenden nicht weiter diskutiert.
Zum Zwecke einer konkreten Darstellung wird das Teilverfahren der Symmetrisierung
im folgenden mit einem sogenannten prototypisch ausgeführten Fall durch eine prototypische
Auswahl modulierter Multipole (Gln. 17 siehe unten), konjugierter Punkte 20 (siehe
Fig. 5) und eines sternförmigen Zielmusters (siehe Fig. 6) eingeführt; dabei werden
Ausführungsbeispiele mit anderen modulierten Multipolen, konjugierten Punkten 20 und
Zielmustern angeführt.
Im folgenden werden die Abkürzungen xj-xe: = Ξj und yj-ye: = Yj verwendet. Die
Symmetrisierung ist durch folgende zehn Verarbeitungsschritte bestimmt:
Für einen betrachteten Bildregionpunkt
19 (Ξj, Yj) werden weitere sogenannte konjugierte Bildpunkte 20 (Ξk(j), Yk(j)) ausgewählt.
Und zwar sind dies im prototypisch ausgeführten Fall
(Ξk, Yk) = (-Ξj, Yj), (Ξm, Ym) = (Ξj, -Yj), (Ξn, Yn) = (-Ξj, -Yj)
und ein Bildpunkt innerhalb der Bildpunktregion und auf der Halbgeraden vom Zentrum
durch (Ξj, Yj), d. h. ein Bildpunkt
(Ξp, Yp) = (FΞj, FYj)
bestimmt durch einen geeigneten Faktor F (siehe z. B. Fig. 5). Wegen der Diskretisierung der
Bildpunkte durch den bildgebenden Sensor liegt ein solcher vierter konjugierter Bildpunkt
20 für relativ viele aber nicht für alle Bildpunkte (Ξj, Yj) der Bildpunktregion vor.
Dies kann durch verschiedene Ausführungsbeispiele aufgefangen werden. Man kann etwa
Bildpunkte (Ξj, Yj) ohne den vierten konjugierten Bildpunkt 20 (Ξp, Yp) schlicht bei der Bestimmung
der modulierten Multipole (siehe unten) unberücksichtigt lassen. Man kann auch
für einen Punkt auf der obigen Halbgeraden die Intensitätsableitungen durch Interpolation
bestimmen, und diesen Punkt ersatzweise als vierten konjugierten Punkt 20 verwenden.
In diesem zweiten Schritt wird das vollständige Funktionensystem
der modulierten Multipole eingeführt. Zudem werden, zum Zweck der Erläuterung
des Verfahrens, die zugehörigen sogenannten modulierten multipolaren Gleichungen,
kurz MMEe bestimmt. Dieser Schritt hat definitorischen und erläuternden
Charakter.
An einem Bildpunkt (xj, yj) lautet die BCCE (siehe Gl. 90 in Anhang A)
Dabei ist der Bewegungszustand bezeichnet durch:
ψ = (ωx, ωy, ωz, Te,x, Te,y, Te,z). (16)
Die BCCEs bei den Bildregionpunkten 19 (xj, yj)
werden mit einer beliebigen Modulationsfunktion F(xj, yj) multipliziert und die multiplizierten
Gleichungen werden addiert. Dies ergibt weitere Gleichungen, die sogenannten
modulierten Gleichungen. Die Modulationsfunktion ist allgemein als Potenzreihe
darstellbar. Man kann die entsprechenden Terme der Potenzreihe als neue
separate Modulationsfunktionen auffassen, die zugehörigen modulierten Gleichungen
bilden, diese summieren, die Summe mit der ursprünglichen Modulationsfunktion
identifizieren und in der Summe sogenannte modulierte Multipole identifizieren
(siehe Tabelle 1). Insofern bilden die modulierten Mutipole ein vollständiges Funktionensystem
in Bezug auf die BCCE und damit in Bezug auf die Bestimmung der
Relativbewegung. Diese Summe modulierter Gleichungen ausgedrückt durch modulierte
Multipole wird modulierte multipolare Gleichung (MMEe) genannt.
Ausführungsbeispiele für modulierte Multipole sind:
Gelegentlich unterlassen wir das Attribut "moduliert" wenn es aus dem Kontext
ersichtlich ist.
Ausführungsbeispiele der daraus resultierenden modulierten multipolaren Gleichungen
sind:
- (a) Wir führen die folgenden Modulationsfunktionen
F(xj, yj) = ,mit den Exponenten gx und gy, welche die Werte (gx, gy) = (0,0), (0,1), (1,0)
oder (1,1) annehmen, ein.
Unter Benutzung der modulierten Multipole (Gln. 18) erhalten wir für die Paare (gx, gy) die Gln. (19).
Obengenanntes ergibt ein System von vier Gleichungen für (gx, gy) = (0,0), (0,1), (1,0) und (1,1). Diese Gleichungen werden kurz (gx, gy)- MMEe genannt. - (b) Als nächstes führen wir weitere vier Gleichungen über die Modulationsfunktion F(xj, yj) = ,mit den Exponenten gx und gy, welche die Werte (gx, gy) = (0,0), (0,1), (1,0) oder (1,1) annehmen, ein. Die resultierenden Gleichungen werden mittels der Multipole (Gln. 18) wie in Gl. (20) ausgedrückt. Diese vier Gleichungen werden kurz (gx, gy, Ξ)- MMEe genannt.
- (c) Analog führen wir vier weitere Gleichungen über die Modulationsfunktion F(xj, yj) = Yj,mit den Exponenten gx und gy, welche die Werte (gx, gy) = (0,0), (0,1), (1,0) oder (1,1) annehmen, ein. Die resultierenden Gleichungen werden mittels der Multipole (Gln. 18) wie in Gl. (21) ausgedrückt. Diese vier Gleichungen werden kurz (gx, gy, Y)- MMEe genannt.
Die allgemeine Gleichung für beliebige Multipole lautet wie Gl. (22).
Bei dem prototypisch ausgeführten Fall benutzen wir von den oben hergeleiteten zwölf modulierten
Multipolgleichungen die vier (gx, gy)- MMEe, die (0, 0, Ξ)- MMEe, die (0, 0, Y)-
MMEe und die (1, 0, Y)- MMEe. Diese sieben Gleichungen bilden die Matrix Amultipole.
Diese Matrix ist für den Fall, daß bereits eine Transformation mit Sternmustern als Zielmuster
vorgenommen wurde, in Gl. (64) zur Illustration angegeben.
Nun werden die modulierten Multipole entsprechend den Eigenschaften bezüglich
Achsenspiegelungen gegliedert. Dies ist für das Verfahren besonders günstig, weil
dies einer speziellen Symmetrieeigenschaft der BCCE entspricht. Es treten nämlich
in der BCCE nur Terme proportional ΞjYj, Ξ⁰jYj, ΞjY⁰j und Ξ⁰jY⁰j auf, diese sind
symmetrisch bzw. antisymmetrisch bzgl. solcher Achsenspiegelungen. Insgesamt hat
dieser dritte Schritt erstens erläuternden Charakter und führt zweitens den im Verfahren
verwendeten sogenannten Symmetriefaktor Pq, und die sogenannten Symmetriekoeffizienten
ax q, bx q, cx q, dx q, ay q, by q, cy q, dy q, at q, bt q, ct q und dt q ein.
Damit man die Gliederung
der modulierten Multipole entsprechend den Eigenschaften bezüglich Achsenspiegelungen
effizient formulieren kann, wird erstens ein Symmetriefaktor
Pq = Ξp₁ jYp₂ jsgn(Ξj)p₃sgn(Yj)p₄ (23)
eingeführt, der symmetrisch ist in Ξj und in Yj. D. h. p₁+p₃ ist gerade und auch
p₂+p₄. q spezifiziert hierbei die Werte der vier Exponenten p₁, . . ., p₄.
Zweitens werden für einen modulierten Multipol µ die Multipolelemente µj eingeführt,
aus denen µ als Summe über die Bildregionpunkte 19 (xj, yj) aufgebaut
wird:
Mit diesen zwei Bezeichnungen wird ein jedes Multipolelement dargestellt durch
μj = μx j + μy j + μt j (25)
mit
μx j = ax qPq + bx qPqΞj + cx qPqYj + dx qPqΞjYj
μy j = ay qPq + by qPqΞj + cy qPqYj + dy qPqΞjYj
μt j = at qPqIt,j + bt qPqΞjIt,j + ct qPqYjIt,j + dt qPqΞjYjIt,j.
Dabei sind die zwölf Symmetriekoeffizienten (mit Werten 0 oder 1) ax q, bx q, cx q, dx q, ay q,
by q, cy q, dy q, at q, bt q, ct q und dt q eingeführt. Für jeden modulierten Multipol ist genau ein
Symmetriekoeffizient ungleich Null. Umgekehrt ist ein modulierter Multipol durch
genau diesen Symmetriekoeffizienten zusammen mit der inhärenten Intensitätsablei
tung It, Ix oder Iy spezifiziert. Hiermit ist ein jedes Multipolelement einer
sogenannten Symmetrieklasse zugeordnet; und zwar der Klasse mit dem sogenann
ten Symmetrieindex s = a für ax q = 1 oder ay q = 1 oder at q = 1, der Klasse mit dem
Symmetrieindex s = b für bx q = 1 oder by q = 1 oder bt q = 1, der Klasse mit dem
Symmetrieindex s =c für cx q = 1 oder cy q = 1 oder ct q = 1, der Klasse mit dem
Symmetrieindex s = d für dx q = 1 oder dy q = 1 oder dt q = 1.
Zum Beispiel ist bestimmt durch den Symmetriekoeffizienten ay q = 1 mit q ∼
(p₁ = 1, p₂ = 0, p₃ = 1, p₄ = 0). Als weiteres Beispiel kann man betrachten.
Es wird durch den Symmetriekoeffizienten dx q = 1 mit q ∼ (p₁ = 0, p₂ = -1, p₃ = 0,
p₄ = 1) beschrieben.
Als nächstes sammeln wird die Terme des Multipolelementes, welche symmetrisch zu
Ξj und zu Yj sind und bezeichnen ihre Summe
μaj = ax qPq + ay qPq + at qPqIt,j (26)
als Ξj-Yj-symmetriekonformes Subelement. Analog führen wir das j-Yj-symme
triekonforme Subelement
μb j = bx qPqΞj + by qPqΞj + bt qPqΞjIt,j (27)
symmetrisch zu Yj und antisymmetrisch zu Ξj, das Ξj-j-symmetriekonforme
Subelement
μc j = cx qPqYj + cy qPqYj+ ct qPqYjIt,j (28)
antisymmetrisch zu Yj und symmetrisch zu Ξj, und das j-j-symmetriekonforme
-Subelement
μd j = dx qPqΞjYj + dy qPqΞjYj + dt qPqΞjYjIt,j (29)
antisymmetrisch zu Yj und Ξj ein. Mit Hilfe dieser symmetriekonformen Subele
mente drücken wir das Multipolelement wie folgt aus:
μj = μaj + μb j + μc j + μd j. (30)
Für den betrachteten Bildpunkt (xj, yj) nehmen wir die modulier
ten Multipolelemente der konjugierten Bildpunkte 20 (xk(j), yk(j)). Wir bilden die
Linearkombination
mit einem Koeffizienten αk(j) für jeden konjugierten Bildpunkt 20. Diese Koeffizien
ten werden später so gewählt, daß die durch den bildgebenden Sensor gemessenen
Intensitätsableitungen das Zielmuster ergeben. Für generelle Zielmuster sind hierfür
geeignete konjugierte Bildpunkte 20 zu wählen.
Generell ist ein Zielmuster durch eine Zuordnung eines 2D Vektors zu jedem Bildre
gionpunkt 19 bestimmt (siehe etwa Fig. 6). Ein Zielmuster ist also ein Vektorfeld.
In einer Ausführungsvariante kann man auch für μj einen Koeffizienten ungleich 1
wählen.
Für das prototypisch ausgeführte Beispiel sind der Bildpunkt mit seinen konjugierten Punk
ten 20 die fünf Bildpunkte (xj, yj), (xk, yk), (xm, ym), (xn, yn) und (xp, yp). Wir bilden die
lineare Kombination
μsum,j = μj + αμk + βμm + γμn + δμp (32)
mit vier Koeffizienten α, β, γ und δ, welche unten berechnet werden. Insbesondere werden
diese Koeffizienten unten für das sternförmige Zielmuster bestimmt.
Analog zu oben (siehe Gl. (30)) führen wir auch für die Linearkombina
tion (siehe Gl. (31)) die vier möglichen symmetriekonformen Subelemente ein.
Insgesamt erhalten wir
Für jeden konjugierten
Bildpunkt 20 (xk(j), yk(j)) und jede Symmetrieklasse (s ∈ {a, b, c, d} wird ein Kon
jugationsfaktor wie folgt bestimmt:
Dabei werden folgende Symmetrieexponenten nx(a) = 0, ny(a) = 0, nx(b) = 1,
ny(b) = 0, nx(c) = 0, ny(c) = 1 und nx(d) = 1, ny(d) = 1 verwendet.
Also ist:
Analog gilt
und
sowie
Die eckigen Klammern in den obigen Gleichungen werden effektive Intensitätsgradi
enten (in Anlehnung an Gl. 26) genannt. Diese effektiven Intensitätsableitungen wer
den in dem Verfahren für die Koeffizienten αk(j) tatsächlich bestimmt. Dabei werden
zuvor die Koeffizienten αk(j) so bestimmt, daß die effektiven Intensitätsableitungen
der Bildregionpunkte 19 ein Vektorfeld bilden, das dem Zielmuster gleich ist.
Konkret lauten die effektiven Intensitätsableitungen wie folgt:
für s ∈ {a, b, c, d}.
Für den prototypisch ausgeführten Fall nimmt obige Gl. (33) folgende Form an.
Diese symmetriekonformen Subelemente werden wie folgt bestimmt:
Zuerst setzen wir nach Gln. (26), (27), (28) und (29) ein:
Analoge Gleichungen gelten für + und .
Zweitens erklären wir nützliche Symmetrierelationen, welche inhärent im Symmetriefaktor
Pq stecken. Mit Ξk = -Ξj und Yk = Yj erhält man
Pq(Ξk, Yk) = Pq(-Ξj, Yj) = Pq (Ξj, Yj). (42)
Analog bekommt man
Pq(Ξm, Ym) = Pq(Ξj, -Yj) = Pq (Ξj, Yj). (43)
Pq(Ξn, Yn) = Pq(-Ξj, -Yj) = Pq (Ξj, Yj). (44)
Für die konjugierten Punkte (xp, yp) und für die betrachteten Multipole gibt es einen Expo
nenten Eq so, daß
Pq(Ξp, Yp) = Pq(Ξj, Yj) (45)
gilt. Insbesondere ist Eq gleich (p₁+p₂) für den betrachteten Wert von q; dies zeigt, daß ein
solches Eq existiert. Wir bezeichnen Pq(Ξj, Yj) im folgenden kürzer durch Pq.
Drittens kann man mit der obigen Relation die Gl. (41) vereinfachen und erhält
Analog kann man (zusätzlich mit Ξp = FΞj und Ξk = Ξn = -Ξj = Ξm)
herleiten und erhält auf ähnliche Weise
und
Insgesamt erhalten wir auch hier
Die obigen rechteckigen Klammern, welche die Intensitätsgradienten beinhalten, sind die
effektiven Intensitätsgradienten des resultierenden linearkombinierten modulierten Multipols
μsum,j.
Nun werden die Koeffizienten αk(j)
für die konjugierten Bildpunkte 20 so bestimmt, daß die effektiven Intensitätsgra
dienten nach x und y proportional sind zum Vektor , ) des Zielmusters am
Bildpunkt (xj, yj). Es werden also die Koeffizienten αk(j) so bestimmt, daß folgende
acht Gleichungen gelten:
ps j = und ps j = (51)
für s ∈ {a, b, c, d}. Hierbei ist ps j der Proportionalitätsfaktor.
Diese Intensitätsableitungen werden für die entsprechenden eckigen Klammern in
den Gln. (36), (37), (38) und (39) eingesetzt, sodann werden diese Gleichungen
entsprechend Gl. 34 zu μsum,j addiert. Pq (Ξj, Yj) wird durch Pq abgekürzt. Also
ist
Für den prototypisch ausgewählten Fall erfolgt die Bestimmung der Koeffi
zienten α, β, γ und δ wie folgt. Wir wählen diesen Koeffizienten so, daß das Paar (rechteckige
Klammern mit Ξ-Intensitätsableitungen rechteckige Klammern mit Y-Intensitätsableitun
gen) parallel zum Paar (-Ξj, -Yj) ist, d. h. parallel zur radialen Richtung zum Zentrum der
Bildpunktregion ist (für die rechteckigen Klammern siehe Gln. (46), (47), (48) und (49)).
Allgemeiner wünschen wir eine gewisse Abweichung von der radialen Richtung gekennzeich
net durch einen Anisotropieparameter Ξanis, indem wir verlangen, daß (rechteckige Klammern
mit Ξ-Intensitätsableitungen, rechteckige Klammern mit Y-Intensitätsableitungen) paral
lel zum Paar (-ΞanisΞj, -Yj) ist. Dabei führt der Spezialfall -Ξanis = 1 auf die isotropen
radialen Richtungen und ein isotropes Richtungsfeld, während der Fall Ξanis ≠ 1 zu einem
anisotropen Richtungsfeld führt. Die korrespondierenden einzelnen Richtungen bezeichnen
wir als anisotrop radial. Unter einer verallgemeinerten radialen Richtung verstehen wir ent
weder eine isotrope radiale Richtung parallel zu (-Ξj, -Yj) oder eine anisotrope radiale
Richtung parallel zu (-ΞanisΞj, -Yj) mit Ξanis ≠ 1. Wir unterlassen das Attribut "verall
gemeinert", wenn es aus dem Kontext ersichtlich ist.
Insgesamt werden diese Wunschrichtungen wie folgt erklärt. Wir wählen die Koeffizienten
α, β, γ und δ so, daß
Das heißt, daß die vier Linearkombinationen der effektiven Intensitätsgradienten (ausge
drückt durch korrespondierende rechteckige Klammern) parallel zur Richtung (-ΞanisΞj, -Yj)
liegen sollten. Das ergibt ein lineares Gleichungssystem, welches gelöst werden kann, indem
zuerst die vier äquivalenten Gleichungen welche ausdrücken, daß die nichtradialen Kom
ponenten verschwinden, formuliert werden und zweitens die Gaußelimination zur Lösung
angewendet wird. Während diese Methode ziemlich komplizierte Formeln ergibt, kann es
doch dazu herangezogen werden, schlußzufolgern, daß eine Lösung existiert. Auf der Basis
dieser Erkenntnis kann das Gleichungssystem effizienter wie folgt gelöst werden.
Zuerst addiert man die erste, dritte, fünfte und siebte Gleichung in (53), als auch die zweite,
vierte, sechste und achte, um
mit der kurzen Notation Δ = δFEq herzuleiten.
Zweitens kann man die dritte und die siebte Gleichung in (53) addieren, als auch die vierte
und achte um
mit der Abkürzung herzuleiten.
Drittens kann man die fünfte und siebte Gleichung in (53) addieren, als auch die sechste und
achte um
herzuleiten.
Viertens kann man die dritte und die fünfte Gleichung in (53) addieren, als auch die vierte
und sechste um
< 29404 00070 552 001000280000000200012000285912929300040 0002019509277 00004 29285VER NB=1<
mit der Abkürzung herzuleiten.
Durch Einsetzen von Gln. (53) in die obigen Gleichungen für die symmetriekonformen Subele
mente (siehe Gln. (46), (47), (48) und (49)) erhalten wir
und analog
Jetzt summieren wir die obigen vier symmetriekonformen Subelemente (siehe Gl. (34)).
Dazu sammeln wir die ersten Ausdrücke eines jeden symmetriekonformen Subelementes in
der ersten Zeile des kombinierten Multipolelementes μsum,j, den zweiten Term eines jeden
symmetriekonformen Subelements in der zweiten Zeile und den dritten Term in der dritten
Zeile. Somit erhalten wir
Durch die Form dieser Gleichung und insbesondere durch die Tatsache, daß die zwei Klam
mern die vier symmetriekonformen Subelemente beinhalten, kann man die Faktoren (-ΞanisΞj)
und (-Yj) dieser Klammern als effektive Intensitätsgradienten parallel zu -ΞanisΞj und parallel zu -Yj identifizieren.
Die obigen effektiven Intensitätsgradienten ps j (, können noch
beliebige Länge haben, wegen des Proportionalitätsfaktors ps j. Dies wird durch Nor
mieren behoben. Und zwar wird der Normierungsfaktor
Nq j := paj(ax q + ay q + at q) + pb j(bx q + by q + bt q) + pc j(cx q + cy q + ct q) + pd j(dx q + dy q + dt q) (59)
verwendet. Dies ergibt
Für den prototypisch ausgeführten Fall werden die effektiven Intensitätsgradienten wie folgt
normiert. Die obigen effektiven Intensitätsgradienten ps j (, ) zeigen radial (isotrop oder
anisotrop) auf das Zentrum der Bildpunktregion. Die Vektorlänge kann jedoch für verschie
dene Bildpunkte in der Bildpunktregion unterschiedlich sein, die durch Reflektion an der
horizontalen oder vertikalen Achse durch das Zentrum der Bildpunktregion ineinander über
gehen. Um diese Längendifferenzen zu kompensieren, normieren als nächstes für diese effekti
ven Intensitätsgradienten. Als Resultat erhalten wir ein isotropes radiales Feld für Ξanis = 1
und ein anisotropes radiales Feld für Ξanis ≠ 1.
Zum Zwecke einer solchen Normierung teilen wir beide Seiten der obigen Gleichung durch
den obigen Normierungsfaktor (siehr Gl. (59)). Also erhalten wir
Diese Gleichung kann wesentlich vereinfacht werden: Zu diesem Zweck betrachten wird den
Fall, daß ax q + ay q + at q = 1. Dann ergeben sich die neun Varianten bx q, by q, bt q, cx q, cy q, ct q, dx q,
dy q, dt q zu Null. Also bleiben die zu paj proportionalen Terme in Gl. (61) erhalten, während
Terme proportional zu pb j, pc j und pd j verschwinden. Damit ist in diesem Fall Nq j gleich paj und man kann die Faktoren paj kürzen. Für bx q + by q + bt q = 1 kürzt man analog den Faktor pb j, für cx q + cy q + ct q = 1 den Faktor pc j und für dx q + dy q + dt q = 1 den Faktor pd j. Insgesamt erhält man als Konsequenz der Gl. (58)
Terme proportional zu pb j, pc j und pd j verschwinden. Damit ist in diesem Fall Nq j gleich paj und man kann die Faktoren paj kürzen. Für bx q + by q + bt q = 1 kürzt man analog den Faktor pb j, für cx q + cy q + ct q = 1 den Faktor pc j und für dx q + dy q + dt q = 1 den Faktor pd j. Insgesamt erhält man als Konsequenz der Gl. (58)
Aufgrund der Form der Gleichung, also aufgrund der Tatsache, daß die zwei Klammern
die vier symmetriekonformen Subelemente ohne einen j abhängigen Term beinhalten, kann
man die Faktoren (-ΞanisΞj) und (-Yj) dieser Klammern als effektive normierte Inten
sitätsgradienten = -ΞanisΞj und = - Yj bezeichnen.
Zur Berechnung des transformierten modulierten Mul
tipols summieren wir die obigen Multipolelemente (siehe Gl. (60)) über alle Bildpunkte
einer Bildpunktregion:
Zum Zweck der
Erläuterung wird dargelegt, weshalb die SMME gültig ist, und weshalb sie eine robu
ste Bestimmung der Relativbewegung erlaubt: Man kann eine transformierte MME
(d. h. eine SMME) herleiten, welche mit der obigen Transformation der Multipole
korrespondiert. Diese MME Transformation ist in Tabelle 1 illustriert und wird die
folgt konstruiert.
- (a) Zuerst berücksichtigen wird die periphären MMEs für (Ξj, Yj) und die konju gierten Bildpunkte 20 (Ξk(j), Yk(j)).
- (b) Zweitens führen wir deren Linearkombination mit den Koeffizienten 1, αk(j) ein.
- (c) Drittens beinhalten durch den Entwurf alle modulierten multipolaren Gleichun gen (MMEs) nur modulierte Multipole mit gleichem q. Damit kann jede MME und auch jeder modulierte Multipol mit einem Index q versehen werden (siehe Tabelle 1).
- (d) Viertens kann man eine jede solche MME durch Nq j normieren (siehe Gl. (59)).
Tabelle 1 Übersicht - (e) Fünftens kann man die Summe der resultierenden normierten MMEs der Bild punkte einer Bildpunktregion bilden (siehe Tabelle 1). Diese Summe wird als transformierte MME bezeichnet, oder kurz als symmetrisierte MME, kurz SM ME.
- (f) Sechstens drücken wir diese SMME mit den entsprechend den Zielmustern transformierten modulierten Multipolen aus.
Entwurfsbedingt entsprechen die Multipolelemente der modulier
ten Multipole der SMME den transformierten Multipolelementen μsum,j (siehe Gln.
(32) und (62) und die Tabelle 1), denn die normierte MME und die normierten mo
dulierten Multipolelemente haben die gleichen Koeffizienten und . Wieder
um entwurfsbedingt haben diese transformierten Multipolelemente effektive
Intensitätsgradienten exakt gemäß dem Zielmuster.
Für das prototypisch ausgeführte Beispiel sind die transformierten gemessenen Intensitäts
gradienten anisotrop radial, d. h. und = Yj. Daher hat auch die transformierte
MME anisotrop radiale effektive Intensitätsgradienten (siehe Fig. 6).
Dies schließt die komplette Kompensation von möglichen Anisotropien der gemessenen In
tensitätsgradienten (, ) an beliebigen Bildpunkten (Ξj, Yj) einer beliebigen Bildpunkt
region mit Zentrum (xe, ye) durch eine Transformationsprozedur, genannt Symmetrisierung,
ab.
Um zu illustrieren, weshalb ein sternförmiges Zielmuster für die Bestimmung von Bewegung
relativ günstig ist, wird die daraus resultierende Matrix Amultipole (siehe oben Schritt 2)
durch Gl. (64) dargestellt. Der Bewegungszustand ergibt sich aus
Amultipole ψ = b multipole (65)
mit
Man erkennt, daß viele Matrixelemente Null sind. Dies führt zu einem einfachen und robusten
Verfahren zur Bestimmung der Relativbewegung.
Durch das Symmetrisierungsverfahren werden verschiedene SMMEs bereitgestellt, ent
sprechend den verwendeten modulierten Multipolen. Man kann von diesen SMMEs eine
gewünschte Teilmenge auswählen. Diese sind bei geeigneter Wahl der konjugierten Punkte
20, der modulierten Multipole und der Zielmuster robust bezüglich der statistischen
Mittelung und auch bezüglich der Rekonstruktion des Bewegungszustandes durch Matrix
inversion.
Bei der Verwendung von anisotrop radialen Zielmustern, sogenannten
Sternmustern, vereinfacht sich die Bestimmung der ψk durch Separation. Dies betrifft den
Unteranspruch 14 des Verfahrens.
Als nächstes betrachten wir das Gleichungssystem, welches durch die
Matrix Amultipole ausgedrückt wird. Wir subtrahieren mal die fünfte Gleichung
von der ersten Gleichung. Dann subtrahieren wir mal die sechste Gleichung von der
zweiten Gleichung. Zusätzlich nehmen wir die vierte Gleichung. Wir erhalten die Matrix
Attc wie folgt
mit
und
Die korrespondierende Inhomogenität b ttc ist
Also erhalten wir
Attc ψ = b ttc. (71)
Aus dieser Gleichung extrahieren wir die Rotationen sowie die transla
torische Komponente Te,z aufgrund des Nullblockes und aufgrund der tridiagonalen Form
im Block verschieden von Null.
Für den Spezialfall anisotroper Bildpunktregionen erhält man von Null
verschiedene Matrixelemente A3,3 und A7,3:
und
Mit den oben bestimmten ωx, ωy, Te,z reicht einer dieser Matrixelemente für die Bestim
mung der ωz aus, indem die dritte oder siebte Zeile von Amultipole benutzt wird. Schließ
lich können mit ωz die Te,x und Te,y bestimmt werden, indem die erste und zweite Zeile
von Amultipole benutzt wird. Insgesamt kann der komplette Relativbewegungszustand für
den Fall anisotroper Bildpunktregionen mittels einer einzigen Bildpunktregion bestimmt
werden. Also kann damit die Relativbewegung zwischen dem bildgebenden Sensor und ani
sotroper Bildpunktregion bestimmt werden.
Das oben ausgeführte Verfahren stellt eine geschlossene Lösung für die Bestimmung
der Bewegung dar. Zusätzlich werden nun sternförmige Mustermarkierungen (siehe Abb. 6)
an den Objekten der Szene angebracht. Die von diesen Mustermarkierungen ausgehende
Lichtintensität wird zunächst in eine gemessene Intensität und diese wiederum in einen
berechneten Bewegungszustand ψ umgesetzt. Und zwar geschieht dies durch folgende Ver
fahrensschritte:
- 1. Umsetzung der Mustermarkierungen in gemessene Intensitäten
- 2. Umsetzung der gemessenen Intensitäten in Intensitätsableitungen
- 3. Umsetzung der Intensitätsableitungen in transformierte modulierte Multipole, die entsprechend dem Zielmuster ungleich null sind.
- 4. Umsetzung der transformierten modulierten Multipole, die entsprechend dem Ziel muster ungleich null sind in einen berechneten Bewegungszustand c.
Diese vier Verfahrensschritte bestehen aus iterationsfreien relativ einfachen Transfor
mationen. Daher ist eine Fehlerfortpflanzungsrechnung praktisch durchführbar. Somit wird
eine garantiert eingehaltene Fehlertoleranz bestimmt.
Eine Betrachtung aller in diesem Verfahren auftretenden Transformationen zeigt, daß
alle verwendeten Verfahrensschritte aus Additionen und Multiplikationen bestehen, die
bzgl. der Fehlerfortpflanzung unproblematisch sind, außer den bei der Bestimmung der
Koeffizienten αk(j) für die lineare Kombination verwendeten Verfahrensschritte und außer
der Matrixinversion. Die Matrixinversion ist durch Verwendung geeigneter anisotroper
sternförmiger Zielmuster stabil durchführbar. Die Koeffizienten αk(j) können durch Ver
wendung sternförmiger Zeilmuster mit den Gln. (55), (56), (57) und (54) bestimmt werden.
Hierbei tritt ein Nenner auf, der durch geeignete Wahl des Anisotropieparameters Ξanis
relativ groß gemacht werden kann. Dadurch ist auch dieser Verfahrensschritt bzgl. der
Fehlerfortpflanzung unproblematisch. Insgesamt ist die Fehlerfortpflanzungsrechnung also
durchführbar und ergibt, z. B. bei geeigneten anisotropen Sternmustern, eine relativ
geringe Verstärkung von Meßfehlern.
Daher wird der Bewegungszustand durch das vorgelegte Verfahren mit relativ geringen
Fehlern bestimmt, und die zugehörigen Fehlertoleranzen werden durch die übliche Fehler
fortpflanzungsrechnung direkt vorhergesagt. Insgesamt wird bei der Verwendung von
anisotropen sternförmigen Mustermarkierungen ein Bewegungszustand innerhalb einer
Fehlertoleranz bestimmt.
In einem weiteren Ausführungsbeispiel kann man anstelle der (günstigen) anisotropen
sternförmigen Mustermarkierungen auch andere beliebige Mustermarkierungen verwen
den, und die Fehlerfortpflanzungsrechnung hierauf anwenden.
In einem weiteren Ausführungsbeispiel kann man insgesamt auf das Anbringen von Mu
stermarkierungen verzichten und stattdessen etwa durch unscharfe Einstellung der Kamera
günstige Intensitätsverläufe erzeugen.
In einem weiteren Ausführungsbeispiel kann man die Fehlerfortpflanzungsrechnung auf
die mit der Kamera gemessene Intensitätsverteilung gründen.
Für den Fall isotroper Bildpunktregionen benutzen
wir zwei Bildpunktregionen an unterschiedlichen Bildpunkten (xe, ye) und (xe′, ye′). Für
diese bestimmen wir zuerst Te,z und Te′,z wie oben. Dann führen wir den neuen Zustands
vektor
ψ′ = (Ωe,z, Ωe′,z τx, τy)
ein mit
Als nächstes nehmen wir die zwei
Gleichungen, welche mit den ersten zwei Zeilen der Matrix Amultipole korrespondieren, und
wir dividieren diese Gleichungen durch Te,z. Dann verfahren wir analog mit der anderen
Bildpunktregion. So erhalten wir das folgende System von vier Gleichungen für den neuen
Zustandsvektor
mit den Multipolen respektive als e und e′ gekennzeichnet und mit Gl. (75) und mit
Arest ψ′ = b rest. (76)
Die Matrix Arest ist regulär für die meisten Bildpunktregionenpaare, denn ihre Determi
nante bestimmt sich zu
Damit ist das System gelöst.
Abhängig von der Qualität des Bildmaterials kann es möglich sein, die Orte lokaler
Intensitätsmaxima von Bildregionen zu extrahieren und über die Bildsequenz zu verfolgen.
Es stellt sich die Frage, wie sich ein Bildpunkt (xi, yi) als Funktion des Relativbewe
gungszustandes und der relativen Tiefe zum korrespondierenden Objekt verschiebt. Spe
ziell: Was sind die infinitesimalen Verschiebungen dxi und dyi als lineare Funktionen eines
infinitesimalen Zeitintervalls dt? Dies wird durch die Bewegungsgleichungen (Gl. 83)) be
schrieben. Wie können nun diese lokalen Änderungen dxi/dt und dyi/dt im Bildmaterial
gemessen werden?
Zuerst betrachten wir eine Bildpunktregion im Umfeld des lokalen Intensitätsmaxi
mums. Zweitens schätzen wir die Distanz d von diesem lokalen Maximum zum nächst
liegenden lokalen Intensitätsextremum. Drittens bestimmten wir den Kreis Ck mit Radius
d um den Punkt (xcircle, Ycircle), welcher zu Beginn als lokales Maximum gewählt wurde.
Viertens bestimmen wir den Massenschwerpunkt der Bildpunktintensitäten im Kreis
Fünftens interieren wir wie folgt: Wir setzen den neuen Kreismittelspunkt (Xcircle, ycircle)′
gleich dem zu diesem Zeitpunkt berechneten Massenschwerpunkt r cm und berechnen den
neuen Schwerpunkt r′ cm mittels dieses Kreises. Wir iterieren, bis der Schwerpunkt identisch
eines Fixpunktes r* cm bleibt. Sechstens basiert die ECE-Berechnung auf Intensitäten zu
zwei aufeinanderfolgenden Zeitpunkten t₁ und t₂ aufgrund der gewählten Zeitableitung.
Entsprechend bestimmen wir die oben vorgestellten Fixpunkte für beide. Wir berechen
damit r cm(t₁)* und r cm(t₂)*. Siebentens bestimmen wir die Verschiebung
Δr = Δ(xi,shift, Yi,shift) = r cm(t₁)*. (79)
Wir intepretieren dies als daß die Bildpunktregion durch einen Shift in dieser Größe
verschoben wurde. (Für unsere Zwecke reicht es, diese Verschiebung für drei Bildpunktre
gionzentren (xe, Ye) zu messen; also verwenden wir besonders geeignete Bildregionzentren.)
Jede Bildpunktregion folgt einer Gleichung nach (Eq. (84)) wie folgt
Diese Gleichungen nennen wir die Extremmumkonstanzgleichungen (ECE), im besonderen
bezeichnen wir sie als ECEX und ECEY.
Um Rotation und Translation zu trennen, entwickeln wir Gleichungen, die Nullkom
ponenten für die Translationsterme vi,t k,x und Vi,t k,y besitzen. Zu diesem Zweck betrachten
wir einen Punkt in der Bildpunktregion, nehmen die korrespondierenden BCCE (90) und
subtrahieren Ix,j mal die ECEX und Iy,j mal die ECEY am Extremwertort (Xe, ye). Damit
erhalten wir
Hier setzen wir eine geeignete Approximation der Variablen vi,t y,j und vi,t y,j zu vi,t x,k und vi,t y,k
genauso wie vi,t x,e und vi,t y,e zu vi,t x,k und vi,t y,k.
Um statistische Durchschnitte zu erhalten, summieren wir die obigen Gleichungen für
alle Bildpunkte (xj, yj) der Bildpunktregion. Also erhalten wir
Die perspektivisch projektive Transformation (Lochkamera) ist als realistisches Kamera
modell in der Bildverarbeitungsforschung weit verbreitet (R. J. Schalkoff, Digital Image
Processing and Computer Vision, John Wiley & Sons, Inc., New York, 1989). Es ap
proximiert gut die geometrische Optik der Projektion der dreidimensionalen Welt auf die
zweidimensionalen Bildpunkte. Abb. 7 zeigt die Geometrie in frontalprojektiver Dar
stellung (Bezugszeichen 23).
Wenn sich Objekte (Bezugszeichen 22) vor der Kamera bewegen und/oder die Kamera
sich in der Umwelt bewegt, werden korrespondierende Änderungen in den Bildern induziert.
Wir leiten nun die Relation zwischen der dreidimensionalen Relativbewegung und der
generierten Bewegung auf der Bildebene (Bezugszeichen 21) her.
Nach einem klassischen Resultat der Kinematik kann jede Festkörperbewegung (ohne
Deformation) in sechs Komponenten aufgeteilt werden, nämlich Translation t = (tx,ty,tz)T
und Rotation ω = (ωx,ωx,ωz)T. Die Wahl der zwei Koordinatensysteme für die Transla
tion und Rotation ist willkürlich (d. h. die gleiche Bewegung kann mit unendlich vielen
Kombinationen von Translationen und Rotationen beschrieben werden). Wir wählen hier
das Kamerakoordinatensystem (Fig. 7).
Perspektivische Projektion von 3D-Bewegung resultiert in den Bewegungsgleichungen
welche getrennt nach translatorischen und rotatorischen Bewegungskomponenten darge
stellt werden können (H. C. Longuet-Higgins und K. Prazdny, The Interpretation of a
Moving Retinal Image, Proc. R. Soc. Lond., B 208: 385-397, 1980):
Die Gleichungen beschreiben das Bewegungsvorfeld v i an jedem Bildpunkt x i. Der
Absolutbetrag der translatorischen Geschwindigkeit kann durch den Beobachter nicht be
stimmt werden; dies motiviert die Formulierung mit (Tx,Ty,Tz) = durch
Wir wählen den Gradientenansatz zur Bewegungsbestimmung. Die Gradienten sind lokal
und berechnungstechnisch effizient. In einem heuristischen Ansatz geht man davon aus, daß
sich die Intensität eines Raumpunktes in der Zeit nicht ändert:
Taylor Expansion in führender Ordnung resultiert in
Mit Gl. (85) erhält man die sogenannte brightness constancy equation (BCE) mit
und
Das Vektorfeld u = (ux,uy)T = wird als optisches Flußfeld (H. von Helmholtz,
Handbuch der Physiologischen Optik, Verlag von Leopold Voss, Hamburg, Dritte Ausgabe,
1909 und J. J. Gibson, The Ecological Approach to Visual Perception, Houghton Mifflin,
Boston, 1979) bezeichnet. Wir führen den normierten Gradientenvektor n = und
das normierte Flußfeld u n
ein.
Für jeden Bildpunkt (xj, yj) kann die BCE mit den Bewegungsgleichungen wie folgt zu
sammengeführt werden. Wir setzen die Geschwindigkeiten in Gln. (84) für diejenigen in
Gln. (87) ein. Damit erhalten wir die sogenannte brightness change constraint equation
(BCCE) (S. Negahdaripour und B.K.P. Horn, Direct Passive Navigation) IEEE Transac
tions on Pattern Analysis and Machine Intelligence, 9(1): 168-176, Januar 1987):
x
Vektoren sind unterstrichen
x · y Skalarprodukt (inneres Produkt)
x × y Vektorprodukt
x T
x · y Skalarprodukt (inneres Produkt)
x × y Vektorprodukt
x T
Transponierter Vektor
x i = (xi, yi)T Pixel location
zo Objektentfernung in z-Richtung
x c Ursprung des Kamerakoordinatensystems
(xk, yk) Bildpunkt
(xe, ye) Bildpunktregionzentrum
(xj, yj) Bildregionpunkt
(xk(j), yk(j)) konjugierter Bildpunkt
(Ξj, Yj) = (xj - xe,yj - ye) relativer Bildregionpunkt
zo Objektentfernung in z-Richtung
x c Ursprung des Kamerakoordinatensystems
(xk, yk) Bildpunkt
(xe, ye) Bildpunktregionzentrum
(xj, yj) Bildregionpunkt
(xk(j), yk(j)) konjugierter Bildpunkt
(Ξj, Yj) = (xj - xe,yj - ye) relativer Bildregionpunkt
v i = (vi x, vi y)T Bewegungsfeld (Bildpunktbewegung)
u = (ux, uy)T Optisches Flußfeld
u n = (un x, un y)T Normalenflußfeld
f Brennweite
u = (ux, uy)T Optisches Flußfeld
u n = (un x, un y)T Normalenflußfeld
f Brennweite
t = (tx, ty, tz)T Relative Translationsbewegung
T = tiefenskalierte relative Translationsbewegung
ω = (ωx,ωy,ωz)T Rotationsbewegung
c = (T, ω) Bewegungszustand
T = tiefenskalierte relative Translationsbewegung
ω = (ωx,ωy,ωz)T Rotationsbewegung
c = (T, ω) Bewegungszustand
n Raumgradientenvektor im Bild (Einheitsvektor)
I(x,y,t) Intensitätsverteilung an Punkten (x, y) zum Zeitpunkt t
Ix, Iy, It Partielle Ableitungen der Intensität
Îx, Îy Effektive normierte Intensitätsgradienten
I(x,y,t) Intensitätsverteilung an Punkten (x, y) zum Zeitpunkt t
Ix, Iy, It Partielle Ableitungen der Intensität
Îx, Îy Effektive normierte Intensitätsgradienten
μ Modulierte Multipole
μj Multipolelement
μsum Summe der Multipolelemente über die Bildpunktregion
Pq Symmetriefaktor
(ax q, . . ., dt q) Symmetriekoeffizienten
s ∈ {a, b, c, d} Symmetrieindex für die Symmetrieklassen a, b, c und d
(μaj, μb j, μc j, μd j) Symmetriekonforme Submultipolelemente für die Symmetrieklassen
αk(j) Koeffizienten für die konjugierten Bildpunkte
μsum,j Lineare Kombination der modulierten Multipolelemente der konjugierten Bildpunkte
nx, ny Symmetrieexponenten
(Iz, Iz) Zielmustervektor
Ξanis Anisotropieparameter
Nq j Normierungsfaktor
μj Multipolelement
μsum Summe der Multipolelemente über die Bildpunktregion
Pq Symmetriefaktor
(ax q, . . ., dt q) Symmetriekoeffizienten
s ∈ {a, b, c, d} Symmetrieindex für die Symmetrieklassen a, b, c und d
(μaj, μb j, μc j, μd j) Symmetriekonforme Submultipolelemente für die Symmetrieklassen
αk(j) Koeffizienten für die konjugierten Bildpunkte
μsum,j Lineare Kombination der modulierten Multipolelemente der konjugierten Bildpunkte
nx, ny Symmetrieexponenten
(Iz, Iz) Zielmustervektor
Ξanis Anisotropieparameter
Nq j Normierungsfaktor
Bezugszeichenliste
10 Piezoelektrisch gesteuerter Spiegel
11 Paralleler Strahlengang
12 Einfallendes Bild
13 Mikrosakkade
14 Spiegel
15 Mechanisch magnetisch getriebene Oszillation
16 Brechungsindexvariierender Flüssigkristall
17 Bildgebender Chip
18 Piezoelektrisch gesteuerte Oszillation und auch Mikrosakkade
19 Bildregionpunkt
20 Konjugierter Bildpunkt
21 Bildebene
22 Objekt
23 Frontalprojektive Darstellung
11 Paralleler Strahlengang
12 Einfallendes Bild
13 Mikrosakkade
14 Spiegel
15 Mechanisch magnetisch getriebene Oszillation
16 Brechungsindexvariierender Flüssigkristall
17 Bildgebender Chip
18 Piezoelektrisch gesteuerte Oszillation und auch Mikrosakkade
19 Bildregionpunkt
20 Konjugierter Bildpunkt
21 Bildebene
22 Objekt
23 Frontalprojektive Darstellung
Claims (18)
1. Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere
Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen, das die folgenden
Schritte umfaßt:
- • Messung von Sensordaten yi in Form von Tupeln mit mindestens einer Kompo nente und daraus Erhebung von Eingangsdaten zum Zweck der Bestimmung von gewünschten Ausgabesignalen xk mit Hilfe eines funktionalen Zusammenhanges 0 = Fi(yi, x);
- • Bestimmung der in der Fehlerfortpflanzung im Rahmen einer linearen Näherung vor kommenden praktisch bestimmbaren partiellen Ableitungen Δxk = Σj Δyj;
gekennzeichnet durch
• Gemeinsame Bestimmung der Ausgabesignale xk und der adaptierten Wichtungs
faktoren γj derart, daß ein summierter quadratischer Fehler bei Verwendung der ad
aptierten Wichtungsfaktoren die Beziehung ΣiγiF²i (yi, x) = minimal nahezu erfüllt
und der wesentliche
Informationsgewinn W = Σkvklog₂ = maximal nahezu
erfüllt ist, wobei Σjγj
= konstant einzuhalten ist.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
- • die Sensordaten yi Intensitäten I(x, y, t) an Bildpunkten (x, y) zu Zeitpunkten t eines bildgebenden Sensors entsprechen, wobei die Indizes i der Sensordaten yi Tripel (x, y, t) darstellen,
- • die gewünschten Größen x₁, x₂, x₃, x₄, x₅ und x₆ jeweils einer x-Rotation, y- Rotation, z-Rotation, tiefenskalierten x-Translation, tiefenskalierten y-Translation und tiefenskalierten z-Translation zwischen beliebigen Objekten (22) und dem bildgebenden Sensor anhand einer Bildsequenz entsprechen, und
- • die Funktionen Fi entsprechend der Geometrie des bildgebenden Sensors und unter der Voraussetzung, daß die Gesamtintensität von Objekten (22) konstant bleibt, aufgestellt sind,
- • ferner eine Erhebung von räumlichen und zeitlichen Intensitätsableitungen Ix, Iy und It der Intensitäten I(x, y, t) an den Bildpunkten (x, y) des bildgebenden Sensors als Eingangsdaten vorgenommen wird,
- • ferner eine gewährleistete relative Meßgenauigkeit des Sensors,
- • Nützlichkeitsparameter vk für die Bewegungsgrößen x₁, x₂, x₃, x₄, x₅, x₆
- • zusätzlich Bildregionen eingelesen werden, und
- • zur Bestimmung der Relativrotationen und tiefenskalierten Translationen Wich tungsmuster übernommen werden.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Erhebung der räum
lichen und zeitlichen Intensitätsableitungen mittels der folgenden Schritte durch
geführt wird:
- • Messung der Intensitätsverteilung I(x, y, t) an Bildpunkten (x, y) einer Bild fläche des bildgebenden Sensors zu mindestens zwei aufeinanderfolgenden Zeit punkten t,
- • Bildung der zugehörigen Intensitätsableitungen Ix, Iy und It der Intensitätsver teilungen nach den Bildpunktkoordinaten x, y aus mindestens zwei benachbar ten Bildpunkten bzw. nach der Zeit t aus mindestens zwei aufeinanderfolgenden Bildpunkten.
4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Erhebung der räum
lichen und zeitlichen Intensitätsableitungen mittels der folgenden Schritte durch
geführt wird:
- • unmittelbare Umsetzung der gemessenen Intensität I(x, y, t) durch einen herkömm lichen elektronischen analogen Differentiatorschaltkreis in die partielle zeitliche Ableitung wobei zur zusätzlichen Messung der räumlichen Intensitätsablei tungen und dem bildgebenden Sensor hochfrequente Mikrobewegungen, sogenannte Mikrosakkaden (13), aufgeprägt werden.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß die Mikrosakkaden (13)
durch Plazierung eines piezoelektrisch gesteuerten Spiegels (10) im parallelen Strah
lengang (11) des einfallenden Bildes (12) erzeugt werden.
6. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß die Mikrosakkaden (13)
durch Plazierung brechungsindexvariierender Flüssigkristalle (16) im parallelen Strah
lengang (11) des einfallenden Bildes (12) erzeugt werden.
7. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß die Mikrosakkaden (13)
durch mechanische, magnetisch getriebene Oszillationen (15) eines Spiegels (14) im
parallelen Strahlengang (11) des einfallenden Bildes (12) erzeugt werden.
8. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß die Mikrosakkaden durch
piezoelektrisch gesteuerte Oszillationen (18) eines bildgebenden Chips (17) realisiert
werden.
9. Verfahren nach einem der Ansprüche 2 bis 8, dadurch gekennzeichnet, daß der bild
gebende Sensor zusätzlich die Signallaufzeit für die doppelte Wegstrecke von dem
bildgebenden Sensor zu einem auf den Bildpunkt (x, y) projizierten Objekt (22)
bestimmt.
10. Verfahren nach einem der Ansprüche 2 bis 9, dadurch gekennzeichnet, daß zusätzlich
Mustermarkierungen in der Szene verwendet werden.
11. Verfahren nach einem der Ansprüche 2 bis 10, dadurch gekennzeichnet, daß die Wich
tungsmuster anhand des maximalen wesentlichen Informationsgewinnes bestimmt
sind.
12. Verfahren nach einem der Ansprüche 2 bis 10, dadurch gekennzeichnet, daß die Wich
tungsmuster anhand des ausgewählten Bildmaterials vorab bestimmt werden, wobei
eine Klassifikation der möglichen gemessenen Intensitäten und eine Bestimmung eines
Wichtungsmusters mit relativ hohem wesentlichen Informationsgewinn für jede
Klasse vorgenommen wird.
13. Verfahren nach einem der Ansprüche 2 bis 10, dadurch gekennzeichnet, daß die Wich
tungsmuster anhand der Transformation der gemessenen Intensitätsgradienten auf
eingelesene Zielmuster bestimmt werden, wobei dies die folgenden Schritte umfaßt:
- • Einlesen von speziellen Verfahrensparametern, wie konjugierten Bildpunkten (20), Zielmustern, modulierten Multipolen und symmetrisierten modulierten Multipolgleichungen,
- • Umsetzung der speziellen Verfahrensparameter, die eine Bestimmung der Sym metriefaktoren Pq, eine Berechnung der Symmetriekoeffizienten ax q, bx q, cx q, dx q, ay q, by q, cy q, dy q, at q, bt q, ct q und dt q für die ausgewählten Multipole, eine Bestim mung von Konjugationsfaktoren und eine Bestimmung der ausgewählten trans formierten modulierten Multipole für die Intensitätsgradienten Ix und Iy aus den ausgewählten Zielmustern umfaßt,
- • Transformation der gemessenen Intensitätsgradienten auf linear kombinierte In tensitätsgradienten mit der Zielmusterorientierung durch Berechnung der Line arfaktoren αk(j) für jeden konjugierten Bildpunkt (20) eines Bildregionpunktes (19),
- • Bestimmung von Normierungsfaktoren ps j anhand einer Transformation der li near kombinierten Intensitätsgradienten auf das Zielmuster durch Normieren des linear kombinierten Intensitätsgradienten entsprechend dem Zielmuster,
- • Bestimmung der transformierten modulierten Multipole für zeitliche Inten sitätsableitungen It durch Bestimmung der effektiven zeitlichen Intensitäts ableitungen aus den gemessenen zeitlichen Intensitätsableitungen, den Line arfaktoren und den Normierungsfaktoren, Bestimmung der zeitlichen transfor mierten modulierten Multipolelemente aus den effektiven zeitlichen Intensitäts ableitungen, Aufsummieren der transformierten modulierten Multipolelemente zu den transformierten modulierten Multipolen für die zeitlichen Intensitäts ableitungen und Aufstellen der ausgewählten symmetrisierten modulierten Mul tipolgleichungen aus den transformierten modulierten Multipolen für die Inten sitätsableitungen Ix, Iy und It.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, daß separat eine Bestim
mung der x-Rotation, y-Rotation und der tiefenskalierten z-Translation und eine
Bestimmung der z-Rotation, tiefenskalierten x-Translation und tiefenskalierten y-
Translation vorgenommen wird.
15. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß
gewünschte relative Genauigkeiten qk = mittels der folgenden Schritte in Nütz
lichkeitsparameter umgesetzt werden:
- • Einlesen der gewünschten Geschwindigkeit qk,
- • Bestimmung der vk durch vk =
16. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß
die gemeinsame Optimierungsaufgabe der Minimierung von Σi γiF²i (yi, x) und der
Maximierung des wesentlichen Informationsgewinnes durch folgende Schritte vorab
gelöst wird:
- • Charakterisieren aller möglichen Konfigurationen der Eingangsdaten.
- • Auswahl von repräsentativen Konfigurationen der Eingangsdaten.
- • Für jede repräsentative Konfiguration der Eingangsdaten Lösung der Optimie rungsaufgabe der gemeinsamen Bestimmung der gewünschten Daten xk und der Wichtungsfaktoren γj, wobei gilt Σjγj = konstant und ΣiγiF²i(yi, x) nahezu minimal, sowie Σkvklog₂ nahezu maximal.
- • Erstellung einer Klassifikation aller möglichen Konfigurationen der Eingangs daten mit jeweils einer repräsentativen Konfiguration pro Klasse.
- • Für jede Klasse Zuordnung der Lösung der Optimierungsaufgabe der zugehöri gen repräsentativen Konfiguration.
- • Erstellung einer Datei mit dieser Zuordnung.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE19509277A DE19509277C1 (de) | 1995-02-03 | 1995-03-15 | Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen |
| PCT/DE1996/000209 WO1996024116A1 (de) | 1995-02-03 | 1996-02-05 | Verfahren zur erzeugung maximalen informationsgewinnes für ausgabesignale, insbesondere steuersignale von automaten |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE19503606 | 1995-02-03 | ||
| DE19509277A DE19509277C1 (de) | 1995-02-03 | 1995-03-15 | Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE19509277C1 true DE19509277C1 (de) | 1996-06-20 |
Family
ID=7753144
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE19509277A Expired - Fee Related DE19509277C1 (de) | 1995-02-03 | 1995-03-15 | Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE19509277C1 (de) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19651172A1 (de) * | 1996-12-10 | 1998-06-25 | Dag Auerbach | Überwachungsanlage |
| CN111435537A (zh) * | 2019-01-13 | 2020-07-21 | 北京初速度科技有限公司 | 模型训练方法、装置及基于拼接图的位姿优化方法、装置 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE2408746A1 (de) * | 1973-02-26 | 1974-09-05 | Minolta Camera Kk | Vorrichtung und verfahren zum automatischen fokussieren |
-
1995
- 1995-03-15 DE DE19509277A patent/DE19509277C1/de not_active Expired - Fee Related
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE2408746A1 (de) * | 1973-02-26 | 1974-09-05 | Minolta Camera Kk | Vorrichtung und verfahren zum automatischen fokussieren |
Non-Patent Citations (5)
| Title |
|---|
| Funkschau 5/87, S. 30-32 * |
| IEEE Trans. Pattern Anal. Machine Intell., Vol. PAMJ-7, No. 4, July 1985, 384-401, Vol. PAMJ-9, No. 1, Jan. 1987, 168-176 * |
| Int.J. of Comp. Vision, 4, 1990, S. 171-183 * |
| Int.J. of Pattern Rec. and Art.Int., Vol. 5, No. 3 (1991), S. 383-397 * |
| Nature, Vol. 293, 10.09.81, S. 133-135 * |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19651172A1 (de) * | 1996-12-10 | 1998-06-25 | Dag Auerbach | Überwachungsanlage |
| DE19651172C2 (de) * | 1996-12-10 | 2003-08-28 | Dag Auerbach | Überwachungsanlage |
| CN111435537A (zh) * | 2019-01-13 | 2020-07-21 | 北京初速度科技有限公司 | 模型训练方法、装置及基于拼接图的位姿优化方法、装置 |
| CN111435537B (zh) * | 2019-01-13 | 2024-01-23 | 北京魔门塔科技有限公司 | 模型训练方法、装置及基于拼接图的位姿优化方法、装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3657440B1 (de) | Verfahren und system zur dreidimensionalen rekonstruktion eines menschlichen kopfes aus mehreren bildern | |
| EP1065628B1 (de) | Optische 3-D Messung mit mehreren Näherungspunkten | |
| EP1997070B1 (de) | Raum-zeitliches verfahren und vorrichtung zur korrespondenzbestimmung, vorzugsweise zur dreidimensionalen rekonstruktion einer szene | |
| DE19882939C2 (de) | Verfahren zum Bestimmen der relativen Kameraorientierungsposition, um sichtbare 3-D-Bilder zu erzeugen | |
| DE69836522T2 (de) | Lagenerkennungssystem eines selbstbewegenden Kraftwagens | |
| DE69922183T2 (de) | Gesichtserkennung aus videobildern | |
| DE3880975T2 (de) | Verfahren und Vorrichtung zur Entfernungsbestimmung zwischen Oberflächenteilen einer drei-dimensionalen räumlichen Szene und einem Kamerasystem. | |
| EP1741059B1 (de) | Verfahren zur bestimmung einer position eines markers in einem augmented-reality-system | |
| EP2284795A2 (de) | Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen | |
| DE60014723T2 (de) | System zur Erzeugung eines zusammengesetzten Bildes | |
| DE10307580B3 (de) | Verfahren zum Bestimmen und Verfolgen von Position und Orientierung eines Magnetfeldsensors | |
| DE69022143T2 (de) | Rechnerische Methoden und elektronische Kameravorrichtung zur Bestimmung der Entfernung von Objekten, zum schnellen Autofokussieren und um eine verbesserte Bildschärfe zu erreichen. | |
| DE112016005905B4 (de) | Verfahren und System zum Verschmelzen erfasster Messungen | |
| DE112013003214T5 (de) | Verfahren zum Registrieren von Daten | |
| EP2791896B1 (de) | Verfahren zur erzeugung von superaufgelösten bildern mit verbesserter bildauflösung und messvorrichtung | |
| DE19828947A1 (de) | System und Verfahren zur dreidimensionalen (3-D) Ultraschallbildgabe und Bewegungsabschätzung | |
| DE112012005350T5 (de) | Verfahren zum Schätzen der Stellung eines Objekts | |
| EP2201326A1 (de) | Verfahren und vorrichtung zur abstandsbestimmung | |
| EP3642560B1 (de) | System, verfahren und marker zur positionsbestimmung eines beweglichen objektes im raum | |
| DE102016208056A1 (de) | Verfahren und Vorrichtung zur Verarbeitung von Bilddaten und Fahrerassistenzsystem für ein Fahrzeug | |
| EP4285327A1 (de) | Vorrichtung und verfahren zur korrespondenzanalyse in bildern | |
| EP1205765B1 (de) | Verfahren zur Leitungserkennung für tieffliegende Fluggeräte | |
| DE4437385A1 (de) | Verfahren und Vorrichtung zur Bildkorrektur | |
| DE102021002363B3 (de) | Gerät für eine lageunabhängige optische Oberflächeninspektion | |
| EP3907466A1 (de) | 3d-sensor und verfahren zur erfassung von dreidimensionalen bilddaten eines objekts |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8100 | Publication of patent without earlier publication of application | ||
| D1 | Grant (no unexamined application published) patent law 81 | ||
| 8364 | No opposition during term of opposition | ||
| 8339 | Ceased/non-payment of the annual fee |