[go: up one dir, main page]

DE19509277C1 - Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen - Google Patents

Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen

Info

Publication number
DE19509277C1
DE19509277C1 DE19509277A DE19509277A DE19509277C1 DE 19509277 C1 DE19509277 C1 DE 19509277C1 DE 19509277 A DE19509277 A DE 19509277A DE 19509277 A DE19509277 A DE 19509277A DE 19509277 C1 DE19509277 C1 DE 19509277C1
Authority
DE
Germany
Prior art keywords
intensity
modulated
derivatives
determination
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19509277A
Other languages
English (en)
Inventor
Hans-Otto Dr Carmesin
Christoph Herwig
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CARMESIN HANS OTTO DR
Original Assignee
CARMESIN HANS OTTO DR
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CARMESIN HANS OTTO DR filed Critical CARMESIN HANS OTTO DR
Priority to DE19509277A priority Critical patent/DE19509277C1/de
Priority to PCT/DE1996/000209 priority patent/WO1996024116A1/de
Application granted granted Critical
Publication of DE19509277C1 publication Critical patent/DE19509277C1/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen, das die folgenden Schritte umfaßt:
  • - Messung von Sensordaten yi in Form von Tupeln mit mindestens einer Komponente und daraus Erhebung von Eingangsdaten zum Zweck der Bestimmung von gewünschten Ausgabesignalen xk mit Hilfe eines funktionalen Zusammenhanges 0=Fi(yi, x);
  • - Bestimmung der in der Fehlerfortpflanzung im Rahmen einer linearen Näherung vorkommenden praktisch bestimmbaren partiellen Ableitungen
Eine automatische Steuerung benötigt i. allg. Sensordaten zur Bestimmung möglichst zuverlässiger und präziser Steuersignale. Alle Sensordaten sind mit einer begrenzten Meßgenauigkeit behaftet. Es stellt sich daher die Frage, auf welche Weise man mit einer begrenzten Meßgenauigkeit erhobene Sensordaten yi automatisch auswählt und kombiniert, um möglichst zuverlässige und präzise Daten xk als Steuersignale oder zur unmittelbaren Bestimmung von Steuersignalen bereitszustellen. Dies heißt, häufig werden Sensorsignaldaten erhoben, welche nicht direkt die gewünschte Information bereitstellen. Klassisch wird dieses Problem in der Numerik mittels Ausgleichsrechnung (J. Stoer, Einführung in die Numerische Mathematik I, Springer Verlag, 3. Auflage, Berlin, 1979) behandelt. Hier wird genau das Problem bearbeitet, wie eine interessierende Größe bestimmt werden kann, ohne daß es möglich ist, sie direkt zu messen. Man geht auf folgende indirekte Weise vor: Statt der gesuchten Größe mißt man eine andere, leichter der Messung zugängliche Größe, welche auf eine bekannte gesetzmäßige Art und Weise von der gesuchten Größe abhängt. Man führt eine Anzahl von Messungen durch, mißt die zugehörigen Resultate und stellt ein Gleichungssystem auf. Üblicherweise handelt es sich dabei um ein über- bzw. unterbestimmtes Gleichungssystem, außerdem sind die Meßwerte typischerweise mit Meßfehlern behaftet. Die Aufgabe besteht dann darin, dies Gleichungssystem, wenn schon nicht exakt, so doch "möglichst gut", zu lösen. Als Gütemaß für die Schätzung der gesuchten Parameter wird gewöhnlich die maximale Abweichung bzw. die Summe der quadratischen Abweichungen verwendet. Übertragen auf die z. B. bei einer Robotersteuerung bekannte Aufgabe, indirekt die Relativpositionen und -bewegungen aus den direkt vorliegenden Bilddaten eines bildgebenden Sensors zu bestimmen, bestehen die Meßorte aus benachbarten Bildpunkten und die Messung entspricht der Erhebung von Intensitäten und der Berechnung der Intensitätsgradienten. Ziel ist die Erzeugung des maximalen Informationsgewinns aus den vorliegenden Sensorsignaldaten.
Mit einem derartigen gattungsgemäßen Verfahren kann z. B. das als "Structure from Motion" bekannt gewordene Problem gelöst werden. Es kann allgemein wie folgt formuliert werden. Gegeben sei eine Bildsequenz, welche durch einen monokularen Beobachter aufgenommen wurde; rekonstruiere hieraus sowohl die Form und relative Tiefe der Objekte in der Szene als auch die relative dreidimensionale Rotations- und Translationsbewegung gegenüber sich unabhängig vom Beobachter bewegenden Objekten.
Das Problem kann grundsätzlich von den "visuellen" Sensoren auf die allgemeine Klasse der "bildgebenden Sensoren" erweitert werden. Wichtig ist hierbei nur die hohe Auflösung zur Gewinnung dichter und damit lokal auswertbarer Daten und die Kenntnis der zugrundeliegenden projektiven Abbildungsgeometrie. Der für visuelle Sensoren verwendete Ausdruck der Messung von "Intensitäten kann auf alle Sensoren, die als Ziel die Erfassung von Oberflächenreflexionseigenschaften haben (wie z. B. Sensoren für die verschiedenen Wellenlängenbereiche), erweitert werden.
Der oben genannte Schwerpunkt auf "monokulare" Bildfolgen kann gelockert werden, wenn die dreidimensionale Orientierung und Position der Sensoren (und damit die Korrespondenz der einzelnen Bildelemente) bekannt ist. Die Tiefeninformation kann zumindest bis zu einer Entfernung von etwa 5 m auch binokular, d. h. durch Methoden des Stereosehens, gewonnen werden. Auch sind hochauflösende "aktive" Sensoren, z. B. 2D Laserscanner, wie sie in Zukunft aufgrund ihrer zunehmend kompakteren Bauweise den Robotikbereich revolutionieren werden, zur Gewinnung der punktweisen Tiefeninformation denkbar.
Um die Problematik systematisch und konkret zu erschließen, sollte man sich zunächst bewußt machen, daß alle Verfahren prinzipiell letztlich auf Hypothesen beruhen. Dabei stellt sich die Frage, inwieweit diese praktisch immer erfüllt sind oder künstlich leicht erfüllbar gemacht werden können. Als typische praktisch allgemeingültige Hypothesen gelten:
  • - Intensitätskonstanz: Die Intensität eines Objektpunktes ändert sich nicht von Bild zu Bild,
  • - die Objekte werden mit Lambertoberflächen modelliert, d. h. die Intensität ändert sich nicht bei wechselndem Beobachterstandpunkt,
  • - die Szene setzt sich aus Festkörpern, d. h. nichtdeformierbaren Objekten zusammen.
Unter den hochauflösenden Sensoren sind Verfahren mit dem Einsatz von Kameras am besten erforscht. Daher soll prototypisch im folgenden auf den Stand der Technik in der Bildverarbeitung eingegangen werden.
Die Forschung auf dem Gebiet der visuellen Bewegungswahrnehmung verlief im wesentlichen in drei Stufen (C. Fermüller. Navigational Preliminaries. In Y. Aloimonos, (Hrsg.), Active Perception, Kapitel 3, Seiten 103-150, Lawrence Erlbaum, 1993). Zunächst wurde überhaupt nach Lösungen für das "Strukture from Motion" Problem gesucht. Später beschäftigte man sich mit der Auflösung von verfahrensbedingten Mehrdeutigkeiten in den erzeugten Lösungen. Heute steht die Suche nach robusten Lösungen im Vordergrund welche Sicherheitsaspekte insbesondere im Zusammenhang mit der Anwendung (z. B. mobiler Robotik, siehe unten) berücksichtigen. In Bezug auf Sicherheitsaspekte sind heuristische Verfahren grundsätzlich problematisch. Schließlich müssen die Verfahren bei vielen Anwendungen, etwa in der Robotik, nicht nur sicher sein, sondern auch in Echtzeit und Rechenzeit schnell arbeiten und dabei ein hohes Auflösungsvermögen gewährleisten.
Traditionell wird das Problem als eine wesentliche Teilaufgabe genereller Sehsysteme, d. h. solcher mit universeller Einsetzbarkeit zur Lösung allgemeiner visueller Probleme, betrachtet. Deren Ziel besteht insbesondere darin, die Szene komplett zu rekonstruieren (D. Marr, Vision, W. H. Freeman, San Francisco, CA, 1982 und B. K. P. Horn, Robot Vision, MIT Press und McGraw-Hill, 1986). Diese Rekonstruktionsansätze sind vielfältig und die Mehrheit läßt sich durch den folgenden modularen und hierarchischen Aufbau beschreiben (Y. Aloimonos, (Hrsg.), Active Perception. Computer Vision, Lawrence Erlbaum, 1993):
  • 1. Berechnung des optischen Flußfeldes, d. h. die Projektion der Bewegung der Szene relativ zum Beobachter auf die Kamera.
  • 2. Segmentierung des Flußfeldes in Bereiche unterschiedlicher Relativbewegungen. Daraus Berechnung der 3D-Bewegungen.
  • 3. Flächendeckende Berechnung der relativen Tiefen und damit der Objektoberflächennormalen, d. h. der Szenenstruktur.
Beispiele dieser Verfahren finden sich in (S. Ullman, The Interpretation of Visual Motion, MIT Press, Cambridge, USA, 1979, H.C. Longuet-Higgins, A computer algorithm for reconstructing a scene from two projections, Nature, 293: 133-135, September 1981, G. Adiv, Determining three-dimensional motion and structure from optical flow generated by several moving objects. IEEE Transactions on Pattern Analysis and Machine Intelligence, 7(4): 384-401, Juli 1985, M.E. Spetsakis und J.Y. Aloimonos. Structure from motion using line correspondences. Int. J. of Computer Vision, 4: 171-183, 1990). Kein robustes und schnelles Verfahren befindet sich im industriellen Einsatz.
Seit kurzer Zeit wird auf dem Forschungsgebiet der Bildverarbeitung der Sinn des Strebens nach der Entwicklung genereller Sehsysteme in Frage gestellt. Als alternative Aufgabenstellungen schlägt Aloimonos (Y. Aloimonos, (Hrsg.), Active Perception, Computer Vision, Lawrence Erlbaum, 1993) die Entwicklung aufgabengetriebener Sehsysteme vor, welche allgemeine statt spezielle Annahmen über die Szene machen, nur teilweise statt komplett rekonstruieren und spezielle statt allgemeine Probleme zu lösen versuchen (Y. Aloimonos, E. Rivlin und L. Huang, Designing Visual Systems: Purposive Navigation. In Y. Aloimonos, (Hrsg.), Active Perception, Kapitel 2, Seiten 47-102, Lawrence Erlbaum, 1993). Die meist aufwendige, fehlerbehaftete und/oder mit Heuristiken verbundene Berechnung der optischen Flußfelder (J.L. Barron, D.J. Fleet und S.S. Beauchemin, Systems and experiment: Performance of optical flow techniques, Int. J. of Computer Vision, 12(1): 43-77, 1994) könnte dabei z. B. umgangen werden.
Ein wichtiges Anwendungsgebiet des gattungsgemäßen Verfahrens liegt z. B. im Einsatz in Robotersystemen. Hier ist für die elementar wichtige Aufgabe des kollisionsfreien Manövrierens eine vollständige Rekonstruktion der Szene nicht notwendig. Für eine erfolgreiche Hindernisvermeidung muß lediglich die eigene Reaktionszeit mit der Zeit bis zu einer potentiellen Kollision in Beziehung gesetzt werden. Im Hinblick auf eine geforderte rechtzeitige Reaktion auf Gefahrensituationen ist es zudem notwendig echtzeitfähige Verfahren zu entwickeln und einzusetzen. Echtzeitfähig in diesem Kontakt bedeutet, daß der Roboter sich in üblichen Geschwindigkeiten bewegen kann. Damit scheiden rechenintensive Verfahren aus. Auch wenn die für heutige Verhältnisse schnelle Bildverarbeitungshardware eingesetzt wird, so stößt man doch schnell an die Grenzen.
Sicheres Manövrieren wird heute oft durch Telemanipulation, d. h. der Steuerung der Roboter unter direkter menschlicher Kontrolle, und durch in den Boden eingelassene Führungen erreicht. In Zukunft sind autonome Roboter gefragt, welche sich auch in unstrukturierter Umgebung zuverlässig bewegen. Zwei Ansätze werden verfolgt (C.E. Thorpe, Mobile robots, Int. Journal of Pattern Recognition and Artificial Intelligence, 5(3): 383-397, 1991): Erstens Szenenmanipulation durch Positionieren von Landmarken, zweitens Einsatz von Sensoren zum Aufbau interner Karten.
Die industriell eingesetzte aktive Sensorik beschränkt sich meist auf niedrigauflösende Sensorik wie Ultraschall und Infrarot und teure 1D-Laserscanner. Der Einsatz von hochauflösender Sensorik ist im Industriebereich heutzutage noch selten und nur in äußerst kontrollierten Umgebungen der Fall. Dabei bieten insbesondere die zunehmend kostengünstigeren Kameras eine ausreichende Auflösung und die Möglichkeit der zusätzlichen Extraktion weiterer Information wie z. B. die der Relativbewegung. In der Forschung ist der Einsatz von Kameras für die mobile Robotik populär, jedoch mangelt es an robusten Verfahren.
Aus dem Stand der Technik sind Verfahren zur Auswertung von Sensordaten bekannt, die die Durchführung von Ausgleichsrechnungen umfassen. Mit Ausgleichsrechnungen ist jedoch der Nachteil verbunden, daß Willkürentscheidungen bezüglich von Wichtungsfaktoren in die Rechnungen einfließen und zu einer z. B. für Robotersteuerungen ungenügenden Genauigkeit hinsichtlich der Ausgabesignale führen.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Verfügung zu stellen, das vorgegebene Gleichungen, die mit konstanter Meßgenauigkeit gemessene Größen und gewünschten Größen in Beziehungen setzen, so kombiniert, daß für die gewünschten Größen der Informationsgewinn maximal wird, d. h., daß die Ausgabesignale mit einer höheren Genauigkeit als z. B. bei Verwendung von Ausgleichsrechnungen bestimmbar werden.
Erfindungsgemäß wird diese Aufgabe gelöst durch Einlesen positiver Nützlichkeitsparameter vk, welche die Genauigkeitsprioritäten eines Benutzers hinsichtlich der gewünschten Ausgabesignale xk charakterisieren, und Einlesen mindestens einer bereitgestellten Meßgenauigkeit.
Gemeinsame Bestimmung der Ausgabesignale xk und der adaptierten Wichtungsfaktoren γj derart, daß ein summierter quadratischer Fehler bei Verwendung der adaptierten Wichtungsfaktoren die Beziehung Σiγii (yi, x) = minimal nahezu erfüllt und der wesentliche Informationsgewinn W = Σkvklog₂ = maximal nahezu erfüllt ist, woei Σjγj = konstant einzuhalten ist.
Dabei kann vorgesehen sein, daß
  • - die Sensordaten yi Intensitäten I(x, y, t) an Bildpunkten (x, y) zu Zeitpunkten t eines bildgebenden Sensors entsprechen, wobei die Indizes i der Sensordaten yi Tripel (x, y, t) darstellen,
  • - die gewünschten Größen x₁, x₂, x₃, x₄, x₅ und x₆ jeweils einer x-Rotation, y- Rotation, z-Rotation, tiefenskalierten x-Translation, tiefenskalierten y-Translation und tiefenskalierten z-Translation zwischen beliebigen Objekten und dem bildgebenden Sensor anhand einer Bildsequenez entsprechen, und
  • - die Funktionen Fi entsprechend der Geometrie des bildgebenden Sensors und unter der Voraussetzung, daß die Gesamtintensität von Objekten konstant bleibt, aufstellbar sind,
  • - ferner eine Erhebung von räumlichen und zeitlichen Intensitätsableitungen Ix, Iy und It der Intensitäten I(x, y, t) an den Bildpunkten (x, y) des bildgebenden Sensors als Eingangsdaten vorgenommen wird,
  • - ferner eine gewährleistete relative Meßgenauigkeit des Sensors,
  • - Nützlichkeitsparameter vk für die Bewegungsgrößen x₁, x₂, x₃, x₄, x₅, x₆ und
  • - zusätzlich Bildregionen eingelesen werden, und
  • - zur Bestimmung der Relativrotationen und tiefenskalierten Translationen Wichtungsmuster übernommen werden.
Weiterhin kann vorgesehen sein, daß die Erhebung der räumlichen und zeitlichen Intensitätsableitungen mittels der folgenden Schritte durchgeführt wird:
  • - Messung der Intensitätsverteilungen I(x, y, t) an Bildpunkten (x, y) einer Bildfläche des bildgebenden Sensors zu mindestens zwei aufeinanderfolgenden Zeitpunkten t,
  • - Bildung der zugehörigen Intensitätsableitungen Ix, Iy und It der Intensitätsverteilungen nach den Bildpunktkoordinaten x, y aus mindestens zwei benachbarten Bildpunkten bzw. nach der Zeit t aus mindestens zwei aufeinanderfolgenden Bildpunkten.
Alternativ dazu kann vorgesehen sein, daß die Erhebung der räumlichen und zeitlichen Intensitätsableitungen mittels der folgenden Schritte durchgeführt wird:
  • - unmittelbare Umsetzung der gemessenen Intensität I(x, y, t) durch einen herkömmlichen elektronischen analogen Differentiatorschaltkreis in die partielle zeitliche Ableitung , wobei zur zusätzlichen Messung der räumlichen Intensitätsableitungen und dem bildgebenden Sensor hochfrequente Mikrobewegungen, sogenannte Mikrosakkaden, aufgeprägt werden.
Ferner kann dazu vorgesehen sein, daß die Mikrosakkaden durch Plazierung eines piezo- elektrisch gesteuerten Spiegels im parallelen Strahlengang des einfallenden Bildes erzeugt werden.
Andererseits kann auch vorgesehen sein, daß die Mikrosakkaden durch Plazierung brechungsindexvariierender Flüssigkristalle im parallelen Strahlengang des einfallenden Bildes erzeugt werden.
Alternativ dazu kann vorgesehen sein, daß die Mikrosakkaden durch mechanische, magnetisch getriebene Oszillationen eines Spiegels im parallelen Strahlengang des einfallenden Bildes erzeugt werden.
Weiterhin kann alternativ dazu auch vorgesehen sein, daß die Mikrosakkaden durch piezoelektrisch gesteuerte Oszillationen eines bildgebenden Chips realisiert werden.
In einer besonderen Ausführungsform der Erfindung kann vorgesehen sein, daß der bildgebende Sensor zusätzlich die Signallaufzeit für die doppelte Wegstrecke von dem bildgebenden Sensor zu einem auf den Bildpunkt (x, y) projizierten Objekt bestimmt.
Vorzugsweise werden zusätzlich Mustermarkierungen in der Szene verwendet.
Weiterhin kann vorgesehen sein, daß die Wichtungsmuster anhand des maximalen wesentlichen Informationsgewinnes bestimmt sind.
Alternativ dazu kann vorgesehen sein, daß die Wichtungmuster anhand des ausgewählten Bildmaterials vorab bestimmt werden, wobei eine Klassifikation der möglichen gemessenen Intensitäten und eine Bestimmung eines Wichtungsmusters mit relativ hohem wesentlichen Informationsgewinn für jede Klasse vorgenommen wird.
Ferner kann auch vorgesehen sein, daß die Wichtungsmuster anhand einer Transformation der gemessenen Intensitätsgradienten auf eingelesene Zielmuster bestimmt werden, wobei dies die folgenden Schritte umfaßt:
  • - Einlesen von speziellen Verfahrensparametern, wie konjugierten Bildpunkten, Zielmustern, modulierten Multipolen und symmetriesierten modulierten Multipolgleichungen,
  • - Umsetzung der speziellen Verfahrensparameter, die eine Bestimmung der Symmetriefaktoren Pq, eine Berechnung der Symmetriekoeffizienten ax q, bx q, cx q, dx q, ax q, by q, cy q, dy q, at q, bt q, ct q und dt q für die ausgewählten Multipole, eine Bestimmung von Konjugationsfaktoren und eine Bestimmung der ausgewählten transformierten modulierten Multipole für die Intensitätsgradienten Ix und Iy aus den ausgewählten Zielmustern umfaßt,
  • - Tranformation der gemessenen Intensitätsgradienten auf linear kombinierte Intensitätsgradienten mit der Zielmusterorientierung durch Berechnung der Linearfaktoren αk(j) für jeden konjugierten Bildpunkt eines Bildregionpunktes,
  • - Bestimmung von Normierungsfaktoren ps j anhand einer Transformation der linear kombinierten Intensitätsgradienten auf das Zielmuster durch Normieren des linear kombinierten Intensitätsgradienten entsprechend dem Zielmuster,
  • - Bestimmung der transformierten modulierten Multipole für zeitliche Intensitätsableitungen It durch Bestimmung der effektiven zeitlichen Intensitätsableitungen aus den gemessenen zeitlichen Intensitätsableitungen, den Linearfaktoren und den Normierungsfaktoren, Bestimmung der zeitlichen transformierten modulierten Multipolelemente aus den effektiven zeitlichen Intensitätsableitungen, Aufsummieren der transformierten modulierten Multipolelemente zu den transformierten modulierten Multipolen für die zeitlichen Intensitätsableitungen und Aufstellen der ausgewählten symmetrisierten modulierten Multipolgleichungen aus den transformierten modulierten Multipolen für die Intensitätsableitungen Ix, Iy und It.
Weiterhin kann auch vorgesehen sein, daß separat eine Bestimmung der x-Rotation, y- Rotation und der tiefenskalierten z-Translation und dann der z-Rotation, tiefenskalierten x-Translation und tiefenskalierten y-Translation vorgenommen wird.
Weiterhin kann auch vorgesehen sein, daß gewünschte relative Genauigkeiten qk = mittels der folgenden Schritte in Nützlichkeitsparameter umgesetzt werden:
  • - Einlesen der gewünschten Genauigkeiten qk,
  • - Bestimmung der vk durch vk = v₁.
Schließlich kann auch vorgesehen sein, daß die gemeinsame Optimierungsaufgabe der Minimierung von Σiγii(yi, x) und der Maximierung des wesentlichen Informationsgewinnes durch folgende Schritte vorab gelöst wird:
  • - Charakterisieren aller möglichen Konfigurationen der Eingangsdaten.
  • - Auswahl von repräsentativen Konfigurationen der Eingangsdaten.
  • - Für jede repräsentative Konfiguration der Eingangsdaten Lösung der Optimierungsaufgabe der gemeinsamen Bestimmung der gewünschten Daten xk und der Wichtungsfaktoren γj, wobei gilt Σjγj = konstant und Σiγii(yi, x) nahezu minimal, sowie Σkvklog₂ nahezu maximal.
  • - Erstellung einer Klassifikation aller möglichen Konfiguration der Eingangsdaten mit jeweils einer repräsentativen Konfiguration pro Klasse.
  • - Für jede Klasse Zuordnung der Lösung der Optimierungsaufgabe der zugehörigen repräsentativen Konfiguration.
  • - Erstellung einer Datei mit dieser Zuordnung.
Der Erfindung liegen folgende ineinandergreifende Erkenntnisse zur Verwendung von Sensordaten yi für eine automatische Generierung von Steuersignalen zugrunde: Generell verwendet man bei einer automatischen Steuerung Sensoren, um Rückschlüsse von den Sensordaten auf die zugehörigen Teile der Außenwelt zu erzielen. In dem Maße, in dem diese Rückschlüsse mit entsprechenden Tatsachen der Außenwelt übereinstimmen, stellen sie eine Information dar. Information wird üblicherweise durch die Anzahl der Binärstellen einer Binärzahl bemessen. Entsprechend wird hier die für einen solchen Rückschluß gewonnene Information eingeführt als die Anzahl der zuverlässig berechneten Binärstellen einer (oder mehrerer) den Rückschluß beschreibenden Binärzahl(en) xk. Weiterhin entsprechend wird hier für ein Verfahren zur Auswertung von Sensordaten gefordert, daß der Informationsgewinn bezüglich der interessierenden Rückschlüsse, der sogenannte wesentliche Informationsgewinn, maximal wird. Hierbei ist es essentiell, die in den gemessenen Größen enthaltene Information über die gemessenen Größen zu unterscheiden von der aus den gemessenen Größen gewinnbaren Information über die interessierenden Rückschlüsse. Denn einerseits unterscheiden sich die Information über die Meßgrößen und die gewinnbare Information quantitativ i. allg. sehr; andererseits erfordert ein Rückschluß prinzipiell immer eine eigene zugrundeliegende Theorie (hier ist diese durch die Funktionen Fi ausgedrückt).
Falls die relativen Meßgenauigkeiten der Sensordaten einigermaßen gutartig sind, so läßt sich der durch die Funktionen Fi zu den berechneten Daten xk fortgepflanzte Meßfehler angemessen im Rahmen der linearen Fehlerfortpflanzungstheorie bestimmen. Hierdurch kann man die zu erwartenden relativen Fehler der berechneten Größen xk aus den zu erwartenden relativen Fehlern der gemessenen Größen yi bestimmen. Hieraus kann man den wesentlichen Informationsgewinn aus den zu erwartenden relativen Fehlern der gemessenen Größen yi bestimmen.
Weiterhin kann man die gemessenen Sensordaten yi entsprechend Wichtungen γi berücksichtigen, und den wesentlichen Informationsgewinn aus den zu erwartenden relativen Fehlern der gemessenen Größen yi zusammen mit den Wichtungen γi bestimmen. Schließlich kann man die Wichtungen und die berechneten Größen zugleich so bestimmen, daß sowohl der wesentliche Informationsgewinn praktisch maximal wird, als auch der mittlere quadratische Fehler Σiγii(yi, x) praktisch minimal wird. Auf diese Weise kann man die gewünschten Größen xk mit maximalem Informationsgewinn berechnen.
Dieser Ansatz der Maximierung des wesentlichen Informationsgewinns kann in einer besonderen Ausführungsform gemäß Anspruch 2 für den wissenschaftlich und wirtschaftlich wichtigen Fall der Bewegungsbestimmung verwendet werden. Hierbei sind die Rückschlüsse über Bewegungen relativ schwierig zu gewinnen, weil die gemessenen Intensitäten ein Signal darstellen, aus dem zwar relativ unmittelbar Information über die Helligkeit von Objekten in der Außenwelt erschlossen werden kann, aus dem aber nur mit Hilfe relativ kleiner Differenzen oder Differentiale Information über die relative Bewegung von Objekten in der Außenwelt erschlossen werden kann. Daher ist es gerade hier besonders wichtig, ein Verfahren anzuwenden, das den (interessierenden) wesentlichen Informationsgewinn (hier über Bewegung) praktisch maximiert.
Zu diesem Zweck werden Meßgrößen naheliegender Bildpunkte einer sogenannten Bildpunktregion verwendet. Für jeden dieser Bildpunkte können mit Hilfe der gemessenen Intensitäten bzw. Intensitätsableitungen, unter der plausiblen Annahme konstanter Gesamtintensität und entsprechend der Projektionsgeometrie des bildgebenden Sensors lineare Gleichungen für die Rotationen und tiefenskalierten Translationen aufgestellt werden. Man kann die obigen Gleichungen beliebig auswählen, wichten und additiv kombinieren, ohne die Meßgenauigkeit effektiv zu beeinträchtigen; aber durch solche Gleichungskombination läßt sich der wesentliche Informationsgewinn maximieren. Damit ist ein Verfahren zur Maximierung des Informationsgewinns etabliert (dies ist unten in mehreren Varianten konkret ausgeführt). Der dabei resultierende maximale Informationsgewinn hängt schließlich noch von der anfänglichen Meßgenauigkeit der durch den bildgebenden Sensor gemessenen Daten ab. Um diese Meßgenauigkeit zu erhöhen, kann man die zeitlichen Intensitätsableitungen durch einen elektronischen Differentiator bestimmen, und die räumlichen durch zusätzliche Anwendung sogenannter Mikrosakkaden.
Insgesamt liegt dem hier entwickelten Verfahren die grundlegende Einsicht zugrunde, daß man das sogenannte Ausgleichsproblem (J. Stoer. Einführung in die Numerische Mathematik I. Springer Verlag, 3. Auflage, Berlin, 1979.) durch gewichtete Gleichungskombination abwandeln kann (dies ist als neutral für die Ergebnisse anzusehen, solange kein zusätzliches a priori Wissen verfügbar ist), und daß man dabei den wesentlichen Informationsgewinn maximieren kann. Dabei versteht man unter der Ausgleichsrechnung die Bestimmung von gewünschten Größen xk (die einen Vektor x etablieren) aus gemessenen Größen yi aufgrund eines funktionellen Zusammenhanges Fi(yi,x) = fi(x)-yi = 0 mit geringstem quadratischen Fehler
Zunächst haben wird das Ausgleichsproblem dadurch abgewandelt, daß die Funktionen Fi nicht notwendig die Form fi(x)-yi haben müssen. Aufgrund der Hypothese konstanter Meßgenauigkeit haben wir dies Ausgleichsproblem durch optimal adaptierte Wichtungsfaktoren γi dahingehend abgewandelt, daß erstens die gesuchten Größen xk mit geringstem quadratischen Fehler bestimmt sind
und daß zweitens dabei der wesentliche Informationsgewinn maximal wird
Die mit der Erfindung erzielten Vorteile sind in den folgenden drei Listen genannt. Die allgemeinen durch die Erfindung in Bezug auf maximierten Informationsgewinn erzielten Vorteile sind:
  • 1. Man kann gewünschte Daten indirekt durch Messungen anderer Daten vermittelt durch Relationen gewinnen, und dabei den Informationsgewinn bezüglich der gewünschten Daten durch eine optimal adaptierte Kombination der Meßdaten und der Relationen maximieren.
  • 2. Dabei kann man von den gewünschten Daten besonders wichtige durch einen Nützlichkeitsfaktor in einem sogenannten wesentlichen Informationsgewinn hervorheben, den wesentlichen Informationsgewinn maximieren, und so die hervorgehobenen gewünschten Daten besonders genau und zuverlässig, d. h. mit besonders hohem Informationsgewinn, bestimmen. So kann man etwa bei der automatisch gesteuerten Landung eines Flugzeuges die relevantere Höhe genauer bestimmen als die irrelevantere seitliche Abweichung.
Die allgemeinen durch die Erfindung erzielten Vorteile sind (siehe hierzu auch Fig. 1):
  • 1. Das Verfahren ist allgemein auf die Klasse der bildgebenden Sensoren mit projektiver Abbildungseigenschaft anwendbar.
  • 2. Das Verfahren ist echtzeitfähig, etwa durch mögliche Trennung von Offline Kalibration der Verfahrensparameter von der Online Auswertung.
  • 3. Das Verfahren ist interpretierbar als komplett adaptiver Kalibrator mit maximalem Informationsgewinn.
  • 4. Durch die Bereitstellung von dichten Daten durch den bildgebenden Sensor ist es möglich, den wesentlichen Informationsgewinn durch Auswahl und Wichtung von Sensordaten zu maximieren.
  • 5. Der erzielte wesentliche Informationsgewinn wird explizit bestimmt, d. h. es wird eine Sicherheitsgarantie für die entsprechenden Binärstellen der bestimmten Größen bereitgestellt.
    In besonderen Ausführungsformen ergeben sich darüber hinaus weitere Vorteile.
  • 6. Durch völlig lokale Verarbeitung von Intensitäten wird die relative Rotation und die tiefenskalierte Translation zwischen dem bildgebenden Sensor und einem beliebigen Objekt eindeutig bestimmt.
  • 7. Und zwar wird diese Relativbewegung lokal, ohne Iteration, eindeutig und schnell bestimmt.
  • 8. Man kann Bildpunkte mit der gleichen Relativbewegung als einheitliche Objekte interpretieren und somit größere Objekte anhand bestimmter Relativbewegungen aus Bildpunkten zusammenbinden.
  • 9. Bei Verwendung mehrerer lokaler Bereiche des gleichen Objekts ergibt sich redundante Information, mit der die Relativbewegung durch gekoppelte lineare Gleichungen besonders robust beestimmt werden kann.
  • 10. Darüber hinaus kann die Szenenstruktur für jeden Bildpunkt durch sogenannte tiefenskalierte Translationen flächendeckend bestimmt werden. Die so bestimmte Szenenstruktur ist durch die lokale Verarbeitung hochauflösend. Diese Szenenstruktur läßt sich mit dem Verfahren auch ohne vorherige Bestimmung der Relativbewegung separat bestimmen; somit ist das Verfahren in selbstständige Teile gegliedert.
  • 11. Falls in der Szene bewegte Objekte mit Mustermarkierungen sind, so können durch das Verfahren hieraus die zugehörigen relativen Rotationen und tiefenskalierten Translationen sicher innerhalb einer eindeutig bestimmten Fehlertoleranz bestimmt werden.
  • 12. Mit dem Verfahren kann durch völlig lokal moduliert gemittelte Intensitätsbleitungen die obige Relativbewegung durch lineare Gleichungen sukzessive bestimmt werden. Daher wird diese Relativbewegung völlig lokal und ohne Iteration besonders schnell und funktional transparent bestimmt.
  • 13. Insbesondere ist bei dem Verfahren keine Flußfeldbestimmung nötig, d. h. wir verwenden ein sogenanntes direktes Verfahren.
  • 14. Um besonders robuste und sichere Verarbeitung zu ermöglichen, können Bildbereiche mit anisotrop radialen Intensitätsgradienten, sogenannte Sternmuster (siehe Fig. 6), erkannt und verwendet werden.
  • 15. Dies Verfahren kann nicht nur durch Verwendung von Sternmustern, sondern auch durch Verwendung anderer Muster etwas begünstigt werden. Und zwar können diese so bestimmt werden, daß der wesentliche Informationsgewinn maximal wird.
  • 16. Falls bildgebende Sensoren zusätzlich die Tiefeninformation liefern, kann statt einer tiefenskalierten Translation die relative Translation bestimmt werden. Insgesamt ist dann die Relativposition und -bewegung hochauflösend und zuverlässig bestimmt.
  • 17. Durch Verwendung von analogen Differentiatoren und Ausführung von Mikrobewegungen ("Mikrosakkaden") des Sensors ist es möglich, die Intensitätsgradienten ohne Diskretisierungsfehler, d. h. mit besonders geringen relativen Meßfehlern, zu bestimmen. Als Ausführungsbeispiel kann die Mikrosakkadenbewegung ohne bewegliches Bauteil durch Plazierung eines piezoelektrisch gesteuerten Spiegels im parallelen Strahlengang des einfallenden Bildes realisiert werden (siehe Fig. 2). Die konsequente Verringerung des Meßfehlers ist wesentlich, da das nachfolgende Verfahren ohnehin keine Näherung enthält und zudem den maximalen Informationsgewinn bei gegebenem Meßfehler sicherstellt.
Die durch die Erfindung im Hinblick auf spezielle Anwendungen erzielten Vorteile sind:
  • 1. Das Verfahren ermöglicht generell eine möglichst effiziente Nutzung von Sensordaten zur automatischen Erzeugung von Ausgabesignalen, insbesondere Steuersignalen.
  • 2. Kostenaufwendige Leitsysteme können durch Markierungen, etwa mit anisotrop radialen Intensitätsgradienten in der Szene, sogenannte Sternmustermarkierungen (siehe Fig. 6), oder durch andere Mustermarkierungen kostengünstig substituiert werden.
  • 3. Durch die Verwendung von bildgebenden Sensoren ist die für die sichere schnelle Steuerung unabdingbare hochauflösende Signalaufnahme besonders kostengünstig im Vergleich zu anderen Signalgebern, wie etwa Ultraschall.
  • 4. Verwendete Kameras liefern Bilder, die einem Roboter vielfach nützlich sind, im Gegensatz etwa zur reinen Tiefeninformation eines Laserscanners.
  • 5. Unser funktional transparentes Verfahren ist, z. B. bei Verwendung von Sternmustermarkierungen (oder von ähnlichen in der Szene bereitgestellten Mustermarkierungen), die Grundlage für ein garantiert sicheres Steuerungsverfahren, auch für hohe Geschwindigkeiten des bildgebenden Sensors und/oder bewegter Objekte. Diese hohen Geschwindigkeiten werden auch durch obige Iterationsvermeidung wesentlich gefördert.
Die Durchführung des erfindungsgemäßen Verfahrens erfolgt für den speziellen Fall der Bildverarbeitung mit Hilfe lokaler Bildpunktregionen. Eine Bildpunktregion ist bestimmt durch das Bildpunktregionszentrum hier mit den Koordinaten (xe, ye) bezeichnet, in der Bildebene, sowie durch benachbarte Bildpunkte, hier mit den Koordinaten (xj, yj) bezeichnet (siehe Fig. 3), sogenannte Bildregionpunkte. Die folgenden Verarbeitungsschritte werden ausgeführt:
Weitere Merkmale und Vorteile der Erfindung ergeben sich aus den nachstehenden Beschreibung, in der Ausführungsbeispiele anhand der Zeichnungen im einzelnen erläutert sind. Dabei zeigt
Fig. 1 eine Darstellung des Verfahrensprinzips für das Beispiel der Bewegungsbestimmung,
Fig. 2 Vorschläge zur Mikrosakkadensteuerung,
Fig. 3 eine Bildpunktregion der Größe 5 mal 5 Pixel,
Fig. 4 Faltungsmasken zur Berechnung der Intensitätsableitungen,
Fig. 5 mögliche konjugierte Punkte einer Bildpunktregion,
Fig. 6 die Illustration der Intensitätsverteilung eines sternförmigen und anisotropen Zielmusters,
Fig. 7 die Abbildungsgeometrie der Transformation von 3D Szene auf 2D Bildfläche am Beispiel eines Kameramodells.
Erläuterung zur Frage von a priori Wissen
Der Zweck dieses Verfahrens besteht darin, die Sensordaten von Automaten optimal in Bezug auf die Ausgabesignale, auszuwählen und zu wichten. Dabei wird davon ausgegangen, daß der Automat neben den Sensordaten yi und den funktionalen Relationen Fi keine weiteren Hinweise (sogenanntes a priori Wissen) in Bezug auf die Steuersignale und die anderen Ausgabesignale nutzen kann. Falls irgendwelches Wissen vorläge, so wäre es mittels der Sensordaten yi und der funktionalen Relationen Fi auszudrücken.
Erzeugung maximalen Informationsgewinnes für Ausgabesignale, insbesondere Steuersignale, von Automaten
Eine automatische Steuerung benötigt i. allg. Sensordaten zur Bestimmung möglichst zuverlässiger und präziser Ausgabesignale, insbesondere Steuersignale. Alle Sensordaten sind mit einer begrenzten Meßgenauigkeit behaftet. Es stellt sich daher die Frage, durch welches Verfahren man mit einer begrenzten Meßgenauigkeit erhobene Sensordaten automatisch auswählt und kombiniert, um möglichst zuverlässige und präzise Daten als Ausgabesignale, insbesondere Steuersignale, bereitzustellen. D. h. man möchte gewünschte aber nicht unmittelbar meßbare Daten xk möglichst präzise mittels einer (aus theoretischen Gründen gültigen) funktionalen Relation 0 = Fi(yi, x) aus meßbaren Daten yi bestimmen. Dies heißt, man möchte für die gewünschten Daten xk möglichst viele Binärstellen zuverlässig bestimmen. Es stellt sich also die Frage, welche Meßdaten man hierfür auswählen sollte, und mit welchem Verfahren man die ausgewählten Meßdaten kombinieren sollte, um möglichst viele Binärstellen der gewünschten Daten xk zuverlässig zu bestimmen.
Diese Fragestellung wird zunächst im Rahmen der üblichen Bezeichnungen der Informationstheorie formuliert: Die in einer Binärzahl enthaltene Information in Einheiten von Bit ist gleich der Anzahl der Binärstellen der Zahl. Die durch eine Messung gewonnene Information in Einheiten von Bit ist entsprechend gleich der Anzahl der bei der Messung zuverlässig bestimmten Binärstellen für die gemessene Größe. Wenn bei der Messung die Größe yj gemessen wurde, und wenn dabei der Betrag des Meßfehlers Δyj nicht übersteigt, so ist der relative Fehler
das entsprechende Signal- zu Rausch-Verhältnis ist der Kehrwert
Die Anzahl der zuverlässig bestimmten Binärstellen ist gleich der Differenz aus der Anzahl der bestimmten Stellen und der Anzahl der unzuverlässig bestimmten Stellen, d. h. log₂|yj|-log₂|Δyj|=log₂|yj/Δyj|. Dies ist definitionsgemäß der bei der Messung in bezug auf die gemessene Größe erzielte Informationsgewinn:
Im Zusammenhang mit einer automatischen Generierung von Ausgabesignalen ist man i. allg. jedoch nicht unmittelbar an der gemessenen Größe interessiert, sondern an aus einer oder mehreren gemessenen Größen mit Hilfe funktionaler Relationen 0 = Fi(yi, x) berechneten Größen xk. Für eine solche berechnete Größe xk ist der Informationsgewinn entsprechend durch die Anzahl der zuverlässig bestimmten Binärstellen gegeben.
Bei vielen Fragestellungen ist man nicht einmal an einem möglichst großen Informationsgewinn bezüglich einer jeden aus gemessenen Größen berechneten Größe interessiert, sondern es können bei manchen solchen berechneten Größen womöglich wenige zuverlässig bestimmte Binärstellen genügen, wogegen man bei einer anderen derartigen berechneten Größe womöglich viele zuverlässig bestimmte Binärstellen benötigt. Um solche Fragestellungen kurz auszudrücken, kann man für mehrere berechnete Größen xk einen wesentlichen Informationsgewinn durch ein gewichtetes Mittel aus Informationsgewinnen wie folgt einführen: Vorab werden positive Nützlichkeitswichtungen vk vereinbart mit Σkvk = konstant; der wesentliche Informationsgewinn ist dann
Es stellt sich also hier die Frage, wie man aus den relativen Meßgenauigkeiten die relativen Genauigkeiten der berechneten Größen bestimmt. Für den Fall, daß eine berechnete Größe xk aus gemessenen Größen mit einigermaßen kleinem relativen Fehler bestimmt wird (dies ist praktisch immer der Fall), ist es angemessen, den relativen Fehler der berechneten Größe mittels der linearen Fehlerfortpflanzungstheorie zu bestimmen. Dann ist
Hierbei kann man die partiellen Ableitungen entweder mit Hilfe expliziter Gleichungen bestimmen, oder numerisch durch Bestimmung von xk bei den ym für m≠j und bei yj±Δyj schätzen. Und zwar ist
In jedem Fall erhält man so den wesentlichen Informationsgewinn W explizit als Funktion der Meßgenauigkeiten Δyj durch Einsetzen von Gl. (9) in Gl. (7) wie folgt.
Man kann nun die funktionalen Relationen entsprechend mit geringstem quadratischen Fehler auswerten, und dabei mit Wichtungsfaktoren γi, wobei gilt Σjγj = konstant, wichten. Schließlich kann man mit einem Optimierungsverfahren (etwa mit einem genetischen Algorithmus) gleichzeitig den gewichteten mittleren quadratischen Fehler
minimieren und den wesentlichen Informationsgewinn W (siehe Gl. (10)) maximieren. So erhält man die gewünschten berechneten Größen xk entsprechend ihren Nützlichkeiten vk mit maximalem Informationsgewinn.
Bei dieser Maximierung des Informationsgewinnes können i. allg. die yi Tupel, d. h. Vektoren, aus einzelnen Sensordaten sein. In einem solchen Fall ist anstelle der partiellen Ableitung der Gradient zu bestimmen; und dieser ist mit dem Vektor Δyj skalar zu multiplizieren (siehe Gln. (8) und (10)).
Für den speziellen illustrativen und besonders einfachen Fall, daß alle vk gleich sind, und daß die xk speziell die Steuersignale sind, wird der maximale Informationsgewinn in unmittelbarer Weise die Steuersignale xk erzeugt.
Als besonderes Ausführungsbeispiel wird folgendes angeführt: Um die Komplexität der obigen Optimierungsaufgabe zu verringern, kann man eine Vorauswahl an Sensordaten anhand von allgemeinen Anhaltspunkten und Erfahrungswerten treffen.
Insgesamt werden also die gewünschten, für die Generierung von Steuersignalen relevanten Größen xk mit maximalem wesentlichen Informationsgewinn durch folgende Schritte bestimmt: 1. Messung der Sensordaten yi. 2. Bestimmung der partiellen Ableitungen. 3. Einlesen von Meßgenauigkeiten und Nützlichkeitsparametern. 4. Optimierungsaufgabe lösen, und zwar E in Gl. (11) minimieren und gleichzeitig W in Gl. (10) maximieren durch simultane Variation der gewünschten Größen xk und der Wichtungen γi für die Sensordaten.
Hiermit ist das Verfahren zur Erzeugung maximalen Informationsgewinnes für Ausgabesignale, insbesondere Steuersignale, von Automaten komplett spezifiziert. Im folgenden werden wichtige Anwendungsgebiete des Verfahrens ausgeführt. Diese Ausführungen schränken in keiner Weise die Allgemeinheit des bis hierher komplett dargelegten Verfahrens ein.
Bestimmung der Relativrotationen und der tiefenskalierten Relativtranslationen mit beliebigen Objekten 22 anhand einer Bildsequenz eines bildgebenden Sensors
Dies betrifft besondere Ausführungsformen der Erfindung gemäß den Unteransprüchen. Ein wichtiges Anwendungsgebiet des gattungsgemäßen Verfahrens liegt im Einsatz von Robotersystemen. Hierbei ist die wichtige Aufgabe der Bestimmung von Relativrotationen und von tiefenskalierten Relativtranslationen mit beliebigen Objekten 22 anhand einer Bildsequenz eines bildgebenden Sensors zu lösen.
Vorverarbeitung
Dies betrifft den 4. Unterpunkt von Anspruch 2. Zunächst wird die Vorverarbeitung in zwei Schritten ausgeführt:
  • 1. Ein bewegter bildgebender Sensor erhebt eine Folge entsprechender Intensitätsverteilungen I(x, y, t) an Punkten (x, y) der Bildebene 21 zu Zeitpunkten t.
    Man denke an folgendes Ausführungsbeispiel: um die Intensitätsverteilung für die folgende differentialgeometrische Analyse besonders günstig vorzubereiten, kann man einen Tiefpaßfilter verwenden.
  • 2. Es werden die zugehörigen Intensitätsableitungen Ix, Iy und It der Intensitätsverteilung nach x, y bzw. t bestimmt.
    Man denke an folgende Ausführungsbeispiele:
    • (a) Man kann diese Intensitätsableitungen z. B. aus 2mal 2 oder aus 3mal 3 Bildpunkten zu zwei aufeinanderfolgenden Zeitpunkten bestimmen. (siehe Fig. 4).
    • (b) Bei Objektgrenzen können besonders hohe Ableitungen auftreten. Entsprechend werden Bildpunkte (xk, yk) mit besonders hohen Ableitungen nur bedingt verwendet.
    • (c) Bei homogenen Flächen können besonders niedrige Ableitungen auftreten. Entsprechend werden Bildpunkte (xk, yk) mit besonders niedrigen Ableitungen nur bedingt verwendet.
Vereinfachungen für einen bildgebenden Sensor, die daher rühren, daß bei bildgebenden Sensoren die relativen Meßgenauigkeiten benachbarter Bildpunkte praktisch gleich sind
Weil die Bildpunkte einer Bildpunktregion relativ dicht beieinander liegen, ist es plausibel anzunehmen, daß die relativen Meßfehler der zeitlichen und räumlichen Intensitätsableitungen an diesen Bildpunkten konstant sind. Diese Hypothese wird "error constancy", kurz ERCO genannt. Die ERCO wird wie folgt formuliert:
alles für (xj, yj) & (xk, yk) in gleicher Bildpunktregion. (Selbst wenn die ERCO nur näherungsweise gelten sollte, so ließe sich das präsentierte Verfahren dadurch verallgemeinern, daß man den relativen Meßfehler am Bildpunkt (xj, yj) mittels einer Taylorreihe ausdrückt durch den relativen Meßfehler am Bildpunkt (xk, yk) und durch den Abstandsvektor (xj-xk, yj-yk), denn mit dem repräsentierten Verfahren werden die Bewegungsgrößen explizit durch stetige Funktionen der gemessenen Intensitätsableitungen bestimmt.)
Partielle Ableitungen
Für die Anwendung des gattungsgemäßen Verfahrens der Maximierung des wesentlichen Informationsgewinnes auf den Fall der Bestimmung der Relativrotationen und der tiefenskalierten Relativtranslationen gilt folgende spezielle Betrachtung: Hier ist die berechnete Größe xk mittels linearer Gleichungssysteme bestimmt (siehe Anhang), dies läßt sich wie folgt ausdrücken:
Ax = b.
Zudem sind hier die Meßfehler durch Δ, Δ und ΔIt,j gegeben und bestimmen die Fehler der obigen Inhomogenität und Matrix wie folgt.
ΔAÿ = αÿΔ+ÿΔ.
Δbk = βkΔIt,j.
Der relative Fehler kann mit Hilfe der Pseudoinversen A⁺ folgendermaßen expliziert werden:
Setzt man dies in die obige Gl. (7) ein, so erhält man einen expliziten Ausdruck für den wesentlichen Informationsgewinn als Funktion der gemessenen Intensitätsgradienten inhärent in den Komponenten bj und den Matrixelementen Aÿ und auch als Funktion der sichergestellten Meßgenauigkeiten Δ, Δ und ΔIt,j. Diese explizite Funktion vereinfacht hier speziell die Maximierung des wesentlichen Informationsgewinnes.
Mikrosakkaden
Dies betrifft Anspruch 4. Weil die besondere Ausführungsform des Verfahrens nach Anspruch 2 zur Bestimmung von Relativrotationen und tiefenskalierten Relativtranslationen aus Bildsequenzen bereits den wesentlichen Informationsgewinn bei gemessenen Intensitätsableitungen an den Bildpunkten und bei gegebener Meßgenauigkeit des bildgebenden Sensors maximiert, ist eine weitere Vergrößerung des wesentlichen Informationsgewinns nur durch Verbesserung der Meßgenauigkeit für die gemessenen Intensitätsableitungen möglich. Zu diesem Zweck kann man die Intensitätsableitungen an einzelnen Bildpunkten mit Hilfe eines elektronischen analogen Schaltkreises bestimmen, der als Differentiator arbeitet.
Und zwar liefert ein solcher Differentiator unmittelbar die zeitliche Ableitung der gemessenen Intensität; dies i. allg. genauer als die Bestimmung der zeitlichen Intensitätsableitung durch zwei aufeinanderfolgende Intensitätsmessungen.
Um auch bei der Messung der Intensitätsgradienten die Verwendung zweier, hier benachbarter, gemessener Intensitäten zu eliminieren, kann man den bildgebenden Sensor mit Geschwindigkeiten
effektive Bewegungen, sogenannte Mikrosakkaden 13 (Fig. 2), ausführen lassen.
Hierbei kann man die zeitliche Intensitätsableitung zu einem Zeitpunkt t- sehr kurz vor dem Zeitpunkt t mit einem Differentiator messen, zum Zeitpunkt t und zu einem Zeitpunkt t⁺ sehr kurz nach dem Zeitpunkt t. Dies ergibt mit Hilfe der Kettenregel drei Gleichungen mit den drei Unbekannten
Daraus lassen sich die drei Unbekannten, d. h. die verwendeten Intensitätsableitungen, bestimmen. Die drei Gleichungen lauten
Hierbei ist die plausible Hypothese verwendet, daß It,j, und zu den Zeitpunkten t, t- und t⁺ praktisch gleich sind.
Die obigen Mikrosakkaden 13 müssen physikalisch realisiert werden. Hierzu schlagen wir vier Ausführungsbeispiele vor:
  • 1. Piezoelektrische Aufhängung des bildgebenden Sensors: Man kann die Abmessungen eines piezoelektrischen Bauteils durch Anlegen einer elektrischen Spannung variieren. Somit kann man die Position des bildgebenden Sensors elektrisch unmittelbar variieren, d. h. man kann somit Mikrosakkaden 13 erzeugen (siehe Fig. 2(d)). Dies betrifft Anspruch 8 des Verfahrens.
  • 2. Alternativ können diese Mikrosakkaden 13 an einem gewünschten Bauteil des Sensors ansetzen, etwa an einem (oder zwei) Spiegeln 10 im parallelen Strahlengang 11 (siehe Fig. 2(a)). Dies betrifft Anspruch 5 des Verfahrens.
  • 3. Man kann ein gewünschtes gering bewegliches (etwa ein an einer Stahlmembran aufgehängtes) Bauteil des bildgebenden Sensors, etwa einen Spiegel 14 im parallelen Strahlengang 11, mit Hilfe einer (oder zwei) elektromagnetischen Spule(n) bewegen, d. h. durch magnetische Kräfte (siehe Fig. 2(b)). Dies betrifft Anspruch 7 des Verfahrens.
  • 4. Man kann völlig ohne bewegliches Teil effektiv Mikrosakkaden 13 dadurch erzeugen, daß man bei ein (oder zwei) schräg zum parallelen Strahlengang 11 gestellte(n) Platten aus geeignetem Material (etwa gefüllt mit einem flüssigkristallinen Material 16) den Brechungsindex durch variable anliegende elektrische Spannungen variiert (siehe Fig. 2(c)). Dies betrifft Anspruch 6 des Verfahrens.
Signallaufzeit
Nach Möglichkeit bestimmt der bildgebende Sensor zudem die Signallaufzeit für die doppelte Wegstrecke vom Sensor zu einem auf dem Bildpunkt (x, y) projizierten Objekt 22. Hieraus und aus der Signalausbreitungsgeschwindigkeit wird die Objektsensordistanz d(x, y) bestimmt. Hieraus und aus (x, y) wird mit Hilfe geometrischer Relationen die Objektposition bestimmt, einschließlich der Tiefe. Dies betrifft Anspruch 9 des Verfahrens.
Dies hat folgende Fallunterscheidung zur Konsequenz: In der besonderen Ausführungsform des Verfahrens nach Anspruch 2 kann in jedem Fall die Relativrotation und die tiefenskalierte Relativtranslation des Objektes 22 aus den gemessenen Intensitätsableitungen Ix, Iy und It bestimmt werden. Falls der Sensor zusätzlich die obige Laufzeit bestimmt, so kann aus der tiefenskalierten Relativtranslation zusammen mit der Tiefe auch die unmittelbare Relativtranslation bestimmt werden. Insgesamt ist dann die komplette Relativposition- und bewegung zwischen dem bildgebenden Sensor und einem beliebigen Objekt 22 bestimmbar.
Mustermarkierungen
Mustermarkierungen in der Szene werden verwendet, falls eine Sicherheitsgarantie für die Erkennung von Objekten 22 gewünscht ist (siehe z. B. Fig. 6). Dies betrifft Unteranspruch 10.
Zur Bestimmung der Wichtungsmuster
Die Bestimmung der Wichtungsmuster γi benötigt i. allg. relativ viel Rechenzeit, da eine Optimierungsaufgabe zu lösen ist. Entsprechend werden zur Bestimmung der Wichtungsmuster γi alternative unterschiedliche Ausführungsformen mit spezifischen Vor- und Nachteilen entsprechend den Unteransprüchen 11., 12. und 13. dargelegt.
In der Praxis kann man Sensordaten vorab kombinieren und erhält so unterschiedliche Gleichungen für Sensordaten. Somit entsprechen den Wichtungsmustern für Sensordaten auch Wichtungsmuster für Gleichungen (siehe etwa für den Fall einer planaren Bildfläche Gln. (90), (82), (80)). Alle verwendeten Gleichungen beruhen dabei letztlich auf der Geometrie des bildgebenden Sensors (geometrische Optik) (siehe etwa für den Fall einer planaren Bildfläche Gl. (84)) sowie auf der Hypothese ("brightness constancy", kurz BC) (siehe Gl. (85)), daß die gesamte von einem Objekt 22 auf die Bildfläche projizierte Intensität praktisch konstant ist, solange das Objekt 22 komplett auf die Bildfläche projiziert ist. Die Gleichungen können beliebig kombiniert und gewichtet werden.
Optimierung
Der direkte Weg zur Bestimmung der Wichtungsmuster für Gleichungen besteht in der Optimierung, d. h. in der Minimierung des Fehlers (siehe Gl. (11)) und der gleichzeitigen Maximierung des wesentlichen Informationsgewinnes W (siehe Gl. (10)). Dies betrifft den Unteranspruch 11 des Verfahrens.
Klassifikation
Um nicht Online optimieren zu müssen, kann man die günstigen Wichtungsmuster vorab bestimmen und Online durch eine look-up-Tabelle aufgreifen: Bestimmung der Wichtungsmuster entsprechend ausgewähltem Bildmaterial vorab.
  • 1. Klassifikation der möglichen gemessenen Intensitäten,
  • 2. Bestimmung eines Wichtungsmusters mit relativ hohem wesentlichen Informationsgewinn wie in obiger Optimierung für jede Klasse.
Es ist leicht erkennbar, daß man auf derartige Weise auch andere verwendete Verfahrensparameter, wie z. B. Zielmuster, optimieren kann. Dies betrifft den Unteranspruch 12 des Verfahrens.
Symmetrisierung
Man kann geeignete Wichtungsmuster γi auch bestimmen, ohne eine Optimierungsaufgabe zu lösen; dies führt zu einem relativ geringen Bedarf an Rechenzeit. Dies betrifft den Unteranspruch 13 des Verfahrens. Diese Bestimmung der Wichtungsmuster kann mit dem folgenden sogenannten /it Symmetrisierungsverfahren durchgeführt werden. Dies Verfahren ist so explizit ausführbar, daß eine geschlossene Lösung angegeben ist.
Für eine beliebige betrachtete Bildpunktregion mit Zentrum bei (xe, ye) werden die mit dem bildgebenden Sensor gemessenen Intensitätsableitungen an den Bildregionpunkten 19 (xj, yj) mit Hilfe von sogenannten konjugierten Bildpunkten 20 auf sogenannte Zielmuster transformiert und zu sogenannten modulierten Multipolen verarbeitet. Mit Hilfe dieser modulierten Multipole wird ein Gleichungssystem für die Relativbewegung (Kurznotation ψe ) zwischen dem bildgebenden Sensor und dem auf diese Bildpunktregion projizierten Objekt 22 aufgestellt. Diese Gleichungen des Gleichungssystems für die Bildpunktregion mit Zentrum (xe, ye) werden symmetrisierte modulierte Multipolgleichungen für (xe, ye) genannt, kurz SMMEe. Dieses Teilverfahren, d. h. diese Umsetzung der durch den bildgebenden Sensor gemessenen Intensitätsableitungen in die SMMEe, wird Symmetrisierung genannt.
Mit dieser Symmetrisierung wird zugleich eine statische Mittelung über die durch den bildgebenden Sensor gemessenen Intensitätsableitungen ausgeführt, und eine Transformation dieser Intensitätsableitungen auf Zielmuster durchgeführt. Durch diese statistische Mittelung wird das Verfahren robust gegenüber Rauschsignalen und durch die Transformation auf geeignete Zielmuster wird das Verfahren bei unterschiedlichen geometrischen Anordnungen von Objekten und bei unterschiedlichen Objekthelligkeitsverhältnissen robust anwendbar (weil die Matrix des Gleichungssystems bei geeigneten Zielmustern eine relativ große Determinante hat). Dabei unterstützen sich die Transformation und die statistische Mittelung gegenseitig. Insbesondere werden später modulierte Multipole bei beliebigen gemessenen Intensitätsableitungen genau Null und damit stabil zu Matrixelementen weiterverarbeitet.
An dieser Stelle ist es wichtig zu unterstreichen, daß sich statistische Fehler im Eingang, d. h. solche, die bei der Erhebung der Intensitäten durch den Sensor und bei der nachfolgenden Berechnung der Ableitungen entstehen, durch die Transformation nicht weiter akkumulieren, sondern im Gegenteil über den sich dann anschließenden Mittelungsprozeß (bei der Bestimmung der Multipole) nach dem zentralen Grenzwertsatz kompensieren. Dabei ist die Darstellung in Multipolen in Anlehnung an die elektromagnetische Feldtheorie gewählt. Die modulierten Multipole stellen in gewissem Sinne (siehe unten) ein vollständiges Funktionensystem dar mit prinzipiell unbegrenzt vielen modulierten Multipolen. Entsprechend kann man unterschiedliche Versionen des Verfahrens erhalten, indem man eine andere Auswahl modulierter Multipole trifft, indem man eine andere Auswahl konjugierter Bildpunkte 20 trifft, oder indem man eine Transformation auf andere (für die Invertierbarkeit der SMMEe günstige) Zielmuster anwendet.
Man könnte daran denken, ein anderes vollständiges Funktionensystem zu verwenden. Dies kann bei diesem Verfahren völlig analog gemacht werden, falls gewünscht, ist jedoch kaum sinnvoll. Es könnte höchstens bei bestimmten (nicht allgemeinen) gemessenen Intensitätsverhältnissen einen begrenzten Geschwindigkeitsvorteil ergeben, denn die modulierten Multipole kommen dadurch zustande, daß man die gemessenen Intensitätsableitungen mit einer beliebigen Modulationsfunktion moduliert und die Modulationsfunktion durch Polynome darstellt. Diese Darstellung ist nur für endlich viele Bildpunkte (im wesentlichen aus der Bildpunktregion) nötig und kann daher praktisch mit beliebigen Funktionensystemen mit endlich vielen Termen exakt erfolgen. Insgesamt kann das Verfahren praktisch mit jedem Funktionensystem durchgeführt werden, zudem ist die Wahl des Funktionensystem ist die Wahl des Funktionensystems weitgehend irrelevant und wird daher im folgenden nicht weiter diskutiert.
Zum Zwecke einer konkreten Darstellung wird das Teilverfahren der Symmetrisierung im folgenden mit einem sogenannten prototypisch ausgeführten Fall durch eine prototypische Auswahl modulierter Multipole (Gln. 17 siehe unten), konjugierter Punkte 20 (siehe Fig. 5) und eines sternförmigen Zielmusters (siehe Fig. 6) eingeführt; dabei werden Ausführungsbeispiele mit anderen modulierten Multipolen, konjugierten Punkten 20 und Zielmustern angeführt.
Im folgenden werden die Abkürzungen xj-xe: = Ξj und yj-ye: = Yj verwendet. Die Symmetrisierung ist durch folgende zehn Verarbeitungsschritte bestimmt:
1. Bestimmung konjugierter Bildpunkte
Für einen betrachteten Bildregionpunkt 19j, Yj) werden weitere sogenannte konjugierte Bildpunkte 20k(j), Yk(j)) ausgewählt. Und zwar sind dies im prototypisch ausgeführten Fall
k, Yk) = (-Ξj, Yj), (Ξm, Ym) = (Ξj, -Yj), (Ξn, Yn) = (-Ξj, -Yj)
und ein Bildpunkt innerhalb der Bildpunktregion und auf der Halbgeraden vom Zentrum durch (Ξj, Yj), d. h. ein Bildpunkt
p, Yp) = (FΞj, FYj)
bestimmt durch einen geeigneten Faktor F (siehe z. B. Fig. 5). Wegen der Diskretisierung der Bildpunkte durch den bildgebenden Sensor liegt ein solcher vierter konjugierter Bildpunkt 20 für relativ viele aber nicht für alle Bildpunkte (Ξj, Yj) der Bildpunktregion vor.
Dies kann durch verschiedene Ausführungsbeispiele aufgefangen werden. Man kann etwa Bildpunkte (Ξj, Yj) ohne den vierten konjugierten Bildpunkt 20p, Yp) schlicht bei der Bestimmung der modulierten Multipole (siehe unten) unberücksichtigt lassen. Man kann auch für einen Punkt auf der obigen Halbgeraden die Intensitätsableitungen durch Interpolation bestimmen, und diesen Punkt ersatzweise als vierten konjugierten Punkt 20 verwenden.
2. Statistische Mittelung der gemessenen Intensitätsableitungen mit modulierten Multipolen
In diesem zweiten Schritt wird das vollständige Funktionensystem der modulierten Multipole eingeführt. Zudem werden, zum Zweck der Erläuterung des Verfahrens, die zugehörigen sogenannten modulierten multipolaren Gleichungen, kurz MMEe bestimmt. Dieser Schritt hat definitorischen und erläuternden Charakter.
An einem Bildpunkt (xj, yj) lautet die BCCE (siehe Gl. 90 in Anhang A)
Dabei ist der Bewegungszustand bezeichnet durch:
ψ = (ωx, ωy, ωz, Te,x, Te,y, Te,z). (16)
Erläuterung der Modulation
Die BCCEs bei den Bildregionpunkten 19 (xj, yj) werden mit einer beliebigen Modulationsfunktion F(xj, yj) multipliziert und die multiplizierten Gleichungen werden addiert. Dies ergibt weitere Gleichungen, die sogenannten modulierten Gleichungen. Die Modulationsfunktion ist allgemein als Potenzreihe darstellbar. Man kann die entsprechenden Terme der Potenzreihe als neue separate Modulationsfunktionen auffassen, die zugehörigen modulierten Gleichungen bilden, diese summieren, die Summe mit der ursprünglichen Modulationsfunktion identifizieren und in der Summe sogenannte modulierte Multipole identifizieren (siehe Tabelle 1). Insofern bilden die modulierten Mutipole ein vollständiges Funktionensystem in Bezug auf die BCCE und damit in Bezug auf die Bestimmung der Relativbewegung. Diese Summe modulierter Gleichungen ausgedrückt durch modulierte Multipole wird modulierte multipolare Gleichung (MMEe) genannt.
Definition der modulierten Multipole
Ausführungsbeispiele für modulierte Multipole sind:
Gelegentlich unterlassen wir das Attribut "moduliert" wenn es aus dem Kontext ersichtlich ist.
Ausführungsbeispiele der daraus resultierenden modulierten multipolaren Gleichungen sind:
  • (a) Wir führen die folgenden Modulationsfunktionen F(xj, yj) = ,mit den Exponenten gx und gy, welche die Werte (gx, gy) = (0,0), (0,1), (1,0) oder (1,1) annehmen, ein.
    Unter Benutzung der modulierten Multipole (Gln. 18) erhalten wir für die Paare (gx, gy) die Gln. (19).
    Obengenanntes ergibt ein System von vier Gleichungen für (gx, gy) = (0,0), (0,1), (1,0) und (1,1). Diese Gleichungen werden kurz (gx, gy)- MMEe genannt.
  • (b) Als nächstes führen wir weitere vier Gleichungen über die Modulationsfunktion F(xj, yj) = ,mit den Exponenten gx und gy, welche die Werte (gx, gy) = (0,0), (0,1), (1,0) oder (1,1) annehmen, ein. Die resultierenden Gleichungen werden mittels der Multipole (Gln. 18) wie in Gl. (20) ausgedrückt. Diese vier Gleichungen werden kurz (gx, gy, Ξ)- MMEe genannt.
  • (c) Analog führen wir vier weitere Gleichungen über die Modulationsfunktion F(xj, yj) = Yj,mit den Exponenten gx und gy, welche die Werte (gx, gy) = (0,0), (0,1), (1,0) oder (1,1) annehmen, ein. Die resultierenden Gleichungen werden mittels der Multipole (Gln. 18) wie in Gl. (21) ausgedrückt. Diese vier Gleichungen werden kurz (gx, gy, Y)- MMEe genannt.
Die allgemeine Gleichung für beliebige Multipole lautet wie Gl. (22).
Bei dem prototypisch ausgeführten Fall benutzen wir von den oben hergeleiteten zwölf modulierten Multipolgleichungen die vier (gx, gy)- MMEe, die (0, 0, Ξ)- MMEe, die (0, 0, Y)- MMEe und die (1, 0, Y)- MMEe. Diese sieben Gleichungen bilden die Matrix Amultipole. Diese Matrix ist für den Fall, daß bereits eine Transformation mit Sternmustern als Zielmuster vorgenommen wurde, in Gl. (64) zur Illustration angegeben.
3. Symmetriekonforme Organisierung der modulierten Multipolelemente
Nun werden die modulierten Multipole entsprechend den Eigenschaften bezüglich Achsenspiegelungen gegliedert. Dies ist für das Verfahren besonders günstig, weil dies einer speziellen Symmetrieeigenschaft der BCCE entspricht. Es treten nämlich in der BCCE nur Terme proportional ΞjYj, Ξ⁰jYj, ΞjY⁰j und Ξ⁰jY⁰j auf, diese sind symmetrisch bzw. antisymmetrisch bzgl. solcher Achsenspiegelungen. Insgesamt hat dieser dritte Schritt erstens erläuternden Charakter und führt zweitens den im Verfahren verwendeten sogenannten Symmetriefaktor Pq, und die sogenannten Symmetriekoeffizienten ax q, bx q, cx q, dx q, ay q, by q, cy q, dy q, at q, bt q, ct q und dt q ein.
Symmetriegerechte Notation für modulierte Multipole
Damit man die Gliederung der modulierten Multipole entsprechend den Eigenschaften bezüglich Achsenspiegelungen effizient formulieren kann, wird erstens ein Symmetriefaktor
Pq = Ξp₁ jYp₂ jsgn(Ξj)p₃sgn(Yj)p₄ (23)
eingeführt, der symmetrisch ist in Ξj und in Yj. D. h. p₁+p₃ ist gerade und auch p₂+p₄. q spezifiziert hierbei die Werte der vier Exponenten p₁, . . ., p₄.
Zweitens werden für einen modulierten Multipol µ die Multipolelemente µj eingeführt, aus denen µ als Summe über die Bildregionpunkte 19 (xj, yj) aufgebaut wird:
Mit diesen zwei Bezeichnungen wird ein jedes Multipolelement dargestellt durch
μj = μx j + μy j + μt j (25)
mit
μx j = ax qPq + bx qPqΞj + cx qPqYj + dx qPqΞjYj
μy j = ay qPq + by qPqΞj + cy qPqYj + dy qPqΞjYj
μt j = at qPqIt,j + bt qPqΞjIt,j + ct qPqYjIt,j + dt qPqΞjYjIt,j.
Dabei sind die zwölf Symmetriekoeffizienten (mit Werten 0 oder 1) ax q, bx q, cx q, dx q, ay q, by q, cy q, dy q, at q, bt q, ct q und dt q eingeführt. Für jeden modulierten Multipol ist genau ein Symmetriekoeffizient ungleich Null. Umgekehrt ist ein modulierter Multipol durch genau diesen Symmetriekoeffizienten zusammen mit der inhärenten Intensitätsablei­ tung It, Ix oder Iy spezifiziert. Hiermit ist ein jedes Multipolelement einer sogenannten Symmetrieklasse zugeordnet; und zwar der Klasse mit dem sogenann­ ten Symmetrieindex s = a für ax q = 1 oder ay q = 1 oder at q = 1, der Klasse mit dem Symmetrieindex s = b für bx q = 1 oder by q = 1 oder bt q = 1, der Klasse mit dem Symmetrieindex s =c für cx q = 1 oder cy q = 1 oder ct q = 1, der Klasse mit dem Symmetrieindex s = d für dx q = 1 oder dy q = 1 oder dt q = 1.
Zum Beispiel ist bestimmt durch den Symmetriekoeffizienten ay q = 1 mit q ∼ (p₁ = 1, p₂ = 0, p₃ = 1, p₄ = 0). Als weiteres Beispiel kann man betrachten. Es wird durch den Symmetriekoeffizienten dx q = 1 mit q ∼ (p₁ = 0, p₂ = -1, p₃ = 0, p₄ = 1) beschrieben.
Als nächstes sammeln wird die Terme des Multipolelementes, welche symmetrisch zu Ξj und zu Yj sind und bezeichnen ihre Summe
μaj = ax qPq + ay qPq + at qPqIt,j (26)
als Ξj-Yj-symmetriekonformes Subelement. Analog führen wir das j-Yj-symme­ triekonforme Subelement
μb j = bx qPqΞj + by qPqΞj + bt qPqΞjIt,j (27)
symmetrisch zu Yj und antisymmetrisch zu Ξj, das Ξj-j-symmetriekonforme Subelement
μc j = cx qPqYj + cy qPqYj+ ct qPqYjIt,j (28)
antisymmetrisch zu Yj und symmetrisch zu Ξj, und das j-j-symmetriekonforme -Subelement
μd j = dx qPqΞjYj + dy qPqΞjYj + dt qPqΞjYjIt,j (29)
antisymmetrisch zu Yj und Ξj ein. Mit Hilfe dieser symmetriekonformen Subele­ mente drücken wir das Multipolelement wie folgt aus:
μj = μaj + μb j + μc j + μd j. (30)
4. Lineare Kombination von modulierten Multipolelementen konjugierter Bildpunkte
Für den betrachteten Bildpunkt (xj, yj) nehmen wir die modulier­ ten Multipolelemente der konjugierten Bildpunkte 20 (xk(j), yk(j)). Wir bilden die Linearkombination
mit einem Koeffizienten αk(j) für jeden konjugierten Bildpunkt 20. Diese Koeffizien­ ten werden später so gewählt, daß die durch den bildgebenden Sensor gemessenen Intensitätsableitungen das Zielmuster ergeben. Für generelle Zielmuster sind hierfür geeignete konjugierte Bildpunkte 20 zu wählen.
Generell ist ein Zielmuster durch eine Zuordnung eines 2D Vektors zu jedem Bildre­ gionpunkt 19 bestimmt (siehe etwa Fig. 6). Ein Zielmuster ist also ein Vektorfeld.
In einer Ausführungsvariante kann man auch für μj einen Koeffizienten ungleich 1 wählen.
Für das prototypisch ausgeführte Beispiel sind der Bildpunkt mit seinen konjugierten Punk­ ten 20 die fünf Bildpunkte (xj, yj), (xk, yk), (xm, ym), (xn, yn) und (xp, yp). Wir bilden die lineare Kombination
μsum,j = μj + αμk + βμm + γμn + δμp (32)
mit vier Koeffizienten α, β, γ und δ, welche unten berechnet werden. Insbesondere werden diese Koeffizienten unten für das sternförmige Zielmuster bestimmt.
5. Symmetriekonforme Organisierung von linearen Multipolelementkombi­ nationen
Analog zu oben (siehe Gl. (30)) führen wir auch für die Linearkombina­ tion (siehe Gl. (31)) die vier möglichen symmetriekonformen Subelemente ein.
Insgesamt erhalten wir
6. Bestimmung der effektiven Intensitätsgradienten
Für jeden konjugierten Bildpunkt 20 (xk(j), yk(j)) und jede Symmetrieklasse (s ∈ {a, b, c, d} wird ein Kon­ jugationsfaktor wie folgt bestimmt:
Dabei werden folgende Symmetrieexponenten nx(a) = 0, ny(a) = 0, nx(b) = 1, ny(b) = 0, nx(c) = 0, ny(c) = 1 und nx(d) = 1, ny(d) = 1 verwendet.
Also ist:
Analog gilt
und
sowie
Die eckigen Klammern in den obigen Gleichungen werden effektive Intensitätsgradi­ enten (in Anlehnung an Gl. 26) genannt. Diese effektiven Intensitätsableitungen wer­ den in dem Verfahren für die Koeffizienten αk(j) tatsächlich bestimmt. Dabei werden zuvor die Koeffizienten αk(j) so bestimmt, daß die effektiven Intensitätsableitungen der Bildregionpunkte 19 ein Vektorfeld bilden, das dem Zielmuster gleich ist.
Konkret lauten die effektiven Intensitätsableitungen wie folgt:
für s ∈ {a, b, c, d}.
Für den prototypisch ausgeführten Fall nimmt obige Gl. (33) folgende Form an.
Diese symmetriekonformen Subelemente werden wie folgt bestimmt:
Zuerst setzen wir nach Gln. (26), (27), (28) und (29) ein:
Analoge Gleichungen gelten für + und .
Zweitens erklären wir nützliche Symmetrierelationen, welche inhärent im Symmetriefaktor Pq stecken. Mit Ξk = -Ξj und Yk = Yj erhält man
Pqk, Yk) = Pq(-Ξj, Yj) = Pqj, Yj). (42)
Analog bekommt man
Pqm, Ym) = Pqj, -Yj) = Pqj, Yj). (43)
Pqn, Yn) = Pq(-Ξj, -Yj) = Pqj, Yj). (44)
Für die konjugierten Punkte (xp, yp) und für die betrachteten Multipole gibt es einen Expo­ nenten Eq so, daß
Pqp, Yp) = Pqj, Yj) (45)
gilt. Insbesondere ist Eq gleich (p₁+p₂) für den betrachteten Wert von q; dies zeigt, daß ein solches Eq existiert. Wir bezeichnen Pqj, Yj) im folgenden kürzer durch Pq.
Drittens kann man mit der obigen Relation die Gl. (41) vereinfachen und erhält
Analog kann man (zusätzlich mit Ξp = FΞj und Ξk = Ξn = -Ξj = Ξm)
herleiten und erhält auf ähnliche Weise
und
Insgesamt erhalten wir auch hier
Die obigen rechteckigen Klammern, welche die Intensitätsgradienten beinhalten, sind die effektiven Intensitätsgradienten des resultierenden linearkombinierten modulierten Multipols μsum,j.
Bildpunktweise Erfüllung des Zielmusters
Nun werden die Koeffizienten αk(j) für die konjugierten Bildpunkte 20 so bestimmt, daß die effektiven Intensitätsgra­ dienten nach x und y proportional sind zum Vektor , ) des Zielmusters am Bildpunkt (xj, yj). Es werden also die Koeffizienten αk(j) so bestimmt, daß folgende acht Gleichungen gelten:
ps j = und ps j = (51)
für s ∈ {a, b, c, d}. Hierbei ist ps j der Proportionalitätsfaktor.
Diese Intensitätsableitungen werden für die entsprechenden eckigen Klammern in den Gln. (36), (37), (38) und (39) eingesetzt, sodann werden diese Gleichungen entsprechend Gl. 34 zu μsum,j addiert. Pqj, Yj) wird durch Pq abgekürzt. Also ist
Radialisierung
Für den prototypisch ausgewählten Fall erfolgt die Bestimmung der Koeffi­ zienten α, β, γ und δ wie folgt. Wir wählen diesen Koeffizienten so, daß das Paar (rechteckige Klammern mit Ξ-Intensitätsableitungen rechteckige Klammern mit Y-Intensitätsableitun­ gen) parallel zum Paar (-Ξj, -Yj) ist, d. h. parallel zur radialen Richtung zum Zentrum der Bildpunktregion ist (für die rechteckigen Klammern siehe Gln. (46), (47), (48) und (49)).
Allgemeiner wünschen wir eine gewisse Abweichung von der radialen Richtung gekennzeich­ net durch einen Anisotropieparameter Ξanis, indem wir verlangen, daß (rechteckige Klammern mit Ξ-Intensitätsableitungen, rechteckige Klammern mit Y-Intensitätsableitungen) paral­ lel zum Paar (-ΞanisΞj, -Yj) ist. Dabei führt der Spezialfall -Ξanis = 1 auf die isotropen radialen Richtungen und ein isotropes Richtungsfeld, während der Fall Ξanis ≠ 1 zu einem anisotropen Richtungsfeld führt. Die korrespondierenden einzelnen Richtungen bezeichnen wir als anisotrop radial. Unter einer verallgemeinerten radialen Richtung verstehen wir ent­ weder eine isotrope radiale Richtung parallel zu (-Ξj, -Yj) oder eine anisotrope radiale Richtung parallel zu (-ΞanisΞj, -Yj) mit Ξanis ≠ 1. Wir unterlassen das Attribut "verall­ gemeinert", wenn es aus dem Kontext ersichtlich ist.
Insgesamt werden diese Wunschrichtungen wie folgt erklärt. Wir wählen die Koeffizienten α, β, γ und δ so, daß
Das heißt, daß die vier Linearkombinationen der effektiven Intensitätsgradienten (ausge­ drückt durch korrespondierende rechteckige Klammern) parallel zur Richtung (-ΞanisΞj, -Yj) liegen sollten. Das ergibt ein lineares Gleichungssystem, welches gelöst werden kann, indem zuerst die vier äquivalenten Gleichungen welche ausdrücken, daß die nichtradialen Kom­ ponenten verschwinden, formuliert werden und zweitens die Gaußelimination zur Lösung angewendet wird. Während diese Methode ziemlich komplizierte Formeln ergibt, kann es doch dazu herangezogen werden, schlußzufolgern, daß eine Lösung existiert. Auf der Basis dieser Erkenntnis kann das Gleichungssystem effizienter wie folgt gelöst werden.
Zuerst addiert man die erste, dritte, fünfte und siebte Gleichung in (53), als auch die zweite, vierte, sechste und achte, um
mit der kurzen Notation Δ = δFEq herzuleiten.
Zweitens kann man die dritte und die siebte Gleichung in (53) addieren, als auch die vierte und achte um
mit der Abkürzung herzuleiten.
Drittens kann man die fünfte und siebte Gleichung in (53) addieren, als auch die sechste und achte um
herzuleiten.
Viertens kann man die dritte und die fünfte Gleichung in (53) addieren, als auch die vierte und sechste um < 29404 00070 552 001000280000000200012000285912929300040 0002019509277 00004 29285VER NB=1<
mit der Abkürzung herzuleiten.
Durch Einsetzen von Gln. (53) in die obigen Gleichungen für die symmetriekonformen Subele­ mente (siehe Gln. (46), (47), (48) und (49)) erhalten wir
und analog
Jetzt summieren wir die obigen vier symmetriekonformen Subelemente (siehe Gl. (34)). Dazu sammeln wir die ersten Ausdrücke eines jeden symmetriekonformen Subelementes in der ersten Zeile des kombinierten Multipolelementes μsum,j, den zweiten Term eines jeden symmetriekonformen Subelements in der zweiten Zeile und den dritten Term in der dritten Zeile. Somit erhalten wir
Durch die Form dieser Gleichung und insbesondere durch die Tatsache, daß die zwei Klam­ mern die vier symmetriekonformen Subelemente beinhalten, kann man die Faktoren (-ΞanisΞj) und (-Yj) dieser Klammern als effektive Intensitätsgradienten parallel zu -ΞanisΞj und parallel zu -Yj identifizieren.
8. Normierung
Die obigen effektiven Intensitätsgradienten ps j (, können noch beliebige Länge haben, wegen des Proportionalitätsfaktors ps j. Dies wird durch Nor­ mieren behoben. Und zwar wird der Normierungsfaktor
Nq j := paj(ax q + ay q + at q) + pb j(bx q + by q + bt q) + pc j(cx q + cy q + ct q) + pd j(dx q + dy q + dt q) (59)
verwendet. Dies ergibt
Für den prototypisch ausgeführten Fall werden die effektiven Intensitätsgradienten wie folgt normiert. Die obigen effektiven Intensitätsgradienten ps j (, ) zeigen radial (isotrop oder anisotrop) auf das Zentrum der Bildpunktregion. Die Vektorlänge kann jedoch für verschie­ dene Bildpunkte in der Bildpunktregion unterschiedlich sein, die durch Reflektion an der horizontalen oder vertikalen Achse durch das Zentrum der Bildpunktregion ineinander über­ gehen. Um diese Längendifferenzen zu kompensieren, normieren als nächstes für diese effekti­ ven Intensitätsgradienten. Als Resultat erhalten wir ein isotropes radiales Feld für Ξanis = 1 und ein anisotropes radiales Feld für Ξanis ≠ 1.
Zum Zwecke einer solchen Normierung teilen wir beide Seiten der obigen Gleichung durch den obigen Normierungsfaktor (siehr Gl. (59)). Also erhalten wir
Diese Gleichung kann wesentlich vereinfacht werden: Zu diesem Zweck betrachten wird den Fall, daß ax q + ay q + at q = 1. Dann ergeben sich die neun Varianten bx q, by q, bt q, cx q, cy q, ct q, dx q, dy q, dt q zu Null. Also bleiben die zu paj proportionalen Terme in Gl. (61) erhalten, während
Terme proportional zu pb j, pc j und pd j verschwinden. Damit ist in diesem Fall Nq j gleich paj und man kann die Faktoren paj kürzen. Für bx q + by q + bt q = 1 kürzt man analog den Faktor pb j, für cx q + cy q + ct q = 1 den Faktor pc j und für dx q + dy q + dt q = 1 den Faktor pd j. Insgesamt erhält man als Konsequenz der Gl. (58)
Aufgrund der Form der Gleichung, also aufgrund der Tatsache, daß die zwei Klammern die vier symmetriekonformen Subelemente ohne einen j abhängigen Term beinhalten, kann man die Faktoren (-ΞanisΞj) und (-Yj) dieser Klammern als effektive normierte Inten­ sitätsgradienten = -ΞanisΞj und = - Yj bezeichnen.
9. Transformierte Multipole
Zur Berechnung des transformierten modulierten Mul­ tipols summieren wir die obigen Multipolelemente (siehe Gl. (60)) über alle Bildpunkte einer Bildpunktregion:
10. Korrespondierende Linearkombination von Gleichungen
Zum Zweck der Erläuterung wird dargelegt, weshalb die SMME gültig ist, und weshalb sie eine robu­ ste Bestimmung der Relativbewegung erlaubt: Man kann eine transformierte MME (d. h. eine SMME) herleiten, welche mit der obigen Transformation der Multipole korrespondiert. Diese MME Transformation ist in Tabelle 1 illustriert und wird die folgt konstruiert.
  • (a) Zuerst berücksichtigen wird die periphären MMEs für (Ξj, Yj) und die konju­ gierten Bildpunkte 20k(j), Yk(j)).
  • (b) Zweitens führen wir deren Linearkombination mit den Koeffizienten 1, αk(j) ein.
  • (c) Drittens beinhalten durch den Entwurf alle modulierten multipolaren Gleichun­ gen (MMEs) nur modulierte Multipole mit gleichem q. Damit kann jede MME und auch jeder modulierte Multipol mit einem Index q versehen werden (siehe Tabelle 1).
  • (d) Viertens kann man eine jede solche MME durch Nq j normieren (siehe Gl. (59)).
    Tabelle 1
    Übersicht
  • (e) Fünftens kann man die Summe der resultierenden normierten MMEs der Bild­ punkte einer Bildpunktregion bilden (siehe Tabelle 1). Diese Summe wird als transformierte MME bezeichnet, oder kurz als symmetrisierte MME, kurz SM­ ME.
  • (f) Sechstens drücken wir diese SMME mit den entsprechend den Zielmustern transformierten modulierten Multipolen aus.
11. Konsequenzen
Entwurfsbedingt entsprechen die Multipolelemente der modulier­ ten Multipole der SMME den transformierten Multipolelementen μsum,j (siehe Gln. (32) und (62) und die Tabelle 1), denn die normierte MME und die normierten mo­ dulierten Multipolelemente haben die gleichen Koeffizienten und . Wieder­ um entwurfsbedingt haben diese transformierten Multipolelemente effektive Intensitätsgradienten exakt gemäß dem Zielmuster.
Für das prototypisch ausgeführte Beispiel sind die transformierten gemessenen Intensitäts­ gradienten anisotrop radial, d. h. und = Yj. Daher hat auch die transformierte MME anisotrop radiale effektive Intensitätsgradienten (siehe Fig. 6).
Dies schließt die komplette Kompensation von möglichen Anisotropien der gemessenen In­ tensitätsgradienten (, ) an beliebigen Bildpunkten (Ξj, Yj) einer beliebigen Bildpunkt­ region mit Zentrum (xe, ye) durch eine Transformationsprozedur, genannt Symmetrisierung, ab.
Um zu illustrieren, weshalb ein sternförmiges Zielmuster für die Bestimmung von Bewegung relativ günstig ist, wird die daraus resultierende Matrix Amultipole (siehe oben Schritt 2) durch Gl. (64) dargestellt. Der Bewegungszustand ergibt sich aus
Amultipole ψ = b multipole (65)
mit
Man erkennt, daß viele Matrixelemente Null sind. Dies führt zu einem einfachen und robusten Verfahren zur Bestimmung der Relativbewegung.
Durch das Symmetrisierungsverfahren werden verschiedene SMMEs bereitgestellt, ent­ sprechend den verwendeten modulierten Multipolen. Man kann von diesen SMMEs eine gewünschte Teilmenge auswählen. Diese sind bei geeigneter Wahl der konjugierten Punkte 20, der modulierten Multipole und der Zielmuster robust bezüglich der statistischen Mittelung und auch bezüglich der Rekonstruktion des Bewegungszustandes durch Matrix­ inversion.
Sternmuster
Bei der Verwendung von anisotrop radialen Zielmustern, sogenannten Sternmustern, vereinfacht sich die Bestimmung der ψk durch Separation. Dies betrifft den Unteranspruch 14 des Verfahrens.
Bestimmung der x-y-Rotation und z-Translation bei Verwendung sternförmiger Zielmuster
Als nächstes betrachten wir das Gleichungssystem, welches durch die Matrix Amultipole ausgedrückt wird. Wir subtrahieren mal die fünfte Gleichung von der ersten Gleichung. Dann subtrahieren wir mal die sechste Gleichung von der zweiten Gleichung. Zusätzlich nehmen wir die vierte Gleichung. Wir erhalten die Matrix Attc wie folgt
mit
und
Die korrespondierende Inhomogenität b ttc ist
Also erhalten wir
Attc ψ = b ttc. (71)
Aus dieser Gleichung extrahieren wir die Rotationen sowie die transla­ torische Komponente Te,z aufgrund des Nullblockes und aufgrund der tridiagonalen Form im Block verschieden von Null.
Bestimmung der z-Rotation und x-y-Translation bei Verwendung sternförmi­ ger Zielmuster
Für den Spezialfall anisotroper Bildpunktregionen erhält man von Null verschiedene Matrixelemente A3,3 und A7,3:
und
Mit den oben bestimmten ωx, ωy, Te,z reicht einer dieser Matrixelemente für die Bestim­ mung der ωz aus, indem die dritte oder siebte Zeile von Amultipole benutzt wird. Schließ­ lich können mit ωz die Te,x und Te,y bestimmt werden, indem die erste und zweite Zeile von Amultipole benutzt wird. Insgesamt kann der komplette Relativbewegungszustand für den Fall anisotroper Bildpunktregionen mittels einer einzigen Bildpunktregion bestimmt werden. Also kann damit die Relativbewegung zwischen dem bildgebenden Sensor und ani­ sotroper Bildpunktregion bestimmt werden.
Das oben ausgeführte Verfahren stellt eine geschlossene Lösung für die Bestimmung der Bewegung dar. Zusätzlich werden nun sternförmige Mustermarkierungen (siehe Abb. 6) an den Objekten der Szene angebracht. Die von diesen Mustermarkierungen ausgehende Lichtintensität wird zunächst in eine gemessene Intensität und diese wiederum in einen berechneten Bewegungszustand ψ umgesetzt. Und zwar geschieht dies durch folgende Ver­ fahrensschritte:
  • 1. Umsetzung der Mustermarkierungen in gemessene Intensitäten
  • 2. Umsetzung der gemessenen Intensitäten in Intensitätsableitungen
  • 3. Umsetzung der Intensitätsableitungen in transformierte modulierte Multipole, die entsprechend dem Zielmuster ungleich null sind.
  • 4. Umsetzung der transformierten modulierten Multipole, die entsprechend dem Ziel­ muster ungleich null sind in einen berechneten Bewegungszustand c.
Diese vier Verfahrensschritte bestehen aus iterationsfreien relativ einfachen Transfor­ mationen. Daher ist eine Fehlerfortpflanzungsrechnung praktisch durchführbar. Somit wird eine garantiert eingehaltene Fehlertoleranz bestimmt.
Eine Betrachtung aller in diesem Verfahren auftretenden Transformationen zeigt, daß alle verwendeten Verfahrensschritte aus Additionen und Multiplikationen bestehen, die bzgl. der Fehlerfortpflanzung unproblematisch sind, außer den bei der Bestimmung der Koeffizienten αk(j) für die lineare Kombination verwendeten Verfahrensschritte und außer der Matrixinversion. Die Matrixinversion ist durch Verwendung geeigneter anisotroper sternförmiger Zielmuster stabil durchführbar. Die Koeffizienten αk(j) können durch Ver­ wendung sternförmiger Zeilmuster mit den Gln. (55), (56), (57) und (54) bestimmt werden. Hierbei tritt ein Nenner auf, der durch geeignete Wahl des Anisotropieparameters Ξanis relativ groß gemacht werden kann. Dadurch ist auch dieser Verfahrensschritt bzgl. der Fehlerfortpflanzung unproblematisch. Insgesamt ist die Fehlerfortpflanzungsrechnung also durchführbar und ergibt, z. B. bei geeigneten anisotropen Sternmustern, eine relativ geringe Verstärkung von Meßfehlern.
Daher wird der Bewegungszustand durch das vorgelegte Verfahren mit relativ geringen Fehlern bestimmt, und die zugehörigen Fehlertoleranzen werden durch die übliche Fehler­ fortpflanzungsrechnung direkt vorhergesagt. Insgesamt wird bei der Verwendung von anisotropen sternförmigen Mustermarkierungen ein Bewegungszustand innerhalb einer Fehlertoleranz bestimmt.
In einem weiteren Ausführungsbeispiel kann man anstelle der (günstigen) anisotropen sternförmigen Mustermarkierungen auch andere beliebige Mustermarkierungen verwen­ den, und die Fehlerfortpflanzungsrechnung hierauf anwenden.
In einem weiteren Ausführungsbeispiel kann man insgesamt auf das Anbringen von Mu­ stermarkierungen verzichten und stattdessen etwa durch unscharfe Einstellung der Kamera günstige Intensitätsverläufe erzeugen.
In einem weiteren Ausführungsbeispiel kann man die Fehlerfortpflanzungsrechnung auf die mit der Kamera gemessene Intensitätsverteilung gründen.
z-Rotation und x-y-Translation für isotrope Bildpunktregionen bei Verwendung sternförmiger Zielmuster
Für den Fall isotroper Bildpunktregionen benutzen wir zwei Bildpunktregionen an unterschiedlichen Bildpunkten (xe, ye) und (xe′, ye′). Für diese bestimmen wir zuerst Te,z und Te′,z wie oben. Dann führen wir den neuen Zustands­ vektor
ψ′ = (Ωe,z, Ωe′,z τx, τy)
ein mit
Als nächstes nehmen wir die zwei Gleichungen, welche mit den ersten zwei Zeilen der Matrix Amultipole korrespondieren, und wir dividieren diese Gleichungen durch Te,z. Dann verfahren wir analog mit der anderen Bildpunktregion. So erhalten wir das folgende System von vier Gleichungen für den neuen Zustandsvektor
mit den Multipolen respektive als e und e′ gekennzeichnet und mit Gl. (75) und mit
Arest ψ′ = b rest. (76)
Die Matrix Arest ist regulär für die meisten Bildpunktregionenpaare, denn ihre Determi­ nante bestimmt sich zu
Damit ist das System gelöst.
Extremumkonstanzgleichung (Extremum constancy equation (ECE))
Abhängig von der Qualität des Bildmaterials kann es möglich sein, die Orte lokaler Intensitätsmaxima von Bildregionen zu extrahieren und über die Bildsequenz zu verfolgen. Es stellt sich die Frage, wie sich ein Bildpunkt (xi, yi) als Funktion des Relativbewe­ gungszustandes und der relativen Tiefe zum korrespondierenden Objekt verschiebt. Spe­ ziell: Was sind die infinitesimalen Verschiebungen dxi und dyi als lineare Funktionen eines infinitesimalen Zeitintervalls dt? Dies wird durch die Bewegungsgleichungen (Gl. 83)) be­ schrieben. Wie können nun diese lokalen Änderungen dxi/dt und dyi/dt im Bildmaterial gemessen werden?
Zuerst betrachten wir eine Bildpunktregion im Umfeld des lokalen Intensitätsmaxi­ mums. Zweitens schätzen wir die Distanz d von diesem lokalen Maximum zum nächst­ liegenden lokalen Intensitätsextremum. Drittens bestimmten wir den Kreis Ck mit Radius d um den Punkt (xcircle, Ycircle), welcher zu Beginn als lokales Maximum gewählt wurde. Viertens bestimmen wir den Massenschwerpunkt der Bildpunktintensitäten im Kreis
Fünftens interieren wir wie folgt: Wir setzen den neuen Kreismittelspunkt (Xcircle, ycircle)′ gleich dem zu diesem Zeitpunkt berechneten Massenschwerpunkt r cm und berechnen den neuen Schwerpunkt r′ cm mittels dieses Kreises. Wir iterieren, bis der Schwerpunkt identisch eines Fixpunktes r* cm bleibt. Sechstens basiert die ECE-Berechnung auf Intensitäten zu zwei aufeinanderfolgenden Zeitpunkten t₁ und t₂ aufgrund der gewählten Zeitableitung. Entsprechend bestimmen wir die oben vorgestellten Fixpunkte für beide. Wir berechen damit r cm(t₁)* und r cm(t₂)*. Siebentens bestimmen wir die Verschiebung
Δr = Δ(xi,shift, Yi,shift) = r cm(t₁)*. (79)
Wir intepretieren dies als daß die Bildpunktregion durch einen Shift in dieser Größe verschoben wurde. (Für unsere Zwecke reicht es, diese Verschiebung für drei Bildpunktre­ gionzentren (xe, Ye) zu messen; also verwenden wir besonders geeignete Bildregionzentren.)
Jede Bildpunktregion folgt einer Gleichung nach (Eq. (84)) wie folgt
Diese Gleichungen nennen wir die Extremmumkonstanzgleichungen (ECE), im besonderen bezeichnen wir sie als ECEX und ECEY.
Um Rotation und Translation zu trennen, entwickeln wir Gleichungen, die Nullkom­ ponenten für die Translationsterme vi,t k,x und Vi,t k,y besitzen. Zu diesem Zweck betrachten wir einen Punkt in der Bildpunktregion, nehmen die korrespondierenden BCCE (90) und subtrahieren Ix,j mal die ECEX und Iy,j mal die ECEY am Extremwertort (Xe, ye). Damit erhalten wir
Hier setzen wir eine geeignete Approximation der Variablen vi,t y,j und vi,t y,j zu vi,t x,k und vi,t y,k genauso wie vi,t x,e und vi,t y,e zu vi,t x,k und vi,t y,k.
Um statistische Durchschnitte zu erhalten, summieren wir die obigen Gleichungen für alle Bildpunkte (xj, yj) der Bildpunktregion. Also erhalten wir
A Herleitung der BCCE Die Bewegungsgleichungen
Die perspektivisch projektive Transformation (Lochkamera) ist als realistisches Kamera­ modell in der Bildverarbeitungsforschung weit verbreitet (R. J. Schalkoff, Digital Image Processing and Computer Vision, John Wiley & Sons, Inc., New York, 1989). Es ap­ proximiert gut die geometrische Optik der Projektion der dreidimensionalen Welt auf die zweidimensionalen Bildpunkte. Abb. 7 zeigt die Geometrie in frontalprojektiver Dar­ stellung (Bezugszeichen 23).
Wenn sich Objekte (Bezugszeichen 22) vor der Kamera bewegen und/oder die Kamera sich in der Umwelt bewegt, werden korrespondierende Änderungen in den Bildern induziert. Wir leiten nun die Relation zwischen der dreidimensionalen Relativbewegung und der generierten Bewegung auf der Bildebene (Bezugszeichen 21) her.
Nach einem klassischen Resultat der Kinematik kann jede Festkörperbewegung (ohne Deformation) in sechs Komponenten aufgeteilt werden, nämlich Translation t = (tx,ty,tz)T und Rotation ω = (ωxxz)T. Die Wahl der zwei Koordinatensysteme für die Transla­ tion und Rotation ist willkürlich (d. h. die gleiche Bewegung kann mit unendlich vielen Kombinationen von Translationen und Rotationen beschrieben werden). Wir wählen hier das Kamerakoordinatensystem (Fig. 7).
Perspektivische Projektion von 3D-Bewegung resultiert in den Bewegungsgleichungen welche getrennt nach translatorischen und rotatorischen Bewegungskomponenten darge­ stellt werden können (H. C. Longuet-Higgins und K. Prazdny, The Interpretation of a Moving Retinal Image, Proc. R. Soc. Lond., B 208: 385-397, 1980):
Die Gleichungen beschreiben das Bewegungsvorfeld v i an jedem Bildpunkt x i. Der Absolutbetrag der translatorischen Geschwindigkeit kann durch den Beobachter nicht be­ stimmt werden; dies motiviert die Formulierung mit (Tx,Ty,Tz) = durch
Berechnung des Normalenfluß
Wir wählen den Gradientenansatz zur Bewegungsbestimmung. Die Gradienten sind lokal und berechnungstechnisch effizient. In einem heuristischen Ansatz geht man davon aus, daß sich die Intensität eines Raumpunktes in der Zeit nicht ändert:
Taylor Expansion in führender Ordnung resultiert in
Mit Gl. (85) erhält man die sogenannte brightness constancy equation (BCE) mit
und
Das Vektorfeld u = (ux,uy)T = wird als optisches Flußfeld (H. von Helmholtz, Handbuch der Physiologischen Optik, Verlag von Leopold Voss, Hamburg, Dritte Ausgabe, 1909 und J. J. Gibson, The Ecological Approach to Visual Perception, Houghton Mifflin, Boston, 1979) bezeichnet. Wir führen den normierten Gradientenvektor n = und das normierte Flußfeld u n
ein.
Die BCCE
Für jeden Bildpunkt (xj, yj) kann die BCE mit den Bewegungsgleichungen wie folgt zu­ sammengeführt werden. Wir setzen die Geschwindigkeiten in Gln. (84) für diejenigen in Gln. (87) ein. Damit erhalten wir die sogenannte brightness change constraint equation (BCCE) (S. Negahdaripour und B.K.P. Horn, Direct Passive Navigation) IEEE Transac­ tions on Pattern Analysis and Machine Intelligence, 9(1): 168-176, Januar 1987):
B Notation
x
 Vektoren sind unterstrichen
x · y Skalarprodukt (inneres Produkt)
x × y Vektorprodukt
x T
 Transponierter Vektor
x i = (xi, yi)T Pixel location
zo Objektentfernung in z-Richtung
x c Ursprung des Kamerakoordinatensystems
(xk, yk) Bildpunkt
(xe, ye) Bildpunktregionzentrum
(xj, yj) Bildregionpunkt
(xk(j), yk(j)) konjugierter Bildpunkt
j, Yj) = (xj - xe,yj - ye) relativer Bildregionpunkt
v i = (vi x, vi y)T Bewegungsfeld (Bildpunktbewegung)
u = (ux, uy)T Optisches Flußfeld
u n = (un x, un y)T Normalenflußfeld
f Brennweite
t = (tx, ty, tz)T Relative Translationsbewegung
T =  tiefenskalierte relative Translationsbewegung
ω = (ωxyz)T Rotationsbewegung
c = (T, ω) Bewegungszustand
n Raumgradientenvektor im Bild (Einheitsvektor)
I(x,y,t) Intensitätsverteilung an Punkten (x, y) zum Zeitpunkt t
Ix, Iy, It Partielle Ableitungen der Intensität
Îx, Îy Effektive normierte Intensitätsgradienten
μ Modulierte Multipole
μj Multipolelement
μsum Summe der Multipolelemente über die Bildpunktregion
Pq Symmetriefaktor
(ax q, . . ., dt q) Symmetriekoeffizienten
s ∈ {a, b, c, d} Symmetrieindex für die Symmetrieklassen a, b, c und d
(μaj, μb j, μc j, μd j) Symmetriekonforme Submultipolelemente für die Symmetrieklassen
αk(j) Koeffizienten für die konjugierten Bildpunkte
μsum,j Lineare Kombination der modulierten Multipolelemente der konjugierten Bildpunkte
nx, ny Symmetrieexponenten
(Iz, Iz) Zielmustervektor
Ξanis Anisotropieparameter
Nq j Normierungsfaktor
Bezugszeichenliste
10 Piezoelektrisch gesteuerter Spiegel
11 Paralleler Strahlengang
12 Einfallendes Bild
13 Mikrosakkade
14 Spiegel
15 Mechanisch magnetisch getriebene Oszillation
16 Brechungsindexvariierender Flüssigkristall
17 Bildgebender Chip
18 Piezoelektrisch gesteuerte Oszillation und auch Mikrosakkade
19 Bildregionpunkt
20 Konjugierter Bildpunkt
21 Bildebene
22 Objekt
23 Frontalprojektive Darstellung

Claims (18)

1. Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen, das die folgenden Schritte umfaßt:
  • • Messung von Sensordaten yi in Form von Tupeln mit mindestens einer Kompo­ nente und daraus Erhebung von Eingangsdaten zum Zweck der Bestimmung von gewünschten Ausgabesignalen xk mit Hilfe eines funktionalen Zusammenhanges 0 = Fi(yi, x);
  • • Bestimmung der in der Fehlerfortpflanzung im Rahmen einer linearen Näherung vor­ kommenden praktisch bestimmbaren partiellen Ableitungen Δxk = Σj Δyj;
gekennzeichnet durch
• Einlesen positiver Nützlichkeitsparameter vk, welche die Genauigkeitsprioritäten eines Benutzers hinsichtlich der gewünschten Ausgabesignale xk charakterisieren, und Einlesen mindestens einer bereitgestellten Meßgenauigkeit;
• Gemeinsame Bestimmung der Ausgabesignale xk und der adaptierten Wichtungs­ faktoren γj derart, daß ein summierter quadratischer Fehler bei Verwendung der ad­ aptierten Wichtungsfaktoren die Beziehung Σiγii (yi, x) = minimal nahezu erfüllt und der wesentliche Informationsgewinn W = Σkvklog₂ = maximal nahezu erfüllt ist, wobei Σjγj = konstant einzuhalten ist.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
  • • die Sensordaten yi Intensitäten I(x, y, t) an Bildpunkten (x, y) zu Zeitpunkten t eines bildgebenden Sensors entsprechen, wobei die Indizes i der Sensordaten yi Tripel (x, y, t) darstellen,
  • • die gewünschten Größen x₁, x₂, x₃, x₄, x₅ und x₆ jeweils einer x-Rotation, y- Rotation, z-Rotation, tiefenskalierten x-Translation, tiefenskalierten y-Translation und tiefenskalierten z-Translation zwischen beliebigen Objekten (22) und dem bildgebenden Sensor anhand einer Bildsequenz entsprechen, und
  • • die Funktionen Fi entsprechend der Geometrie des bildgebenden Sensors und unter der Voraussetzung, daß die Gesamtintensität von Objekten (22) konstant bleibt, aufgestellt sind,
  • • ferner eine Erhebung von räumlichen und zeitlichen Intensitätsableitungen Ix, Iy und It der Intensitäten I(x, y, t) an den Bildpunkten (x, y) des bildgebenden Sensors als Eingangsdaten vorgenommen wird,
  • • ferner eine gewährleistete relative Meßgenauigkeit des Sensors,
  • • Nützlichkeitsparameter vk für die Bewegungsgrößen x₁, x₂, x₃, x₄, x₅, x₆
  • • zusätzlich Bildregionen eingelesen werden, und
  • • zur Bestimmung der Relativrotationen und tiefenskalierten Translationen Wich­ tungsmuster übernommen werden.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Erhebung der räum­ lichen und zeitlichen Intensitätsableitungen mittels der folgenden Schritte durch­ geführt wird:
  • • Messung der Intensitätsverteilung I(x, y, t) an Bildpunkten (x, y) einer Bild­ fläche des bildgebenden Sensors zu mindestens zwei aufeinanderfolgenden Zeit­ punkten t,
  • • Bildung der zugehörigen Intensitätsableitungen Ix, Iy und It der Intensitätsver­ teilungen nach den Bildpunktkoordinaten x, y aus mindestens zwei benachbar­ ten Bildpunkten bzw. nach der Zeit t aus mindestens zwei aufeinanderfolgenden Bildpunkten.
4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Erhebung der räum­ lichen und zeitlichen Intensitätsableitungen mittels der folgenden Schritte durch­ geführt wird:
  • • unmittelbare Umsetzung der gemessenen Intensität I(x, y, t) durch einen herkömm­ lichen elektronischen analogen Differentiatorschaltkreis in die partielle zeitliche Ableitung wobei zur zusätzlichen Messung der räumlichen Intensitätsablei­ tungen und dem bildgebenden Sensor hochfrequente Mikrobewegungen, sogenannte Mikrosakkaden (13), aufgeprägt werden.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß die Mikrosakkaden (13) durch Plazierung eines piezoelektrisch gesteuerten Spiegels (10) im parallelen Strah­ lengang (11) des einfallenden Bildes (12) erzeugt werden.
6. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß die Mikrosakkaden (13) durch Plazierung brechungsindexvariierender Flüssigkristalle (16) im parallelen Strah­ lengang (11) des einfallenden Bildes (12) erzeugt werden.
7. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß die Mikrosakkaden (13) durch mechanische, magnetisch getriebene Oszillationen (15) eines Spiegels (14) im parallelen Strahlengang (11) des einfallenden Bildes (12) erzeugt werden.
8. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß die Mikrosakkaden durch piezoelektrisch gesteuerte Oszillationen (18) eines bildgebenden Chips (17) realisiert werden.
9. Verfahren nach einem der Ansprüche 2 bis 8, dadurch gekennzeichnet, daß der bild­ gebende Sensor zusätzlich die Signallaufzeit für die doppelte Wegstrecke von dem bildgebenden Sensor zu einem auf den Bildpunkt (x, y) projizierten Objekt (22) bestimmt.
10. Verfahren nach einem der Ansprüche 2 bis 9, dadurch gekennzeichnet, daß zusätzlich Mustermarkierungen in der Szene verwendet werden.
11. Verfahren nach einem der Ansprüche 2 bis 10, dadurch gekennzeichnet, daß die Wich­ tungsmuster anhand des maximalen wesentlichen Informationsgewinnes bestimmt sind.
12. Verfahren nach einem der Ansprüche 2 bis 10, dadurch gekennzeichnet, daß die Wich­ tungsmuster anhand des ausgewählten Bildmaterials vorab bestimmt werden, wobei eine Klassifikation der möglichen gemessenen Intensitäten und eine Bestimmung eines Wichtungsmusters mit relativ hohem wesentlichen Informationsgewinn für jede Klasse vorgenommen wird.
13. Verfahren nach einem der Ansprüche 2 bis 10, dadurch gekennzeichnet, daß die Wich­ tungsmuster anhand der Transformation der gemessenen Intensitätsgradienten auf eingelesene Zielmuster bestimmt werden, wobei dies die folgenden Schritte umfaßt:
  • • Einlesen von speziellen Verfahrensparametern, wie konjugierten Bildpunkten (20), Zielmustern, modulierten Multipolen und symmetrisierten modulierten Multipolgleichungen,
  • • Umsetzung der speziellen Verfahrensparameter, die eine Bestimmung der Sym­ metriefaktoren Pq, eine Berechnung der Symmetriekoeffizienten ax q, bx q, cx q, dx q, ay q, by q, cy q, dy q, at q, bt q, ct q und dt q für die ausgewählten Multipole, eine Bestim­ mung von Konjugationsfaktoren und eine Bestimmung der ausgewählten trans­ formierten modulierten Multipole für die Intensitätsgradienten Ix und Iy aus den ausgewählten Zielmustern umfaßt,
  • • Transformation der gemessenen Intensitätsgradienten auf linear kombinierte In­ tensitätsgradienten mit der Zielmusterorientierung durch Berechnung der Line­ arfaktoren αk(j) für jeden konjugierten Bildpunkt (20) eines Bildregionpunktes (19),
  • • Bestimmung von Normierungsfaktoren ps j anhand einer Transformation der li­ near kombinierten Intensitätsgradienten auf das Zielmuster durch Normieren des linear kombinierten Intensitätsgradienten entsprechend dem Zielmuster,
  • • Bestimmung der transformierten modulierten Multipole für zeitliche Inten­ sitätsableitungen It durch Bestimmung der effektiven zeitlichen Intensitäts­ ableitungen aus den gemessenen zeitlichen Intensitätsableitungen, den Line­ arfaktoren und den Normierungsfaktoren, Bestimmung der zeitlichen transfor­ mierten modulierten Multipolelemente aus den effektiven zeitlichen Intensitäts­ ableitungen, Aufsummieren der transformierten modulierten Multipolelemente zu den transformierten modulierten Multipolen für die zeitlichen Intensitäts­ ableitungen und Aufstellen der ausgewählten symmetrisierten modulierten Mul­ tipolgleichungen aus den transformierten modulierten Multipolen für die Inten­ sitätsableitungen Ix, Iy und It.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, daß separat eine Bestim­ mung der x-Rotation, y-Rotation und der tiefenskalierten z-Translation und eine Bestimmung der z-Rotation, tiefenskalierten x-Translation und tiefenskalierten y- Translation vorgenommen wird.
15. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß gewünschte relative Genauigkeiten qk = mittels der folgenden Schritte in Nütz­ lichkeitsparameter umgesetzt werden:
  • • Einlesen der gewünschten Geschwindigkeit qk,
  • • Bestimmung der vk durch vk =
16. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß die gemeinsame Optimierungsaufgabe der Minimierung von Σi γii (yi, x) und der Maximierung des wesentlichen Informationsgewinnes durch folgende Schritte vorab gelöst wird:
  • • Charakterisieren aller möglichen Konfigurationen der Eingangsdaten.
  • • Auswahl von repräsentativen Konfigurationen der Eingangsdaten.
  • • Für jede repräsentative Konfiguration der Eingangsdaten Lösung der Optimie­ rungsaufgabe der gemeinsamen Bestimmung der gewünschten Daten xk und der Wichtungsfaktoren γj, wobei gilt Σjγj = konstant und Σiγii(yi, x) nahezu minimal, sowie Σkvklog₂ nahezu maximal.
  • • Erstellung einer Klassifikation aller möglichen Konfigurationen der Eingangs­ daten mit jeweils einer repräsentativen Konfiguration pro Klasse.
  • • Für jede Klasse Zuordnung der Lösung der Optimierungsaufgabe der zugehöri­ gen repräsentativen Konfiguration.
  • • Erstellung einer Datei mit dieser Zuordnung.
DE19509277A 1995-02-03 1995-03-15 Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen Expired - Fee Related DE19509277C1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE19509277A DE19509277C1 (de) 1995-02-03 1995-03-15 Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen
PCT/DE1996/000209 WO1996024116A1 (de) 1995-02-03 1996-02-05 Verfahren zur erzeugung maximalen informationsgewinnes für ausgabesignale, insbesondere steuersignale von automaten

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19503606 1995-02-03
DE19509277A DE19509277C1 (de) 1995-02-03 1995-03-15 Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen

Publications (1)

Publication Number Publication Date
DE19509277C1 true DE19509277C1 (de) 1996-06-20

Family

ID=7753144

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19509277A Expired - Fee Related DE19509277C1 (de) 1995-02-03 1995-03-15 Verfahren zur Auswertung von Sensordaten, um präzise Ausgabesignale, insbesondere Steuersignale zur Bewegungsbestimmung von Automaten, zu erzeugen

Country Status (1)

Country Link
DE (1) DE19509277C1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19651172A1 (de) * 1996-12-10 1998-06-25 Dag Auerbach Überwachungsanlage
CN111435537A (zh) * 2019-01-13 2020-07-21 北京初速度科技有限公司 模型训练方法、装置及基于拼接图的位姿优化方法、装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2408746A1 (de) * 1973-02-26 1974-09-05 Minolta Camera Kk Vorrichtung und verfahren zum automatischen fokussieren

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2408746A1 (de) * 1973-02-26 1974-09-05 Minolta Camera Kk Vorrichtung und verfahren zum automatischen fokussieren

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Funkschau 5/87, S. 30-32 *
IEEE Trans. Pattern Anal. Machine Intell., Vol. PAMJ-7, No. 4, July 1985, 384-401, Vol. PAMJ-9, No. 1, Jan. 1987, 168-176 *
Int.J. of Comp. Vision, 4, 1990, S. 171-183 *
Int.J. of Pattern Rec. and Art.Int., Vol. 5, No. 3 (1991), S. 383-397 *
Nature, Vol. 293, 10.09.81, S. 133-135 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19651172A1 (de) * 1996-12-10 1998-06-25 Dag Auerbach Überwachungsanlage
DE19651172C2 (de) * 1996-12-10 2003-08-28 Dag Auerbach Überwachungsanlage
CN111435537A (zh) * 2019-01-13 2020-07-21 北京初速度科技有限公司 模型训练方法、装置及基于拼接图的位姿优化方法、装置
CN111435537B (zh) * 2019-01-13 2024-01-23 北京魔门塔科技有限公司 模型训练方法、装置及基于拼接图的位姿优化方法、装置

Similar Documents

Publication Publication Date Title
EP3657440B1 (de) Verfahren und system zur dreidimensionalen rekonstruktion eines menschlichen kopfes aus mehreren bildern
EP1065628B1 (de) Optische 3-D Messung mit mehreren Näherungspunkten
EP1997070B1 (de) Raum-zeitliches verfahren und vorrichtung zur korrespondenzbestimmung, vorzugsweise zur dreidimensionalen rekonstruktion einer szene
DE19882939C2 (de) Verfahren zum Bestimmen der relativen Kameraorientierungsposition, um sichtbare 3-D-Bilder zu erzeugen
DE69836522T2 (de) Lagenerkennungssystem eines selbstbewegenden Kraftwagens
DE69922183T2 (de) Gesichtserkennung aus videobildern
DE3880975T2 (de) Verfahren und Vorrichtung zur Entfernungsbestimmung zwischen Oberflächenteilen einer drei-dimensionalen räumlichen Szene und einem Kamerasystem.
EP1741059B1 (de) Verfahren zur bestimmung einer position eines markers in einem augmented-reality-system
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
DE60014723T2 (de) System zur Erzeugung eines zusammengesetzten Bildes
DE10307580B3 (de) Verfahren zum Bestimmen und Verfolgen von Position und Orientierung eines Magnetfeldsensors
DE69022143T2 (de) Rechnerische Methoden und elektronische Kameravorrichtung zur Bestimmung der Entfernung von Objekten, zum schnellen Autofokussieren und um eine verbesserte Bildschärfe zu erreichen.
DE112016005905B4 (de) Verfahren und System zum Verschmelzen erfasster Messungen
DE112013003214T5 (de) Verfahren zum Registrieren von Daten
EP2791896B1 (de) Verfahren zur erzeugung von superaufgelösten bildern mit verbesserter bildauflösung und messvorrichtung
DE19828947A1 (de) System und Verfahren zur dreidimensionalen (3-D) Ultraschallbildgabe und Bewegungsabschätzung
DE112012005350T5 (de) Verfahren zum Schätzen der Stellung eines Objekts
EP2201326A1 (de) Verfahren und vorrichtung zur abstandsbestimmung
EP3642560B1 (de) System, verfahren und marker zur positionsbestimmung eines beweglichen objektes im raum
DE102016208056A1 (de) Verfahren und Vorrichtung zur Verarbeitung von Bilddaten und Fahrerassistenzsystem für ein Fahrzeug
EP4285327A1 (de) Vorrichtung und verfahren zur korrespondenzanalyse in bildern
EP1205765B1 (de) Verfahren zur Leitungserkennung für tieffliegende Fluggeräte
DE4437385A1 (de) Verfahren und Vorrichtung zur Bildkorrektur
DE102021002363B3 (de) Gerät für eine lageunabhängige optische Oberflächeninspektion
EP3907466A1 (de) 3d-sensor und verfahren zur erfassung von dreidimensionalen bilddaten eines objekts

Legal Events

Date Code Title Description
8100 Publication of patent without earlier publication of application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee