[go: up one dir, main page]

DE3531681A1 - Flugbahnbestimmung mit opto-elektronischer zeilenkamera - Google Patents

Flugbahnbestimmung mit opto-elektronischer zeilenkamera

Info

Publication number
DE3531681A1
DE3531681A1 DE19853531681 DE3531681A DE3531681A1 DE 3531681 A1 DE3531681 A1 DE 3531681A1 DE 19853531681 DE19853531681 DE 19853531681 DE 3531681 A DE3531681 A DE 3531681A DE 3531681 A1 DE3531681 A1 DE 3531681A1
Authority
DE
Germany
Prior art keywords
rocket
missile
image
observation
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19853531681
Other languages
English (en)
Inventor
Otto Dr Ing Hofmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
Messerschmitt Bolkow Blohm AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Messerschmitt Bolkow Blohm AG filed Critical Messerschmitt Bolkow Blohm AG
Priority to DE19853531681 priority Critical patent/DE3531681A1/de
Priority to EP19860905211 priority patent/EP0235213A1/de
Priority to PCT/DE1986/000357 priority patent/WO1987001441A1/de
Publication of DE3531681A1 publication Critical patent/DE3531681A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)

Description

1. Aufgabenstellung
Es ist die Aufgabe gestellt, die Flugbahn ballistischer Raketen in der Startphase und der daran anschließenden Freiflugphase von Beobachtungs- Satelliten aus zu bestimmen.
2. Lösungsprinzip
Es wird vorgeschlagen, die Start-Region(en) mit einem oder mehreren zeitlich aufeinanderfolgenden Satelliten zu überfliegen, die jeweils eine mehrzeilige opto-elektronische Abtast-Kamera tragen. Eine derartige Kamera ist bereits aus den deutschen Patentschriften DE 29 40 871 C 2 ("Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper . . .") und DE 30 43 577 C 2 (Zusatzanmeldung) sowie der Anmeldung P 32 19 032.8 ("Stereophotogrammetrisches Aufnahme- und Auswerteverfahren . . .") bekannt.
Die Abb. 1 zeigt Ausbildungsformen einer derartigen Kamera, die nach dem an sich bekannten Push-broom-Prinzip arbeitet. Hierbei sind in der Bildebene einer Kamera, dessen Objektiv ständig offen ist, quer zur Flugrichtung drei (A, B, C) oder mehr (N) lineare Halbleitersensoren (in der Regel sog. CCD-Sensoren mit mehreren tausend diskreten Sensorelementen) quer zur Flugrichtung angeordnet.
In einer anderen Ausbildungsform sind die Sensorzeilen in den Bildebenen mehrerer Objektive, deren optische Achsen gegeneinander geneigt sind, angeordnet (siehe Abb. 1.b). In der Abb. 1.b ist jeweils eine Sensorzeile in der Bildebene der Objektive gezeichnet, es können auch mehrere Sensorzeilen je Objektiv angeordnet sein, um die Zahl der Beobachtungen zu erhöhen.
Diese Linearsensoren tasten synchron und zeilenweise das überflogene Objekt, z.B. das Gelände ab und erzeugen auf diese Weise mit jedem Linearsensor je einen Bildstreifen des gleichen Objektes aber aus jeweils unterschiedlicher Perspektive (Abb. 2 und Abb. 3).
Gemäß der o.g. Patentschriften und Anmeldungen ist es damit möglich:
a. die Orientierungsparameter (Positionen X t , Y t , Z t , und Neigungen ω t , ϕ t , t ) der Kamera zu jedem Zeitpunkt t längs der Flugbahn und
b. die Koordinaten X i , Y i , Z i beliebiger Geländepunkte P i
zu ermitteln.
Die Voraussetzung für die Bestimmung der Objektpunkte P i ist, daß ihre Bildpunkte in den von den Linearsensoren A, B, C . . . N erzeugten Bildstreifen durch Korrelation identifiziert und ihre Bildkoordinaten bestimmt werden. Weiterhin war bisher vorausgesetzt, daß diese Objektpunkte P i in dem gemeinsamen Koordinatensystem unveränderlich sind.
Für die vorliegende Aufgabenstellung entfällt diese elementare Voraussetzung, da die aufsteigende Rakete als Funktion der Zeit ihre Position verändert. Der Sachverhalt ist in der Abb. 4 dargestellt. In den Bahnpunkten R A , R B , R C der Rakete wird sie jeweils von den Linearsensoren A, B, C des Beobachtungssatelliten erfaßt, der zu den betreffenden Zeitpunkten t A , t B , t C die Positionen P A , P B und P C einnimmt. In der Abb. 4 ist die Zielerfassung mit drei Sensoren A, B, C dargestellt, es können aber auch mehr (N) Sensorzeilen sein, um die Beobachtungsdichte zu erhöhen.
Die Rakete wird über das Objektiv ständig in die Bildebene der Abtastkamera abgebildet und das Bild kreuzt infolge der Relativbewegung zwischen Satellit und Rakete zu den Zeitpunkten t A , t B , t C , . . . t N die Sensoren A, B, C, . . . N in den Pixeln m A , m B , m C , . . . m N deren Bildkoordinaten x A , y A , x B , y B , x C , y C , . . . x N , y N bestimmbar sind (siehe Abb. 5).
Die Identifizierung dieser Durchgangspunkte ist leicht möglich, da die Licht- oder Wärmestrahlung der Rakete ein deutliches, detektierbares Signal auf dem Sensor verursacht und dessen Zeitpunkt t durch den synchronen Abtasttakt der Sensoren exakt bestimmt ist.
Sofern es sich nur um eine zu erfassende Rakete handelt, die beim Durchgang durch die Sensorzeile ein deutlich detektierbares Signal erzeugt, entstehen keine Probleme, da das Raketenbild jede Sensorzeile nur einmal kreuzt. Sind jedoch mehrere Raketen zu detektieren, entstehen Schwierigkeiten bei der Zuordnung der Signale zu den betreffenden Raketen. Da aber die Bildspuren der Raketen wegen der kontinuierlichen Relativbewegung zwischen Satellit und Rakete ebenfalls kontinuierlich sind, ergibt sich daraus eine bestimmte, zumindest eine eingeengte Zuordnung. Je mehr Sensorzeilen vorhanden sind, desto eindeutiger ist diese Zuordnung. Die Durchgangspunkte einer Rakete durch die Sensorzeilen A, B, C, . . . N müssen zwangsläufig auf einer kontinuierlichen, glatten Kurve liegen. Auch dieses Problem kann mit dem Ansatz einer bestimmten Kurvenfunktion und durch Ausgleichsrechnung gelöst werden.
Für jeden derartigen Sensor-Durchgangspunkt wird nun ein Kollinearitäts- Gleichungspaar aufgestellt, das eine Gerade darstellt, die
- die Momentanpositionen R A , R B , R C , . . . R N der Rakete mit den jeweiligen Koordinaten X r , Y r , Z r
- die Momentanpositionen P A , P B , P C , . . . P N des Satelliten bzw. der Kamera mit den jeweiligen Koordinaten X t , Y t , Z t
- und die Bildkoordinaten x und y des Durchgangspunktes enthält.
Diese Gleichungen lauten:
Darin ist c k die Brennweite (Kammerkonstante) der Kamera und die Koeffizienten a 11 . . . a 33 sind die Koeffizienten der Drehmatrix der Kamera, die Funktionen ihrer Neigungskomponenten ω, ϕ und zum Zeitpunkt t sind.
a 11 = cos ϕ · cos
a 12 = - cos ϕ · sind (3)
a 13 = sin ϕ
a 21 = cos ω · sin + sin ω · sin ϕ · cos
a 22 = cos ω · cos - sin ω · sind ϕ · sin
a 23 = - sin ω · cos ϕ
a 31 = sin ω · sin - cos ω · sin ϕ · cos (3)
a 32 = sind ω · cos + cos ω · sin ϕ · sin
a 33 = cos ω · cos ϕ
Es wird nun davon ausgegangen, daß in den Kollinearitätsgleichungen (1) und (2) die Position und Neigungsparameter der Kamera zum Zeitpunkt t genau bekannt sind. Ihre Kenntnis beruht auf der Ermittlung durch das eingangs erwähnte und in den Patenten beschriebene Verfahren, das hier und in der Literatur als DPS-Verfahren bezeichnet wird (siehe auch O. Hofmann, P. Nav´, H. Ebner: DPS - A Digital Photogrammetric System for Producing Digital Elevation Models and Orthophotos by Means of Linear Array Scanner Imagery, Photogrammetric Engineering and Remote Sensing, Vol. 50, No. 8, August 1984, pp. 1135-1142) und als bekannt vorausgesetzt werden kann.
Die Positions- und Neigungsermittlung des Satelliten bzw. der Kamera durch das DPS-Verfahren ist hier nicht zwingend notwendig, es könnten auch andere Verfahren dafür eingesetzt werden. Aber die Benützung des DPS-Verfahrens liegt hier auf der Hand, da sowohl für diese Orientierungs- und Bahndatenbestimmung des Satelliten und die Bahnermittlung der zu beobachtenden Rakete die gleichen Mittel eingesetzt werden und sämtliche Berechnungen in einem einheitlichen Koordinatensystem und in einem homogenen Prozess stattfinden können.
Unbekannt und gesucht sind die Bahndaten der Rakete. Sie lassen sich allgemein durch folgende Funktionen darstellen:
X R = F x (X s , Y s , Z s , α, β, b, t)
Y R = F y (X s , Y s , Z s , α, β, b, t)(4)
Z R = F z (X s , Y s , Z s , α, β, b, t)
Darin bedeuten:
X s , Y s , Z s Startkoordinaten der Rakete
α Azimutwinkel der Abschußrichtung
β Höhenwinkel der Abschußrichtung
b Beschleunigung
t Zeitpunkt
Die Startkoordinaten X s , Y s , Z s der Abschußrampe können als bekannt vorausgesetzt werden. Sie werden durch Voraufklärung ermittelt und können unmittelbar mit dem gleichen System genau erfaßt werden.
Der Zeitpunkt t ist ebenfalls bekannt (Durchgangszeitpunkt der Rakete durch den Linearsensor, siehe oben).
Annähernd bekannt sind wahrscheinlich die Beschleunigung b der Rakete in der Startphase, wir können sie auch als Unbekannte einführen. In der Freiflugphase ist b = 0. Es kommen sicher weitere Korrekturparameter hinzu, die aber mehr oder weniger bekannt sein dürften und hier der einfachen Darstellung wegen unberücksichtigt bleiben.
Unbekannt und zu ermitteln sind die Azimutrichtung α und der Erhebungswinkel β der Raketenabschußrichtung.
Es genügt aber, für diese Unbekannten zunächst grobe Näherungswerte α 0, β 0, b 0 usw. einzuführen. Wahrscheinlich reicht es aus, von einem senkrechten Start mit dem Azimut α = 0° und dem Erhebungswinkel β = 90° auszugehen.
Mit diesen bekannten und genäherten Daten ergeben sich aus Gl.(4) zunächst genäherte Positionsdaten X r , Y r , Z r der Rakete zu den Zeitpunkten t. Setzt man diese in die Gleichungen (1) und (2) ein, dann erhält man die berechneten Bildkoordinaten und . Infolge der eingeführten Näherungswerte für die Abschußrichtungen α und β und die Beschleunigung b und ggf. weiterer unbekannter aber genäherter Flugparameter weichen diese berechneten Bildkoordinaten und von den gemessenen Bildkoordinaten x und y ab.
Es ergeben sich aus den gemessenen und den berechneten Bildkoordinaten folgende Fehler bzw. Beobachtungsgleichungen:
v x = - x = f x (X r , Y r , Z r ) - x (5)
v y = - y = f y (X r , Y r , Z r ) - y
Für jeden gemessenen Durchgang der Rakete durch einen Linearsensor kann ein derartiges Fehlergleichungspaar aufgestellt werden, und je mehr Durchgänge, d. h. je mehr Sensorzeilen vorhanden sind, desto genauer wird die Bestimmung. Es ist dabei belanglos, ob diese Durchgangsbeobachtungen in einer Kamera erfolgen oder von verschiedenen Kameras in aufeinanderfolgenden Satelliten beobachtet werden, vorausgesetzt, daß sämtliche Messungen in einem einheitlichen Zeit- und Koordinatensystem erfolgen.
Sämtliche Beobachtungen werden nun nach der bekannten Methode der kleinsten Quadrate einer Ausgleichung unterzogen, so daß die Fehlerquadratsumme sämtlicher Fehler v (Gl. 5) zu einem Minimum wird:
[vv] → Min (6)
mit dem Ergebnis, daß die unbekannten, zunächst genäherten Parameter den wahrscheinlichsten Wert annehmen.
Die o. g. Beobachtungsgleichungen (5) sind nicht-lineare Funktionen der Unbekannten α, β, b usw., sie müssen nach Taylor linearisiert werden:
In Matrizenschreibweise ergibt sich
v = M dX - H (8)
Darin ist M die Koeffizientenmatrix der partiellen Ableitungen δ x und δ y nach den Unbkannten α, β, b, deren Korrekturen d α, d β, db als Vektor dX zusammengefaßt sind. H ist der Absolutvektor der Glieder ( - x) und ( - y), die mit den Näherungswerten berechnet sind. Dieser Korrektur-Vektor dX wird durch Bildung und Auflösung des Normalgleichungs-Systems
(M T G M) dX = M T G H (9)
in bekannter Weise bestimmt. G ist darin die Gewichtsmatrix, die die Genauigkeit der Beobachtungen repräsentiert.
Mit den berechneten Korrekturwerten dX (d α, d β, db) werden die genäherten Ausgangswerte α 0, β 0, b 0 usw. verbessert. Mit den verbesserten Werten wird ein neuer Durchgang berechnet. Dieser Iterationsprozess wird so lange fortgesetzt, bis eine gewisse Restfehlergrenze der Fehler v unterschritten ist.
Da im vorliegenden Fall nur relativ wenige Beobachtungen zu verarbeiten und nur wenige Unbekannte zu ermitteln sind, ist die Rechenzeit sehr kurz.
Um die Raketenbahn-Parameter bestimmbar zu machen, müssen stets mindestens so viele Beobachtungen vorliegen wie unbekannte Parameter zu ermittlen sind, möglichst aber mehr. Jeder Sensorzeilen-Durchgang liefert zwei Beobachtungen x und y.
Dieses mathematische Modell erlaubt durch die sog. Gewichtsbestimmung der ausgeglichnen Unbekannten in einfacher Weise eine zuverlässige Genauigkeitsaussage für die Ergebnisse.
Für die Meßwerterfassung kann auch eine Flächenkamera eingesetzt werden, damit erhöht sich lediglich die Zeilenzahl und die Anzahl der Meßpunkte, das Auswerteprinzip bleibt aber das gleiche.
3. Vorzüge des Verfahrens
3.1 Das Verfahren ist einfach und homogen. Es ermöglicht eine lückenlose und genaue Erfassung und Flugbahnbestimmung fremder Raketen nach einem einfachen Schema.
3.2 Mit einem einzigen System, das völlig autark, ohne besondere externe Hilfsmittel arbeitet, sind sowohl die Eigenpositionen und Orientierungsdaten der Beobachtungs-Satelliten als auch die Bahnparameter fremder Raketen und beliebig viele Bodenpunkte bestimmbar.
3.3 Der Einsatz linearer Sensoren ermöglicht trotz großer Auflösung die Erfassung eines breiten Beobachtungsgebietes. Die Benützung von Flächenkameras, Tracking-Technologien und bewegten mechanischen Teilen entfällt.
3.4 Der Einsatz von IR-Sensoren macht das System Allwetter-fähig.
3.5 Als Abtast-Kamera kann statt eines Push-broom-Abtasters ein optisch- mechanischer Scanner mit mehreren Abtastrichtungen eingesetzt werden (siehe Deutsche Patentanmeldung Nr. P 35 17 671.7).
3.6 Als Abtastkamera kann auch eine opto-elektronische oder eine optisch- mechanische Flächenabtastkamera benützt werden.

Claims (2)

1. Verfahren und Vorrichtung zur Ermittlung der Flugbahn einer Rakete durch einen oder mehrere Beobachtungssatelliten, dadurch gekennzeichnet,
a. daß die Beobachtung der Rakete(n) mit einer an sich bekannten mehrzeiligen opto-elektronischen oder optisch mechanischen Abtastkamera erfolgt, wobei die Durchgänge des Raketenbildes durch die Linearsensoren detektiert und ihr Zeitpunkt t sowie die Bildkoordinaten x und y dieses Durchgangspunktes ermittelt und registriert werden;
b. daß für jede Durchgangs-Beobachtung ein Kollinearitäts(Geraden)- Gleichungspaar zwischen dem Beobachtungs-Satelliten und der Rakete aufgestellt wird, das die bekannten Orientierungsparameter des Satelliten und die bekannten und unbekannten aber angenäherten Daten der Raketenbahn zum Zeitpunkt t enthält und berechnete Bildkoordinaten und ergeben;
c. daß aus diesen berechneten Koordinaten , und den gemessenen Kokordinaten x und y jeweils die Fehlergleichungen (Differenzen) v x = - x und v y = - y gebildet werden und daß
d. durch bekannte Ausgleichungsverfahren nach der Methode der kleinsten Quadrate das Minimum der Fehlerquadratsumme [vv] → Min und in einem iterativen Prozess die wahrscheinlichsten Werte der gesuchten Bahnparameter der Rakete(n) gefunden werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß mehrere Satelliten mit entsprechenden Mehrzeilen-Abtastkameras die Rakete bzw. die Zeilendurchgänge dieser Rakete beobachten und in einem einheitlichen Zeit- und Koordinatensystem die Berechnung der Raketen-Bahnparameter erfolgt.
DE19853531681 1985-09-05 1985-09-05 Flugbahnbestimmung mit opto-elektronischer zeilenkamera Withdrawn DE3531681A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE19853531681 DE3531681A1 (de) 1985-09-05 1985-09-05 Flugbahnbestimmung mit opto-elektronischer zeilenkamera
EP19860905211 EP0235213A1 (de) 1985-09-05 1986-09-05 Verfahren zur ermittlung der flugbahn einer rakete
PCT/DE1986/000357 WO1987001441A1 (fr) 1985-09-05 1986-09-05 Procede de determination de la trajectoire d'un missile

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19853531681 DE3531681A1 (de) 1985-09-05 1985-09-05 Flugbahnbestimmung mit opto-elektronischer zeilenkamera

Publications (1)

Publication Number Publication Date
DE3531681A1 true DE3531681A1 (de) 1987-03-12

Family

ID=6280184

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19853531681 Withdrawn DE3531681A1 (de) 1985-09-05 1985-09-05 Flugbahnbestimmung mit opto-elektronischer zeilenkamera

Country Status (3)

Country Link
EP (1) EP0235213A1 (de)
DE (1) DE3531681A1 (de)
WO (1) WO1987001441A1 (de)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3219032C3 (de) * 1982-05-19 1988-07-07 Messerschmitt-Bölkow-Blohm GmbH, 8000 München Stereophotogrammetrisches aufnahme- und auswerteverfahren

Also Published As

Publication number Publication date
WO1987001441A1 (fr) 1987-03-12
EP0235213A1 (de) 1987-09-09

Similar Documents

Publication Publication Date Title
DE2940871C2 (de) Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung
DE3708683C2 (de) Verfahren zur Bestimmung von Lageänderungen einer bewegten Bildsensorplattform
DE1926841C3 (de) Vorrichtung zur Erfassung von Inhaltsänderungen eines Bildes mit willkürlicher Verteilung der Strahlungsenergie gegenüber einem Referenzbild
DE2628379C2 (de) Seitensicht-Impuls-Doppler-Radargerät
EP1681533A1 (de) Verfahren und geodätisches Gerät zur Vermessung wenigstens eines Zieles
DE4112361A1 (de) Dreiachsen-fluglagenregelung fuer ein raumfahrzeug unter verwendung eines polarsternsensors
DE102009040468A1 (de) Tragbare mobile Erfassungseinrichtung und Verfahren zur dreidimensionalen geometrischen Erfassung einer Umgebung
Breton et al. Pre-flight and in-flight geometric calibration of SPOT5 HRG and HRS images
EP1119741A1 (de) Kombiniertes erd-sternsensorsystem und verfahren zur bahn- und lagebestimmung von raumflugkörpern
Bouillon et al. SPOT5 HRG and HRS first in-flight geometric quality results
DE3915633C2 (de)
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
DE10292353B4 (de) Vorrichtung zur autonomen Navigation von Satelliten
JPH0249111A (ja) 走査による天体観測並びに宇宙航空機の角速度の測定のための方法、それを実行するための観測装置およびその観測装置を備えた宇宙航空機
DE2654103C2 (de) Nachtleitvorrichtung für Fernlenkkörper
DE69512487T2 (de) Sensoreinrichtung zur Erderfassung für einen Satelliten oder Ähnliches mit einer pyroelektrischen Detektormatrix
DE3531681A1 (de) Flugbahnbestimmung mit opto-elektronischer zeilenkamera
DE2932468C1 (de) Suchkopf
DE69411045T2 (de) Sterndetektor mit ladungsgekoppelter Matrix, Verfahren zur Detektion und Anwendung zur Neueinstellung eines Raumfahrzeuges
DE3517671A1 (de) Vorrichtung zum bildpunktweisen erfassen der oberflaechengestalt eines entfernten objektes
DE2250251C3 (de) Schaltungsanordnung zum optronischen Abtasten von Geländeprofilen
DE3012601A1 (de) Verfahren und einrichtung zur zeilenweisen aufnahme von gegenstaenden
EP4020373B1 (de) Verfahren zum ermitteln eines 3d-modells einer umgebung
Wang et al. A method for generating true digital orthophoto map of UAV platform push-broom hyperspectral scanners assisted by lidar
DE102007044314B4 (de) Digitale Zeilenkamera

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8130 Withdrawal