DE69430182T2 - Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der Perspektive - Google Patents
Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der PerspektiveInfo
- Publication number
- DE69430182T2 DE69430182T2 DE69430182T DE69430182T DE69430182T2 DE 69430182 T2 DE69430182 T2 DE 69430182T2 DE 69430182 T DE69430182 T DE 69430182T DE 69430182 T DE69430182 T DE 69430182T DE 69430182 T2 DE69430182 T2 DE 69430182T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- target image
- source
- point
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Description
- Der Erfindung betrifft ein Verfahren zur digitalen Bildverarbeitung, um mit Hilfe einer auf ein sogenanntes Quellenbild angewendeten geometrischen Perspektiventransformation ein berechnetes Bild, ein sogenanntes Zielbild zu konstruieren, das das, in bezug auf das Quellenbild, mit Modifikationen des Kippwinkels, Schwenkwinkels und Maßstabsfaktors rekonstruierte Quellenbild darstellt. Die Erfindung betrifft ebenfalls eine Vorrichtung zur Bearbeitung von digitalen Bildern, die in diesem Verfahren durchgeführt wird.
- Die Erfindung wird bei der Verwirklichung von Überwachungssystemen angewandt, die eine gewisse Anzahl von festen Kameras umfassen, die so angeordnet sind, daß ihre einzelnen Gesichtsfelder ineinander übergehen, sodaß ein großwinkliges Gesichtsfeld entsteht, um eine panoramische Szene zu bekommen.
- Ein Verfahren, das zu einem Gerät führt, um eine geometrische Transformation der Perspektive zu erhalten, ist bereits aus der folgenden Veröffentlichung bekannt: "Computer Image Processing and Recognition" von Ernest L. HALL bei der "Academic Press 1979", "A Subsidiary of Harcourt Brace Jonanovitch Publishes, New-York, London, Toronto, Sydney, San Francisco" - Kapitel 3, S. 76 und folgende, vor allem S. 76-88. In dieser Veröffentlichung werden die Definitionen erläutert, was die perspektivische Geometrie ist, was eine Transformation der Perspektive bedeutet, und was eine inverse Perspektive bedeutet, in Abhängigkeit von dem, was man betrachtet; daß man die Punkte eines Bildes auf Lichtstrahlen setzt, die durch diese Punkte gehen, oder daß man Lichtstrahlen auf die Bildpunkte setzt. Der Vorgang, um die Punkte eines Bildes auf Strahlen zu setzen, die diesen Punkten entsprechen, wird "Perspektiventransformation" genannt. Diese Veröffentlichung lehrt erst ein Verfahren, wie man mit dem Problem umzugehen hat, um Punkte auf Strahlen zu setzen, und danach wie man das Problem der "Perspektiventransformation" bei Verwendung von Matrizen 4 · 4 löst. Die Lösung dieses Problems ergibt sich durch eine vollständige analytische Berechnung ausgehend von diesen Matrizen.
- Die Darstellung des Problems mit Hilfe von Matrizen 4 · 4 beruht auf den folgenden Gründen: theoretisch betrachtet sind die Perspektiventransformationen geometrische Probleme, die in einem dreidimensionalen Raum vorliegen, wobei also nur drei Koordinatentypen verwendet werden; in dieser Veröffentlichung wird ausgelegt, daß die Perspektiventransformation keine lineare Transformation ist, woraus sich Schwierigkeiten im Umgang mit den Gleichungen ergeben; diese Veröffentlichung lehrt also, daß jedoch die Lösung der Gleichungen vereinfacht werden kann, indem man die Gleichungen linearisiert, was möglich ist, wenn man eine vierte Variable zufügt; so kann man diese linearisierten Gleichungen auf analytische Weise lösen.
- Nichtsdestoweniger führt das in der genannten Veröffentlichung beschriebenes Verfahren zu Lösungen, deren Formulierungen sehr kompliziert sind. Beispiele hierfür sind im Laufe der Ausführungen der genannten Veröffentlichung angeführt.
- Indes, was die vorliegende Erfindung betrifft, so wird hierbei bereits eine erste Einschränkung auferlegt; und diese besagt, daß die Verwirklichung der Perspektiventransformation in akzeprabeler Zeit, d. h. in Realzeit zu erfolgen hat - d. h. während der Bearbeitung eines Bildes im Rhythmus von 16 bis 25 Bildern, die pro Sekunde entstehen. Es zeigt sich, daß die entsprechend den Ausführungen der genannten Veröffentlichung formulierten Lösungen sehr schwer in Realzeit zu realisieren sind, uns zwar in Anbetracht ihrer Kompliziertheit.
- Es sind jedoch elektronische Vorrrichtungen im Handel, genannt "Transformations-Chips" (franz. "puces de transformation", engl. "Transform CHIPS"), die in der Lage sind geometrische Transformationen durchzuführen, die zur Lösung des Problems der Perspekriventransformationen verwendet werden können. Vor allem kann auf ein Handelsprodukt gewiesen werden, das unter der Typenkennmarke TMC 2302 bekannt und bei der "TRW Company", Anschrift Postfach 2472, LA JOLLA, CA 92 038 (Ver.St. v. A.) erhältlich ist. Dieses Gerät ist imstande, in Echtzeit die sehr komplizierten Berechnungen auszuführen, die die geometrischen Transformationen betreffen, die für die Perspektiventransformationen, um die es hier geht, erforderlich sind.
- Diese "Transformations-Chips" sind jedoch kostspielig, besonders wegen der Tatsache, daß ihr Anwendungsgebiet nicht groß ist; und die Hoffnung ist gering, daß ihr Preis bald abnehmen wird. Außerdem darf man dabei nicht vergessen, daß ihre Benutzung in einem Gerät der Signalbearbeitung, das entsprechend der Erfindung zu benutzen ist, eine gewisse Anzahl von Einschränkungen mit sich bringt, deren Bewältigung schwierig ist. Wenn jedoch trotz allem diese Einschränkungen überwunden sind, ergibt die Rekonstruktion des Zielbildes, wie das eingangs im einleitenden Teil der Anmeldung definiert wurde, ein Resultat, welches man eine Rekonstruktion gemäß einer "exakten Perspektive" nennen könnte. Bei Verwendung der "Transformations-Chips" sieht man die Objekte im Zielbild entsprechend einer geometrischen Perspektive, die der Darstellung sehr nahe ist, die man erhalten würde, wenn man das Zielbild direkt bilden würde, d. h. mit Hilfe einer wirklichen Kamera, die mit den Parametern orientiert ist, die die geometrische Perspektive ergeben, die für dieses gewünschte Zielbild gewählt wurde.
- Der Erfindung liegt die Aufgabe zugrunde eine Vorrichtung zu verschaffen, die die Funktion erfüllt, ein Zielbild zu rekonstruieren, ohne daß es notwendig ist, komplizierte geometrische Transformationen durchzuführen, die nur mit Hilfe von auf dem Markt vorhandenen Handelsprodukten verwirklicht werden können, die sehr kostspielig und mit großen technischen Schwierigkeiten verbunden sind, die nur mühsam bewältigt werden können.
- Gemäß der Erfindung wird diese Zielsetzung mit Hilfe eines Verfahrens der Bearbeitung eines digitalen Bildes erreicht, das im Patentanspruch 2 definiert wird.
- Ein Vorteil des Verfahrens gemäß der Erfindung besteht darin, daß es mit ausschließlicher Verwendung von Speicherkarten verwirklicht werden kann. Diese Speicherkarten kosten heutzutage wenig, und ihre Preise sinken fortwährend, wobei ihre Qualität und ihre Dichte indes zur gleichen Zeit ständig zunehmen. Auf diese Weise sind die zur Durchführung der "Perspektiventransformationen" erforderlichen Funktionen, die gemäß der Erfindung vorgeschlagen werden, sehr leicht auf den Speicherkarten zu registrieren bzw. tabellarisch zu erfassen (auf englisch "LUT" = "LOOK-UP-TABLE").
- Gleichwohl, mittels des Verfahrens der Erfindung erhält der Benutzer ein rekonstruiertes Zielbild, das im Vergleich zu einem Bild, das mit Hilfe einer wirklichen Kamera erstellt worden wäre, kleine geometrische Unterschiede aufweist.
- Bei Gebrauch hat sich jedoch gezeigt, und zwar im Verlauf von Versuchen, die Betrachtern vorgelegt wurden, die nicht darüber informiert waren, auf welche Weise das ihnen gezeigte Bild erstellt worden war, daß die Zielbilder, die entsprechend der Erfindung rekonstruiert worden waren, in gleichem Maße von den zu den Versuchen herangezogenen Betrachtern gewürdigt wurden, wie die Bilder, die mit Hilfe einer wirklichen Kamera erstellt worden waren, mit der gleichen Orientierung und Objektiveinstellung, wie für die Zielbilder, die bei den Versuchen entsprechend der Erfindung erstellt worden waren. Die Betrachter äußerten keine negative Beurteilung wegen der sehr schwachen geometrischen Unterschiede, die durch die Berechnung des Zielbildes entsprechend der Erfindung entstanden; im Gegenteil, sie fanden, daß das Bild eine hohe Qualität hat. Die informierten Betrachter selbst hatten gewisse Schwierigkeiten, die Unterschiede zu entdecken, die zwischen den auf verschiedene Weise erstellten Bildern, dem wirklichen oder dem rekonstruierten, vorhanden sind.
- Das ist ein großer Vorteil, weil das gemäß der Erfindung vorgeschlagene Verfahren mit Hilfe einer kleinen Anzahl von einfachen Modulen verwirklicht werden kann, in denen die Berechnungen ganz mühelos durchgeführt werden können. Das bedeutet, daß ein mit Hilfe dieser Module zur Verwirklichung des Verfahrens erstelltes Gerät sehr einfach herzustellen ist, wobei der Preis im Vergleich zu den im Handel erhältlichen Geräten, die "Transformations-Chips" enthalten, äußerst niedrig ist, und wobei doch eine attraktive Bildqualität präsentiert wird.
- Im weiteren Verlauf der vorliegenden Abhandlung wird die Erfindung im Einzelnen beschrieben und bezieht sich auf die beigefügten schematischen Abbildungen, die mit "FIGUR" bezeichnet werden. Hierzu kann das Folgende gesagt werden:
- Fig. 1A zeigt ein Quellenbild, in Perspektive, in einem festen dreidimensionalen orthonormierten System, d. h. in einem absoluten System, und ebenso die sphärischen Koordinaten seines Zentrums und eines laufenden Punktes; Fig. 1B zeigt ein sogenanntes Zielbild, in Perspektive, in demselben absoluten System, und ebenso die sphärischen Koordinaten seines Zentrums und eines laufenden Bildpunktes;
- Fig. 2A zeigt ein Quellenbild, in Perspektive, in einem individuellen orthonormierten System mit demselben Ursprung wie das absolute System; Fig. 2B zeigt das Zielbild, in Perspektive, im selben orthonormierten individuellen System mit demselben Ursprung wie das absolute System;
- Fig. 3A zeigt die Projektion des Quellenbildes in eine der Ebenen seines individuellen Systems, und Fig. 3B zeigt das Quellenbild paralell zu einer anderen Ebene seines individuellen Systems;
- Fig. 4A zeigt die Projektion des Zielbildes in eine Ebene seines orthonormierten individuellen Systems, und Fig. 4B zeigt das Zielbild paralell zu einer anderen Ebene seines individuellen Systems;
- Fig. 5A zeigt die Projektion des Quellenbildes in eine senkrechte Ebene des absoluten Systems, die die optische Achse dieses Quellenbildes enthält, und Fig. 5B zeigt die Projektion dieses Quellenbildes in die waagerechte Ebene dieses absoluten Systems;
- Fig. 6A zeigt die Projektion des Zielbildes in eine senkrechte Ebene des absoluten Systems, die die optische Achse dieses Zielbildes enthält, und Fig. 6B zeigt die Projektion dieses Zielbildes in die waagerechte Ebene dieses absoluten Systems;
- Fig. 7 zeigt in Perspektive das Ergebnis der ersten Transformation, die mittels einer Drehung erzielt wurde, angewendet auf das Zielbild, um die Funktion G&supmin;¹ zu berechnen;
- Fig. 8A zeigt in Perspektive das Ergebnis der ersten Transformation, die mittels einer Drehung erzielt wurde, die für das Zielbild angewandt wurde, in der Berechnung der Funktion G&supmin;¹, und Fig. 8B zeigt in Perspektive das Ergebnis der zweiten Transformation, die mittels einer Translation erzielt wurde, die auf das Ergebnis der Drehung angewandt wurde, um die Berechnung der durch die Erfindung vereinfachten Funktion G&supmin;¹ durchzuführen;
- Fig. 9A zeigt in einer senkrechten Ebene, wie die verschiedenen Transformationen sich auswirken, die auf das Zielbild angewandt werden für die Berechnung der Funktion G&supmin;¹, und Fig. 9B zeigt in Perspektive, wie sich in Perspektive die zwei Transformationen der Perspektiven G&supmin;¹ und F auswirken;
- Fig. 10A zeigt die Projektion in eine waagerechte Ebene des absoluten Systems der zwei benachbarten Quellenbilder, sowie eines Zielbildes, das ausgehend von diesen zwei Quellenbildern rekonstruiert wurde; Fig. 10B zeigt speziell die waagerechte Ebene des absoluten Systems; Fig. 10C zeigt in einer Ebene, die senkrecht auf den Ebenen der Quellenbilder steht, drei benachbarte Quellenbilder, die von drei wirklichen festen Kameras erstellt wurden, deren Gesichtsfelder ineinander übergehen;
- Fig. 11A zeigt in zwei benachbarten Quellenbildern die Abgrenzung eines sich beiderseits über diese beiden Bilder erstreckenden Teils - erstellt mit Hilfe von Parametern, die einen Kippwinkel, einen Schwenkwinkel und einen Maßstabsfaktor festlegen - zur Rekonstruktion eines Zielbildes, wie dies auf Fig. 11B gezeigt ist;
- Fig. 12A zeigt links ein Quellenbild; Fig. 12B zeigt rechts ein Quellenbild, das an das so eben genannte grenzt; Fig. 12C zeigt ein Zielbild, das man erhalten hätte durch einfache Überdeckung der Grenzen, d. h. des rechten Randes des linken Quellenbildes mit dem linken Rand des rechten Quellenbildes; und Fig. 12D zeigt das Zielbild, das man erhält, wenn man für diese zwei Ausgangsquellenbilder das System der Bildverarbeitung gemäß der Erfindung anwendet;
- Fig. 13 zeigt in Funktionsblöcken das Schema eines Geräts zur Bearbeitung von Bildern vom Typ eines Adressenberechners gemäß der Erfindung;
- Fig. 14 zeigt in Funktionsblöcken das Schema eines Geräts zur Bearbeitung von Bildern, welches einen Adressenberechner gemäß Fig. 13 enthält, der für mehrere Quellenbilder verwendet wird;
- Fig. 15 zeigt in Funktionsblöcken ein System zur Berechnung von trigonometrischen Funktionen, um die Funktion G&supmin;¹ anwenden zu können.
- Bezugnehmend auf Fig. 1A und 1B sowie 10B legt man ein festes, dreidimensionales orthonormiertes System mit (PXa, PYa, PZa) fest, das "absolutes System" genannt wird, mit dem Ursprung P, das als Referenzpunkt in einem dreidimensionalen Raum dient, für den Verlauf der ganzen folgenden Darstellung. Anschließend nennt man die Ebene (Pxa, Pza): "Horizontalebene". Die Achse PYa steht also senkrecht auf dieser Horizontalebene. Entsprechend erhält diese Achse die Bezeichnung: "Senkrechte Achse". Und jede Ebene, die die Achse PYa enthält, bezeichnet man als "Vertikalebene".
- Bezugnehmend auf Fig. 1A, zusammen mit Fig. 2A, wird mit I ein ebenes, digitales Ausgangsbild mit der Bezeichnung "Quellenbild" I festgelegt, das optisch gebildet wird. d. h. daß es ein optisches Zentrum P hat und eine optische Achse PZ, die die Ebene des Quellenbildes I im Punkt O schneidet. Dieser Punkt 0 ist das geometrische Zentrum des Quellenbildes I, und die optische Achse PZ steht im Punkt O senkrecht auf dem Quellenbild I.
- In Fig. 1A und Fig. 2A wird das optische Zentrum P, auch "Fluchtpunkt" genannt, als Punkt solchermaßen definiert, daß jeder Lichtstrahl Pu, der von einem lichtgebenden Obiekt u im Raume ausgeht und in Richtung dieses Fluchtpunkts P geht, die Optik durchquert, wodurch ein digitales Quellenbild ohne Abweichung entsteht. Wir nehmen also einen Objektpunkt u im Raume an, der sein Bild in einem Punkt M im digitalen Quellenbild I hat, und betrachten P als den Fluchtpunkt, der diesem digitalen Bild entspricht; dann ergibt sich aus den Eigenschaften des Fluchtpunktes P, daß die Punkte u, M und P in einer geraden Linie ausgerichtet sind, und daß der Lichtstrahl Pu geradlinig ist.
- In der nachfolgenden Darstellung wird der einfache Fall behandelt, in dem das digitale Quellenbild I quadratisch oder rechteckig ist. Ein Fachmann wird mühelos die Erfindung auf andere digitale Bilder übertragen können. Durch das digitale Bild kommt man zu einem Bild, das aus Bildpunkten aufgebaut ist, die alle über ein Helligkeitsniveau Q verfügen. Das Helligkeitsniveau kann z. B. in einer Skala von Leuchstärkeniveaus mit einer Einteilung von 1 bis 256 erfaßt werden. Die hellsten Bildpunkte oder die Bildpunkte mit der größten Leuchtdichte haben das Helligkeitsniveau mit dem höchsten Wert, und die Bildpunkte mit der niedrigsten Leuchtdichte bzw. die dunklen Bildpunkte haben das Helligkeitsniveau mit dem niedrigsten Wert.
- Entsprechend Fig. 2A sowie 3A und 3B verfügt das Quellenbild I über ein individuelles, dreidimensionales, orthonormiertes System (PX, PY, PZ), das speziell zu diesem Bild I gehört. Der Ursprung des individuellen Systems (PX, PY, PZ) wurde im Fluchtpunkt P des Quellenbildes I gewählt; die optische Achse PZ des Quellenbildes I ist eine Achse des Systems. Dieses individuelle System trägt die Bezeichnung "Quellensystem".
- In Fig. 3A fällt die Ebene (PZ, PX) des individuellen Quellensystems zusammen mit der Ebene des Zeichenblattes. Das Quellenbild I, das senkrecht zur Achse PZ liegt, wird durch ein Segment dargestellt. Die Achse PY steht senkrecht zur Ebene des Zeichenblattes. Die Größe d = PO trägt die Bezeichnung "Maßstabsfaktor des Quellenbildes". In Fig. 3B ist die Ebene (PX, PY) des individuellen Quellensystems paralell zur Ebene des Zeichenblattes; und das Quellenbild I, hier quadratisch, wird in dieser Ebene gezeigt. Die Achse PZ steht senkrecht zu dieser Ebene in O. Die Achsen PX, PY des individuellen QuellenSystems haben als Projektionen OX', OY' in der Ebene des Quellenbildes; die Achsen PX, PY und somit auch ihre Projektionen OX', OY' wurden parallel zu den Zeilen und zu den Spalten der Bildpunkte des digitalen Quellenbildes I gewählt. Das geometrische Zentrum O wurde deckungsgleich mit einem Bildpunkt gewählt.
- Entsprechend Fig. 2A und 3B hat jeder Punkt M des Quellenbildes I als Projektion im System OX', OY' die Punkte M' und M", d. h.
- MM' = Y
- Und MM" = X.
- Somit hat jeder Punkt im Quellenbild I als Koordinaten:
- M - > (X, Y) im System (OX', OY')
- Und M - > (X, Y, d) im System des Quellenbildes (PX, PY, PZ).
- Entsprechend Fig. 1 B sowie Fig. 2B, 4A und 4B bestimmt man übrigens im dreidimensionalen Raum eine andere Bildebene mit der Bezeichnung "Zielbildebene", die man als I* (I Stern) angibt. Dieses Zielbild I* ist ein digitales Bild, das zur Vereinfachung der Darstellung gewählt wurde, und es hat dieselbe geometrische Form wie das Quellenbild I, d. h. quadratisch oder rechteckig. Andererseits ist diesses Zielbild auch mit einem optischen Zentrum oder einem Fluchtpunkt verbunden, sowie mit einer optischen Achse, die durch diesen Fluchtpunkt hindurchgeht.
- Hypothetisch nimmt man entsprechend Fig. 1B und 2B an, daß der Fluchtpunkt des Zielbildes I* der Punkt P ist, d. h., daß die Fluchtpunkte der Quellenbilder I und des Zielbildes I* vertauscht sind. Man bezeichnet mit PZ* die optische Achse des Zielbildes I*, die die Ebene dieses Zielbildes I* in einem Punkt O* schneidet. Dieser Punkt O* ist das geometrische Zentrum des Zielbildes I*, und die optische Achse PZ* steht im Punkte O* senkrecht auf der Ebene des Zielbildes I*.
- Der Fluchtpunkt P hat dieselben Eigenschaften gegenüber der Bildung des Zielbildes I* wie der des Quellenbildes I, d. h. daß der Bildpunkt M* in I* eines Objektpunktes u im Raum sich im Schnittpunkt des Lichtstrahles Pu mit der Zielbildebene I* befindet, und daß die Punkte PM*u auf dem geradlinigen Lichtstrahl Pu ausgerichtet sind.
- Entsprechend Fig. 2B, 4A und 4B ist das Zielbild I* mit einem individuellen dreidimensionalen orthonormierten System (PX*, PY*, PZ*) versehen, wobei dieses System zu diesem besonderen Zielbild I* gehört. Der Ursprung des individuellen Systems (PX*, PY*, PZ*) wurde im gemeinsamen Fluchtpunkt P des Quellenbildes I und des Zielbildes I* gewählt; die optische Achse PZ* des Zielbildes I* ist eine der Achsen dieses Systems. Das individuelle System trägt die Bezeichnung "Zielsystem".
- In Fig. 4A ist die Ebene (PZ*, PX*) des ZielSystems mit der Ebene des Zeichenblattes vertauscht. Das Zielbild I*, das senkrecht auf der Achse PZ* steht, wird durch ein Segment dargestellt. Die Achse PY* steht senkrecht auf der Ebene des Zeichenblattes. Die Größe d* = PO* trägt die Bezeichnung "Maßstabsfaktor des Zielbildes".
- In Fig. 4B liegt die Ebene (PX*, PY*) des Zielsystems parallel zur Ebene des Zeichenblattes, und das Zielbild I*, hier quadratisch wie das Quellenbild I, wird in dieser Ebene gezeigt. Die Achse PZ* steht in O* senkrecht auf dieser Ebene. Die Achsen PX* und PY* des ZielSystems haben als Projektion O*X* und O*Y* in der Ebene des Zielbildes; die Achsen PX*, PY* und somit auch ihre Projektionen O*X*, O*Y* wurden jeweils parallel zu den Zeilen uns Spalten der Bildpunkte des digitalen Zielbildes gewählt. Das geometrische Zentrum O* wurde deckungsgleich mit einem Bildpunkt gewählt.
- Entsprechend Fig. 2B und 4B hat jeder Bildpunkt M* des Zielbildes als Projektionen im System (O*X*, O*Y*) die Punkte M'* bzw. M"*. Somit hat jeder Bildpunkt M* des Zielbildes I* als Koordinaten:
- M* - > (X*, Y*) im System (O*X*, O*Y*)
- Und M* - > (X*, Y*, d*) im Zielsystem (PX*, PY*, PZ*).
- Entsprechend Fig. 1A und 1B wird hypothetisch ebenfalls festgelegt, daß die Fluchtpunkte aller Quellen- und Zielbilder mit dem Ursprung P des absoluten Systems (PXa, PYa, PZa) vertauscht sind. Entsprechend Fig. 1A kann man die Winkelparameter definieren, die das individuelle System des Quellenbildes I mit dem absoluten System verknüpfen. Fig. 1A zeigt in Perspektive die Ebene des Quellenbildes im dreidimensionalen Raum, versehen mit dem System (OX*, OY*) in seiner Ebene, wobei das zugehörige geometrische Zentrum O sich im Abstand d (oder im Abstand des Quellenmaßstabsfaktors) vom absoluten Ursprung (dem gemeinsamen Fluchtpunkt) P befindet, und wobei sich außerdem die drei Achsen (PXa, PYa, PZa) dieses absoluten Systems gezeigt werden. Die Achse PZa trägt die Bezeichnung "Referenzursprungsachse" in der horizontalen Ebene (PZa, PXa).
- Wie man aus den vorherigen Ausführungen gesehen hat, wird die optische Quellenachse in PTa in die waagerechte Ebene (PXa, PZa) projiziert. Diese Projektion erfolgt paralell zur senkrechten Achse PYa. In dieser Projektion trägt die Prokjetion des geometrischen Zentrums O die Bezeichnung Oa. Die Ebene (PZ, PTa) ist eine "Sebkrechte Ebene".
- Durch diesen Projektionsvorgang werden zwei Winkel, die das individuelle Quellensystem (PX, PY, PZ) mit dem absoluten System (PXa, PYa, PZa) verbinden, definiert. Dies sind:
- der Kippwinkel φ (in englischer Sprache: "TILTING ANGLE"), d. h. der Winkel, um den man die optische Quellenachse PZ senkrecht zu drehen hat, um diese in die waagerechte Ebene (PXa, PZa) in PTa zu bringen,
- sowie der Schwenkwinkel θ (in englischer Sprache "PANNING ANGLE"), d. h. um den man die Projektion PTa waagerecht zu drehen hat, um diese auf die Referenzursprungsachse PZa zu bringen.
- Auf Fig. 5A, auf der die senkrechte Ebene (PYa, PTa) gezeigt wird, ist I die Spur des Quellenbildes, PZ ist die optische Achse, O ist das geometrische Zentrum des Quellenbildes, und d ist der Quellenmaßstabsfaktor. Somit ergibt sich:
- der Kippwinkel φ wird durch den Winkel (PZ, PTa) angegeben.
- In Fig. 5B, die die waagerechte Ebene (PZa, PXa) darstellt, wird der Schwenkwinkel θ durch den Winkel (PTa, PZa) angegeben.
- Wenn man in Fig. 1A die Quellenebene I durch die Zielebene I* ersetzt, kann man auf dieselbe Weise den Kippwinkel φ* und den Schwenkwinkel θ* bestimmen, die das individuelle Zielbildsystem mit dem absoluten System verbinden.
- Entsprechend Fig. 1B kann man somit die Winkelparameter definieren, die die individuellen Koordinaten des Zielbildes I* mit den absoluten Koordinaten verbinden. Fig. 1B zeigt in Perspektive die Ebene des Zielbildes I* im dreidimensionalen Raum, die mit den Koordinaten (OX*, OY*) in dieser Ebene versehen sind; das geometrische Zentrum O*, daß sich im Abstand d* (Zielmaßstabsfaktor) vom absoluten Ursprung (gemeinsamer Fluchtpunkt) P befindet, und zeigt außerdam die drei Achsen (PXa, PYa, PZa) dieses absoluten Systems.
- Die optische Zielachse PZ* wird in PTa* auf die waagerechte Ebene (PXa, PZa) projiziert. Diese Projektion erfolgt parallel zur senkrechten Achse PYa. In dieser Projektion ist die Projektion des geometrischen Zentrums O* der Punkt Oa*. Die Ebene (PZ, PTa) ist eine "senkrechte Ebene". Bei diesem Projektionsvorgang werden zwei Winkel definiert, die die individuelle Quellenbildeinstellung (PX*, PY*, PZ*) mit der absoluten Bildeinstellung (PXa, PYa, PZa) verbinden; diese Winkel sind:
- der Kippwinkel φ (in englischer Sprache "TILTING ANGLE"), d. h. der Winkel, um den man die optische Zielachse PZ* senkrecht zu drehen hat, um diese in die waagerechte Ebene (PXa, PZa) auf PTa* zu bringen,
- sowie der Schwenkwinkel θ (in englischer Sprache "PANNING ANGLE"), d. h. der Winkel, um den man die Projektion PTa* waagerecht zu drehen hat, um diese auf die Referenzurprungsachse PZa zu bringen.
- Auf Fig. 6A, auf der die senkrechte Ebene (PYa, PTa) gezeigt wird, ist I* die Spur des Zielbildes, PZ* ist die optische Achse, O* ist das geometrische Zentrum des Zielbildes, und d* ist der Zielmaßstäbsfaktor. Somit ergibt sich:
- der Kippwinkel φ* wird durch den Winkel (PZ*, PTa*) angegeben.
- In Fig. 6B, die die waagerechte Ebene (PZa, PXa) darstellt, Ia* die orthogonale Projektion des Zielbildes I*, Oa* die Projektion von O*, und PTa* ist die Projektion der optischen Achse PZ*. Somit ergibt sich:
- der Schwenkwinkel θ* wird durch den Winkel (PTa*, PZa) angegeben.
- Die Zielsetzung der Erfindung ist die Auffindung eines Verfahrens zur Konstruktion eines Zielbildes I*, ausgehend von einem Quellenbild I, wobei eine geometrische Transformation verwendet wird, die hierzu die nachstehenden Winkeländerungen berücksichtigt:
- des Quellenschwenkwinkels θ in den Zielschwenkwinkel θ*;
- des Kippwinkels der Quelle φ in den Kippwinkel des Zieles φ*;
- wobei die Maßsstabsänderung berücksichtigt wird, um vom Maßstabsfaktor d zum Maßstabsfaktor d* zu gelangen.
- Die Konstruktion des Zielbildes erfolgt dadurch, daß man jedem Bildpunkt M* des Zielbildes eine Leuchtdichte von der Höhe Q zuweist, die durch die Parameter φ*, θ* und d* charakterisiert wird. Diese Leuchtdichtenhöhe ist im Punkte M des Quellenbildes zu finden, der das Bild ist desselben Objektpunktes u im dreidimensionalen Raum in einer zu filmenden Szene. Wenn man die Tatsache berücksichtigt, daß das Zielbild I* so gewählt wurde, daß es denselben Fluchtpunkt P hat, wie das Quellenbild, und wenn man die Eigenschaften des gemeinsamen Fluchtpunktes berücksichtigt, folgt hieraus, daß die Punkte M des Quellenbildes und M* des Zielbildes auf demselben geradlinigen Lichtstrahl Pu ausgerichtet sind.
- Auf diese Weise ergibt sich, daß, wenn man von der Hypothese ausgeht, daß die Koordinaten (X*, Y*) eines Punktes M* im Zielbild I*, dessen Leuchtdichtenhöhe gesucht wird, in seinem individuellen System (PX*, PY*, PZ*) bekannt sind, das Verfahren der vorliegenden Erfindung die Bestimmung der Koordinaten umfaßt (X, Y) des Punktes M entsprechend dem Quellenbild I in seinem individuellen System (PX, PY, PZ). Sodann, wenn man die Lage des Punktes M im Quellenbild I kennt, umfaßt das Verfahren gemäß der vorliegenden Erfindung also die Bestimmung der Leuchtdichtenfunktion Q (X, Y), die zu diesem Punkt M im Quellenbild zugehört.
- Sodann, wenn man die Leuchtdichtefunktion Q (X, Y) kennt, die zum Punkt M des Quellenbildes zugehört, umfaßt das Verfahren der vorliegenden Erfindung die Bestimmung einer Leuchtdichtefunktion Q* (X*, Y*), die zum Punkt M* des zu konstruierenden Zielbildes zugehören muß. Da man in diesem Augenblick die Angaben, aus denen eine Leuchtdichtefunktion für jeden Punkt des Zielbildes zusammengesetzt ist, zur Verfügung hat, erlaubt das Verfahren, gemäß der Erfindung, das Zielbild zu konstruieren. Im gesamten Verfahren der Bildverarbeitung wird das Quellenbild durch eine erste Serie von Parametern gegenüber einem absoluten System im dreidimensionalen Raum definiert; das Zielbild wird durch eine zweite Serie von Parametern gegenüber dem obengenannten absoluten System definiert. Diese Parameter sind die Schwenkwinkel θ, θ* und die Kippwinkel φ, φ*, die jedes individuelle System mit einem absoluten System verbinden, ebenso wie die Maßstabsfaktoren d und d*, die zu jeder Quellenbildebene oder Zielbildebene zugehören.
- Die Rekonstruktion des Zielbildes beruht auf der Tatsache, daß die einander entsprechenden Punkte M im Quellenbild und M* im Zielbild die Bildpunkte desselben Objektpunktes u im dreidimensionalen Raum sind. In einer exakten Berechnung befinden sich diese Punkte auf demselben geradlinigen Lichtstrahl Pu, der für beide Bilder I und I* in Richtung auf den gemeinsamen Fluchtpunkt P geht und durch den Objektpunkt u hindurchgeht.
- Um einen Bildpunkt im Zielbild mit einem Punkt im Quellenbild in Übereinstimmung zu bringen, wobei das Bild desselben Punktes u im Raume sich auf einem Lichtstrahl Pu befindet, der auf dem gemeinsamen Fluchtpunkt P ruht, ist es notwendig, die Funktionen der Perspektiventransformation zu bestimmen, die es erlauben, die Koordinaten eines jeden Punktes in einer Quellen- oder Zielebene mit diesem Lichtstrahl Pu zu verbinden, der durch diesen Objektpunkt u im Raume und durch den Fluchtpunkt P hindurchgeht. Diese Funktionen der Perspektiventransformation haben die Aufgabe, die Beziehungen aufzustellen zwischen:
- der Leuchtdichtefunktion Q* (X*, Y*), 1a)
- die zum Bildpunkt des Zielbildes I* gehört,
- und der Leuchtdichtefunktion Q (X, Y), 1b)
- die zum entsprechenden Punkt M des Quellenbildes I gehört. Diese Entsprechung ist gegeben, wenn die folgende Gleichung gilt:
- Q* (X*, Y*) = Q(X, Y) 2)
- Zur Lösung dieser Aufgabe definiert man eine erste Funktion F, und zwar folgendermaßen:
- (X, Y) = F (α, β) 3a)
- und eine zweite Funktion G in der Weise:
- (X*, Y*) = G (α, β) 3b)
- Die Parameter α und β sind die Winkelparameter, die weiter unten definiert werden. Nachdem diese Winkelparameter α und β definiert sind, kann das Glied 1a) der Gleichung 2) mit Hilfe der erstgenannten Funktion F als Funktion von α und β geschrieben werden, wie das nachstehend dargestellt ist:
- Q (X, Y) = Q [F (α, β)] 4a)
- Aus der Gleicung 3b) folgert man, daß:
- (α, β) = G&supmin;¹ (X*, Y*) 5)
- Bei Anwendung der Gleichung 5) auf die Gleichung 4) ergibt sich:
- Q (X, Y) = Q [F (G&supmin;¹ (X*, Y*))]
- Der Ausdruck 2) kann dann so geschrieben werden, daß das Glied 1b) durch den Ausdruck 4b) ersetzt wird. Hieraus folgt:
- Q* (X*, Y*) = Q [F (G&supmin;¹ (X*, Y*))] 5a)
- Das zweite Glied der Gleichung 5a) ist eine Verknüpfung von drei Funktionen, das man unter Verwendung des mathematischen Symbols für Funktionsverknüpfungen "o" schreiben kann. Die Gleichung 5a) läßt sich dann folgendermaßen schreiben:
- Q* (X*, Y*) = QoFoG&supmin;¹ (X*, Y*) 5b)
- oder noch einfacher:
- Q* = QoFoG&supmin;¹ 6)
- In der Gleichung 6) sind die Fuktionen Q* und Q Leuchtdichtefunktionen, und die Funktionen F und G&supmin;¹ sind Gleichungen für die Perspektiventransformation.
- Es ist schon in der Einleitung der Erfindungsbeschreibung ausgeführt worden, daß der gegenwärtige Kenntnisstand der Technik Funktionen der Perspektiventransformation bietet, die gewiß zu einer "genauen" Zielbildkonstruktion durch Bearbeitung des Quellenbildes führen können, daß jedoch diese Genauigkeit in der Konstruktion mit dem Nachteil des Einsatzes sehr mühselig zu verwendender Mittel erzielt wird, dabei verbunden mit Einschränkungen, die kaum vereinbar mit dem zu lösenden Problem und dazu auch noch sehr kostspielig sind. Die vorliegende Erfindung richtet sich auf die Bestimmung der Funktionen F und G&supmin;¹ der Perspektiventransformation, die die folgenden Eugenschaften haben:
- a. diese Funktionen, die keinen Anspruch erheben, "streng exakte Konstruktionen" des von einem Quellenbild ausgehenden Zielbildes zu sein, präsentieren dennoch eine solche Konstruktion des Zielbildes - mit Berücksichtigung von Annäherungen, die ein Außenstehender dieser Konstruktion als "redlich und genügend wirklichkeitstreu" betrachten kann - daß, allgemein gesehen, ein nicht spezialisierter und informierter Betrachter ein gemäß der Erfindung konstruiertes Zielbild nicht von einem "streng exakt" konstruierten Zielbild unterscheiden kann.
- b. Diese Funktionen können mit einfachen Mitteln, die nicht kostspielig sind, angewendet werden.
- c. Bei Verwendung dieser Funktionen ist es möglich, die Konstruktion des Zielbildes in Echtzeit zu erreichen, wodurch das technische Problem, das im einleitenden Teil der vorliegenden Beschreibung dargestellt wurde, eine Lösung findet.
- Gemäß der Erfindung sind also zunächsr die zwei Funktionen F und G&supmin;¹ zu definieren.
- Entsprechend Fig. 1B, ebenso wie das übrigens bei Fig. 6B gezeigt wird, wird ein Lichtstrahl Pu, der durch den Bildpunkt M* des Zielbildes I* durchgeht, orthogonal in Pua auf die waagerechte Ebene (PZa, PXa) des absoluten Systems projiziert.
- In dieser Projektion ist die Ebene (Pu, Ppa) eine senkrechte Ebene, und der Punkt M* ist die Projektion auf Ppa des Bildpunktes M* von Pu; diese Projektion erfolgt parallel zur senkrechten Achse PYa. Sobald man also die Koordinaten (X*, Y*) eines gegebenen Bildpunktes M* im Zielbild kennt, trachtet man die sphärischen Koordinaten zu bestimmen, die den Lichtsrahl Pu definieren, der durch den Punkt M* hindurchgeht.
- Diese sphärischen Koordinaten, die zum Strahl Pu gehören, sind die folgenden:
- Winkel α = (PZa, Pua) in der Horizontalebene,
- Winkel β = (Pu, Pua) in der Vertikalebene.
- Diese Winkel bestimmen vollständig die Lage des Lichtstrahls Pu im absoluten System, und somit auch in dreidimensionalen Raum.
- Danach wählt man die Gleichungen, um die sphärischen Koordinaten α und β (bzw. die Winkel α und β), die im absoluten System betrachtet werden, mit den Koordinaten X*, Y*, die im individuellen System des Zielbildes I* betrachtet werden, zu verbinden.
- Entsprechend Fig. 2B, die in Perspektive die Zielebene I* in ihrem individuellen System (PX*, PY*, PZ*) zeigt, ist ein Punkt M* vollständig definiert, wenn man die folgenden Größen kennt:
- Winkel A* = (PM'*, PO*),
- Winkel B* = (PM, PM'),
- wobei M' * die Projektion von M* auf die Achse X' * in der Ebene des Zielbildes I* ist, und der Maßsstabsfaktor d* = PO*,
- der den Abstand zwischen dem gemeinsamen Fluchtpunkt P, der den absoluten Ursprung darstellt, und dem Punkt O*, dem geometrischen Zentrum des Bildes I*, bildet.
- Im vorausgehenden hat man entsprechend Fig. 2B und 4B gesehen, daß:
- M*M'* = Y* ist,
- und O*M'* = X*.
- Entsprechend Fig. 2B berechnet man:
- A* = arc tg (X*/d*), sowie 20a)
- B* = arc tg [(cos A*) Y*/d*] 20b)
- Entsprechend dieser Fig. 2B trachtet man nun den Punkt M* zu definieren, nicht nur in seinem individuellen System, sonden auch im absoluten System.
- Entsprechend Fig. 1B geht man vom individuellen System zum absoluten System über, indem man nacheinander eine Drehung -φ* ("TILTING") sowie eine Drehung -θ("PANNING") auf die optische Achse PZ* des Zielbildes durchführt, um diese auf die Achse PZa des absoluten Systems überzuführen. Man kann also die folgenden Formeln für den Systemwechsel schreiben, die in Tabelle I gegeben sind, und man erhält nach den Berechnungen
- β = arcsin(- cosB *·cosA*·sinφ* + sinB *·cosφ*] 21b)
- Man hat nun durch die Gleichungen 21a und 21b unter Berücksichtigung der Gleichungen 20a und 20b die Möglichkeit, die bereits definierte geometrische Funktion G&supmin;¹ zu bestimmen:
- (α, β) = G&supmin;¹ (X*, Y*).
- Man hat jedoch zu bedenken, daß man gemäß der Erfindung darauf gerichtet ist, das Zielbild I* in Echtzeit zu berechnen. Das bedeutet, daß die mit den Funktionen G&supmin;¹ und F verbundenen Berechnungen auch in Echtzeit durchzuführen sind. Es zeigt sich indes bei Betrachtung der Gleichungen 20 und 21, die genaue trigonometrische Gleichungen darstellen, daß die Berechnung der Funktion G&supmin;¹ mit Hilfe dieser Gleichungen in Echtzeit sehr mühevoll und schwierig ist.
- Im Weiteren wird darum eine Annäherungsform dieser Funktion vorgeschlagen, oder, genauer gesagt, eine Transformation dieser Funktion, die es nicht nur erlaubt, die Konstruktion des Zielbildes in Echtzeit zu erreichen, sondern auch dieses Zielbild mit für den Betrachter sehr angenehmen und bequemen Modifikationen der Perspektive zu erreichen. Dieser Punkt wird weiter untenstehend ausgearbeitet.
- Die Transformation, der die Funktion G&supmin;¹ unterworfen wird, beruht auf den folgenden Betrachtungen:
- Entsprechend Fig. 9A, die im Schnitt das Zielbild I* in der senkrechten Ebene (PZ*, PTa*) zeigt, enthält diese Ebene die optische Achse PZ* des Zielbildes, die durch das geometrische Zentrum O* hindurchgeht, und die Projektion PTa* dieser optischen Achse auf die waagerechte Ebene; man fuhrt nun eine Projektion des Zielbildes I* auf eine senkrechte Ebene mit der Bezeichnung H aus, und man bezeichnet mit H* das Bild, das man aufgrund der Projektion erhält. Entsprechend Fig. 9A wählt man die Projektionsebene H als senkrechte Ebene, die folgendermaßen beschaffen ist:
- senkrecht auf der waagerechten Ebene (PZa, PXa*),
- senkrecht auf der Ebene (PZ*, PTa*),
- im Abstand der Größe d* = PΩR vom absoluten Ursprung P.
- Auf dieser Fig. 9A erscheint die Ebene des Zielbildes I* selbst:
- senkrecht auf der wagerechten Ebene (PZ*, PTa*),
- im Abstand der Größe d* = PO* vom absoluten Ursprung P,
- jedoch nicht senkrecht auf der waagerechten Ebene (PZa, PXa).
- Das Bild H*, das man bei dieser Projektion erhält, hat dieselben Abmessungen, d. h. dieselbe Bildeinstellung wie das Zielbild I*, und sein geometrisches Zentrum, mit der Bezeichnung ΩH, ist ein Bildpunkt in diesem Bild H*, der sich im Schnittpunkt der optischen Achse PZ* mit der Bildebene H* befindet. Unter diesen Umständen ist der Abstand des geometrischen Zentrums des senkrechten Bildes H*, das auf PZ* gelegen ist und die Bezeichnung ΩH* trägt, zur waagerechten Ebene (PZa, PXa) der folgende:
- ΩH* ΩR* = Yo
- Entsprechend Fig. 9A ergibt sich
- Yo = d*·tg_*. 19)
- Um diese Projektion von I* auf H* durchzuführen, kann man die ausgeführte geometrische Transformation zerlegen, und zwar in zwei elementare geometrische Transformationen; diese sind:
- a. EINE DREHUNG, wobei entsprechend Fig. 8A und 9A sich das Zielbild I* um einen Winkel φ* im dreidimensionalen Raum dreht, um Deckungsgleichheit der optischen Zielachse PZ* mit ihrer Projektion PTa* in der waagerechten Ebene zu erreichen.
- Diese Drehung erfolgt parallel zur senkrechten Ebene (PZ*, PTa*) der Fig. 9A. Durch diese Drehung wird das Bild I* ein senkrechtes Bild R*, das sich in derselben Ebene H befindet, wie das projizierte Bild H*, das man zu bekommen trachtet; seine optische Achse wurde mit PTa* vertauscht; sein optisches Zentrum ist ΩR* - der Schnittpunkt von PTa* mit R*, und sein Maßstabsfaktor ist stets d*, der folgendermaßen gemessen wird:
- PΩR* = d*.
- Fig. 8A zeigt in Perspektive jeweils die Lage des Zielbildes I* sowie des Bildes R*, das man durch die Drehung φ* erreicht, der man seine optische Achse PZ* unterwirft, um diese auf PTa* zu bekommen; diese Drehung erfolgt in der senkrechten Ebene (PYa, PTa*).
- In Fig. 8A hat man festgestellt, daß die Achse PTa* durch diese Drehung Deckungsgleichheit mit der optischen Achse PZR* des Bildes R* erreicht, das bei der Drehung entsteht. In Fig. 8A wird gezeigt, daß in der Drehung φ* der Lichtstrahl Pu, der das Bild des Bildpunktes M* im Zielbild I* entstehen läßt, zum Lichtstrahl PWR* wird, der das Bild R* im Bildpunkt MR*, der M* entspricht, durchschneidet.
- Fig. 7 zeigt in Perspektive das Bild R* im absoluten System und verfügt außerdem über ein individuelles System, das identisch mit dem individuellen System des Bildes I* ist. Das bedeutet, daß das Bild R* über ein orthogonales individuelles Achsensystem verfügt, in dem der Bildpunkt MR* - > (X*, Y, d*).
- Man beachte, daß bei dieser Transformation durch die Drehung φ* die Winkel zwischen jeder der senkrechten Ebenen, die bei der Definition des Zielbildes eine Rolle spielen, nicht verändert werden. Somit gilt:
- Winkel α = (PZa, Ppa),
- Winkel θ = (PZa, PTa).
- Entsprechend Fig. 2B und Fig. 7 bleibt die Definition der Winkel A* und B* dieselbe:
- Winkel A = (PTa, Pua),
- Winkel B = (Ppa, PWR*).
- Bei einem Vergleich der Fig. 2B, die das Bild I* in seinem individuellen System zeigt, mit der Fig. 7, die das Drehungsbild R* gleichzeitig im absoluten und im individuellen System zeigt, ergibt es sich, daß:
- α = A* + θ* mit A* = arc tg (X*/d*) 18)
- β = B*
- Dasselbe Ergebnis findet man blindlings, wenn man annimmt, daß in den Gleichungen 21a und 21b φ* = 0 ist.
- Es ergibt sich also:
- α = θ* + A* 22a), mit A* = arc tg (X*/d*), 20a)
- und β = B* 22b), mit B* = arc tg [(cos A*) Y*/d*]. 20b)
- b. EINE TRANSLATION, wobei entsprechend Fig. 8B und 9A das Bild R* um eine Größe Yo in derselben senkrechten Ebene H, die bei der vorerwähnten Drehung φ* definiert wurde, verschoben wird. Bei dieser Verschiebung Yo wird das Drehungsbild R* zum Translationsbild H*.
- In Fig. 8B wird in Perspektive die Lage des Rotationsbildes R* und des Translationsbildes H* gezeigt, das durch die senkrechte Verschiebung um Yo entsteht.
- Man stellt fest, daß auf dieser Fig. 8B die optische Achse PZ* des Zielbildes I* die senkrechte Ebene H im Bildpunkt ΩH*, dem geometrischen Zentrum des Translationsbilds H*, durchschneidet. Wie in Fig. 8B gezeigt wird, erleiden die Winkel zwischen den senkrechten Ebenen, die bei der Definition des Rotationsbilds R* eine Rolle spielen, keine Änderungen bei der Erstellung des Translationsbildes H*.
- Das bedeutet, daß die Einstellung des Translationsbildes H* dieselbe ist, wie die des Rotationsbildes R*, und dieselbe, wie die Einstellung des Zielbildes I*.
- Entsprechend Fig. 8B ergibt es sich, daß man einen Bildpunkt MH* von H* durch die senkrechte Verschiebung des Bildpunktes MR* von R* um die Größe Yo erhält, der bei der Drehung φ* der entsprechende Bildpunkt zum Bildpunkt M* von I ist. D. h. MH* von H* ist der entsprechende Bildpunkt von M* von I* bei der Kombination von "Drehung φ* + senkrechte Translation um Yo", wodurch die gesuchte Projektion von I* gegenüber H* gebildet wird. Fig. 8B zeigt, daß der Bildpunkt MH* des Bildes H* sich im Schnittpunkt des Lichtstrahles PWH* und des Bildes H* befindet. Dieser Lichtstrahl PWH* befindet sich in derselben senkrechten Ebene wie der Lichtstrahl PWR*, der zum Bildpunkt MR* von R* zugehört. Der Lichtstrahl PWH* von H*, ebenso wie der Lichtstrahl PWR* von R* haben dieselbe Projektion Pua wie der Strahl Pu von I* auf die waagerechte Ebene (PXa, PZa).
- Im folgenden Teil wird man für die Berechnung der vereinfachten Funktion G&supmin;¹ nicht mehr die sphärischen Koordinaten des Lichtstrahls Pu suchen, der durch den Bildpunkt H* des Zielbildes I* hiendurchgeht, sondern die sphärischen Koordinaten des Lichtstrahles PWH*, der durch den Bildpunkt MH* des Bildes H* hindurchgeht. Dieser Bildpunkt MH* hat dieselben Koordinaten (X*, Y*) im System des Bildes H*, dessen Ursprung das geometrische Zentrum ΩH* des Bildes H* ist. Das Bild H* ist die Projektion des Bildes I* auf die senkrechte Ebene H, die vom Punkte P den Abstand von d* hat, wobei sich das geometrische Zentrum QH* dieses Bildes H* auf der optischen Achse PZ* des Zielbildes I* befindet.
- Im vorausgehenden Abschnitt, der die Drehung φ* betrifft, wodurch das Bild I* zum Bild R* wird, hat man die Gleichungen angeführt, die es erlauben, von der Definition eines Bildpunktes MR* im individuellen System von R* zu seiner Definition im absoluten System überzugehen. Im Folgenden werden die Gleichungen angeführt, die es erlauben, von der Definition des Bildpunktes MH* im individuellen System des Rotationsbildes R* zu seiner Definition im absoluten System überzugehen. Dazu wird zunächst nach der Definition des Bildpunktes MH* im Bild H* im individuellen System des Rotationsbildes R* gesucht.
- Wie sich aus Fig. 8B und Fig. 7 ergibt, wenn man das Translationsbild H* im individuellen System des Rotationsbildes R* definiert, gilt das Folgende:
- Winkel A* ist unverändert,
- Winkel θ* ist unverändert;
- Winkel φ* ist der Winkel des Zielbildes I*, und hieraus folgt
- α = A* + θ*, 23a)
- die Abszisse X* des Bildpunktes MH* ist dieselbe wie die des Bildpunktes
- MR*,
- die Ordinate des Bildpunktes MH* ist Y* - Yo im Vergleich zum Bildpunkt
- MR*,
- Winkel β ändert sich gegenüber B*, weil β = (PWH*, Pua); hierdurch gilt
- B* = (PWR*, Pua), mit:
- B* = arc tg [(cos A*) Y*/d*]. 20b)
- Weil die Modifikation von B* und β dadurch bedingt wird, daß die Ordinate von MR*, die Y war, nun (Y* + Yo) für MH* wird, folgt hieraus:
- β = arc tg [(Y* - Yo) (cos A*)/d*] 23b)
- mit Yo = d*·tgφ* 19)
- und A = arc tg (X*/d*) 20a)
- Man hat nun die Gleichungen bestimmt, die es erlauben, einen Bildpunkt MH* des Bildes H* mit der Adresse oder den Koordinaten X*, Y* in H* mit den sphärischen Koordinaten (α, β) des Strahles PWH* zu verbinden, wobei die Zwischenvariablen A* und B* und der Parameter Yo mitberücksichtigt werden.
- Man hat dabei zu beachten, daß man nun über neue trigonometrische Gleichungen 23a) und 23b) verfügt, um die Winkel α und β zu bestimmen, die den neuen Lichtstrahl PWH* definieren, der nicht mehr durch den Bildpunkt M* (X*, Y*) des Zielbildes I* hindurchgeht, und der damit nicht mehr der wirkliche Lichtstrahl Pu ist, der genau durch den Bildpunkt M* (X*, Y*) hindurchgeht. Das kommt durch die Wahl dieser neuen Definition des betreffenden Lichtstrahles, die es mit sich bringt, wie bereits ausgeführt wurde, daß das rekonstruierte Bild nicht im technischen Sinne "exakt" ist, sondern "berichtigt" ist. Diese Wahl sorgt dafür, daß das gemäß der Erfindung rekonstruierte Bild mit der gewollten Perspektivenänderung dem "exakten" Bild sehr nahestehende Charakteristiken aufweist, dessen optische Abweichungen übrigens auf die beste Weise korrigiert werden. In der neuen Perspektivenwahl gemäß der Erfindung wird also angenommen, daß der Lichtstrahl PWH*, der in Pua auf die waagerechte Ebene projiziert wird, nicht weit vom wirklichen Lichtstrahl Pu entfernt ist, und daß er ein Bild ergibt, das in jeder Hinsicht angenehm zu betrachten ist. Man konnte sehen, daß die Projektion Pua für den wirklichen Lichtstrahl Pu und für den Strahl PWH* dieselbe ist, und zwar wegen der gewählten Verwendung des Bildes H*, der Projektion von I*.
- Aus den vereinfachten Gleichungen, die die sphärischen Koordinaten ergeben, folgt:
- α = A* + θ* 23a)
- β = arc tg [(Y* - Yo) (cos A*)/d*] 23b)
- mit Yo = d*·tgφ* 19)
- und A* = arc tg (X*/d*) 20a)
- wodurch die Lage des neuen Lichtstrahls PWH* im absoluten System vollständig definiert wird, und wodurch es dem Fachmann möglich wird, die Funktion G&supmin;¹ in der gesuchten Gleichung 5) zu bestimmen:
- (α, β) = G&supmin;¹ (X*, Y*) 5)
- Diese Funktion G&supmin;¹ erlaubt es, die sphärischen Koordinaten (α, β) des als "angenähert" bezeichneten Lichtstrahles PWH* zu bestimmen, den man als zugehörig zu einem gegebenen Bildpunkt M* (X*, Y*) des Zielbildes I* gewählt hat, nachdem die Winkel φ*, θ*, sowie der Maßstabsfaktor d* bekannt geworden sind.
- Somit enthält die Funktion G&supmin;¹ die Parameter θ*, φ* und d, die fortwährend nach Belieben des Benutzers variieren können. Doch gemäß der Erfindung ist diese gewählte Funktion einfach genug, um in Echtzeit berechnet werden zu können, sodaß sich ein rekonstruiertes korrektes Bild ergibt, wie man das anschließend sehen wird.
- Entsprechend Fig. 9A, die im Schnitt in der Ebene (PZ*, PTa*) die verschiedenen Bilder I*, R* und H* zeigt, kann der Fachmann deutlich erkennen, daß das auf die senkrechte Ebene H projizierte Bild H* ein verkleinertes "optisches Feld" zeigt, weil sich das Auge des Betrachters in Fluchtpunkt P befindet. Hieraus erkennt man, daß die externen Strahlen, die auf dem oberen und dem unteren Teil des Bildes H* ruhen, keinen so großen Öffnungswinkel haben, wie diejenigen Strahlen, die auf dem oberen und dem unteren Teil des Zielbildes I* ruhen. Als Folge der gewählten Projektion sind im Bild H* gegenüber dem Bild I* die oberen und die unteren Teile etwas zusammengedrückt. Die führt zur bereits angeführten Anwendung der "Berichtigung". Dieser Vorgang besteht aus einer ,Entzerrung' der senkrechten Linien (die im Bilde I* sich nach oben hin verjüngen und außerdem gebogen sind) zusammen mit einer Begradigung der waagerechten Linien (die in Bild I* leicht gekrümmt sind). Dieses Verfahren wird weiter unten behandelt.
- Sobald die sphärischen Koordinaten (α, β) des Lichtstrahles PWH*, im Folgenden des ,angenäherten' oder ,approximativen' Lichstrahles genannt, der mittels der Projektion H* gewählt wurde, bekannt sind, hat man nun die Koordinaten (X, Y) des Punktes M im Quellenbild I in seinem zugehörigen individuellen System zu bestimmen, weil sich dieser Punkt M auf demselben angenäherten Lichtstrahl PWH* befindet, der anstelle des exakten Lichttrahls Pu gewählt wurde.
- Entsprechend Fig. 2A, die in Perspektive die Quellenebene I mit dem zugehörigen individuellen System (PX, PY, PZ) darstellt, ist ein Punkt M vollstädig definiert, wenn man die folgenden Größen kennt:
- Winkel A = (PM', PO),
- Winkel B = (PM, PM'),
- wobei M' die Projektion von M auf die Achse X' in der Quellenbildebene I darstellt, und der Maßstabsfaktor d = PO ist,
- d. h. der Abstand zwischen dem gemeinsamen Fluchtpunkt P, der als absoluter Ursprung dient, und dem Punkt O, dem geometrischen Zentrum des Bildes I.
- Zuvor hat man entsprechend Fig. 3B gesehen, daß:
- MM' = Y
- und MM" = X ist.
- Entsprechend Fig. 2A kann man berechnen:
- X = d·tg A, 10a)
- Y = d·tg B/cos A. 10b)
- Entsprechend dieser Fig. 2A trachtet man nun den Punkt M zu definieren, und zwar nicht nur im individuellen System, sondern auch im absoluten System.
- Entsprechend Fig. 1 A geht man vom absoluten System zum individuellen System über, indem man nacheinander eine Drehung θ ("PANNING") und eine Drehung φ ("TILTING") der optischen Achse PZ der Quellenbildebene durchführt, um diese auf die Achse PZa der absoluten Bildeinstellung zu überführen.
- Man kann also die folgenden Formeln des Systemwechsels aufstellen, s. Tabelle II, woraus man nach Berechnungen erhält:
- B = arcsin(cos β·cos(α·θ)sinφ + sinβcosφ 11b)
- Die Kombination der Gleichungen 3a) mit den Gleichungen 10a), 10b) führt zur gesuchten Beziehung F zwischen (X, Y) und (α, β). Diese Gleichung ist exakt und darum kompliziert, aber man darf nicht vergessen, daß sie nur von den Parametern θ und φ des Quellenbildes abhängt, die A PRIORI bekannt sind, sowie den zwei Größen (α, β). Legt man A PRIORI eine gewisse Anzahl der beiden zugehörigen Größen (α, β) fest, kann man die Funktion F tabellarisch erfassen, und auf diese Weise läßt sich die durch die Kompliziertheit der Funktion F bedingte Schwierigkeit der Berechnungen umgehen. Die Objektiv- Verzeichnungen können in der tabellarisch erfaßten Funktion ebenfalls berücksichtigt werden. Je größer die Anzahl der beiden zugehörigen Größen (α, β) A PRIORI angenommen wird, desto größer wird die Genauigkeit der Bestimmung der Punkte M (X, Y).
- Der Benutzer bestimmt die Parameter des Zielbildes I*, daß er zu konstruieren wünscht. Diese Parameter sind der Schwenkwinkel θ*, der Kippwinkel φ* und der Maßstabsfaktor d*.
- Gemäß der Erfindung enthält das Verfahren zur Bildverarbeitung für die Konstruktion des Zielbildes I* zunächst die Bestimmung der Koordinaten (X*, Y*) eines jeden Bildpunktes M* dieses Zielbildes I*. Anschließend wird in diesem Verfahren auf jeden der Bildpunkte M* (X*, Y*) die Funktion G&supmin;¹ angewandt, die folgendermaßen definiert ist:
- (α, β) = G&supmin;¹ (X*, Y*) 5)
- Hierin sind:
- α = θ* + A* 23a)
- und β = arc tg [(Y* - Yo) (cos A*)/d*] 23b)
- mit A* = arc tg (X*/d*) 20a)
- sowie mit Yo = d*·tgφ* 19)
- Die Anwendung der Funktion der geometrischen Perspektiventransformation G&supmin;¹ (5) erlaubt es also, ausgehend von den Koordinaten X*, Y* eines gegebenen Bildpunktes M* im individuellen System des Zielbildes I*, auf vereinfachte Weise die sphärischen Koordinaten (α, β) des angenäherten Lichtstrahles PWH* zu berechnen, der durch den Projektionsvorgang H* mit diesem Bildpunkt M* verbunden ist, und der durch den für alle Bilder gemeinsamen Fluchtpunkt P hindurchgeht, der übrigens den Ursprung der absoluten Bildeinstellung darstellt, in dem die Winkel α, β gemessen werden.
- Nachdem die sphärischen Koordinaten (α, β) des angenäherten Lichtstrahles PWH* berechnet sind, erfordert das Verfahren zur Bildverarbeitung, daß in einer Tabelle für jedes im absoluten System definierte sphärische Koordinatenpaar (α, β) die Koordinaten (X, Y) eines Quellenbildpunktes M aufzufinden sind, der im Schnittpunkt des angenäherten Lichtstrahles PWH* mit diesem Quellenbild I gelegen ist, wobei diese Koordinaten (X, Y) im individuellen System dieses Quellenbildes gemessen werden.
- Zu diesem Zweck wird in der Beginnphase eine gewisse Anzahl von sphärischen Koordinatenpaaren (α, β) festgelegt, die die Bezeichnung (αo, βo) tragen, und man berechnet für jedes dieser gegebenen sphärischen Koordinatenpaare (αo, βo)das Koodinatenpaar (X, Y), indem man die Funktion der geometrischen Perspektiventransformation F anwendet:
- (X, Y) = F (αo, βo) 3a)
- mit X = d·tgA 10a)
- Y = d·tg B/cos A 10b)
- Das sind Beziehungen, in denen die Zwischenparameter A und B die trigonometrischen Funktionen 11a) und 11b) der sphärischen Koordinaten (αo, βo)sind, die die Parameter des Quellenbildes I einführen, die der Schwenkwinkel θ und der Kippwinkel φ sind. Für jedes Paar (αo, βo) sind die Koordinaten X end Y des Punktes M also reine Funktionen des Maßstabsfaktors d des Quellenbildes und der Winkel θ und φ, die A PRIORI in diesem Verfahren zur Bildverarbeitung bekannte Größen sind. Folglich - da in der Beginnphase die Paare (αo, βo)gegeben sind, werden anschließend die entsprechenden Koordinatenpaare (X, Y) berechnet und in einer Tabelle unter (αo, βo) gespeichert.
- Die Tabelle wird benutzt, um jedes mit Hilfe von G&supmin;¹ berechnete Größenpaar
- (α, β) mit einer Adresse (αo, βo) der Tabelle in Übersinstimmung zu bringen, bis auf die Auflösung der Tabelle. Bei dieser Adresse findet sich ein Koordinatebnpaar (X, Y), vorberechnet und gespeichert, das gelesen wird.
- Wenn man zu diesem Zeitpunkt die Koordinaten des Punktes M des Quellenbildes hat, die am besten zum Bildpunkt M* des Zielbildes I* passen, enthält dieses Verfahren die Bestimmung, möglicherweise durch Interpolation, des Wertes für das Helligkeitsniveau in diesem Punkte M, sowie anschließend die Übertragung diese Helligkeitsniveaus auf den Bildpunkt M* des zu konstruierenden Zielbildes.
- Diese Operationen werden für jeden Bildpunkt des Zielbildes wiederholt, bis das Zielbild vollständig konstruiert ist.
- Sobald der Benutzer neue Parameter φ*, θ* und d* für das Zielbild wählt, wird ein neues Zielbild konstruiert, wobei das Quellenbild in unveränderter Lage im dreidimensionalen Raum mit den unveränderten Parametern θ, φ und d bleibt. Bei den Lagen- und Maßstabsfaktoränderungen des Zielbildes, die der Benutzer auferlegt, bewahrt dieses Zielbild dennoch seinen mit dem Quellenbild gemeinsamen Fluchtpunkt.
- Fig. 13 zeigt in Funktionsblöcken ein Gerät 200 zur Bildverarbeitung, um ausgehend von einem Quellenbild I ein Zielbild I* zu konstruieren, unter Benutzung der geometrischen Funktionen der Perspektiventransformation G&supmin;¹ und F, die bereits zuvor definiert worden sind. Im allgemeinen wird dieses Gerät weiterhin "Adressenberechner" mit dem Bezugszeichen 200 genannt werden, weil seine Aufgabe darin besteht, ausgehend von den Koordinaten (X*, Y*) eines Bildpunktes M* im Zielbild I*, die Adresse (X, Y) des entsprechenden Bildpunktes M im Quellenbild I zu berechnen.
- In Fig. 13 ist Block 210 ein Speicherungsblock, in dem die Parameter φ*, θ* und d* gespeichert werden, die vom Benutzer für die Konstruktion des Zielbildes I* in Echtzeit (d. h. ca. 20 Bilder per Sekunde) gewählt wurden, mit oder ohne Änderung der Parameter des Zielbildes. Block 201 ist ein Block, der das System des Zielbildes I* bestimmt, d. h. die Parameter 2Vx* und 2Vy*, wodurch in der Anzahl der Bildpunkte die Abmessungen des Zielbildes parallel zu den Zeilen (2Vx*) und zu den Spalten (2Vy*) der Bildpunkte bestimmt werden. Diese Parameter werden ausgehend von den vom Benutzer gewählten Parametern bestimmt. Block 113 ist ein sog. ,Adressengenerator', der im individuellen System eines jeden Zielbildes die verschiedenen Adressen (X*, Y*) eines jeden Bildpunktes M* dieses Zielbildes angibt. d. h. eine Adresse für jeden Bildpunkt.
- Block 220 erhält die Angaben der Blöcke 113 und 210. Im Block 220 erfolgt die Durchführung der Funktion G&supmin;¹. Die Blöcke 113, 201 und 210 sind z. B. Speichungsgebiete. Die Verbindungen zwischen den Blöcken 113, 201 und 210 sind Zugangssysteme zu diesen Speicherungsgebieten.
- Die Fig. 9A und 9B zeigen, wie die Funktionen G&supmin;¹ und F im ,Adressenberechner' 200 benutzt werden.
- Jedem vom Block 113 gelieferten Paar (X*, Y*) entspricht als Funktion der Winkel θ*, φ* sowie des Parameters d* ein angenäherter Lichtstrahl PWH*, der durch die sphärischen Koordinaten α und β, die sich aus den Gleichungen 22) und 22b) ergeben, charakterisiert wird.
- Wenn man das Zielbild I* nach und nach abtastet, sodaß Block 113 die Koordinaten der Bildpunkte der verschiedenen Linien diese Bildes liefert, eine nach der anderen, tastet der Lichtstrahl PWH* das Projektionsbild H* der senkrechten Ebene H ab, wobei der angenäherte Lichtstrahl PWK* das Gebiet K* einer Kugel S des Zentrums P abtastet, die im Schnitt auf Fig. 9A und in Perspektive auf Fig. 9B gezeigt wird. Jeder angenäherte Strahl PWH* geht in der Kugel 5 im Gebiet K* durch einen Punkt K hindurch. Es gibt so viel Schnittpunkte K im Gebiet K* in der Oberfläche der Kugel 5, wie es Lichtstrahlen PWH* gibt, d. h. Bildpunkte in I*. Zu jedem dieser Punkte K der Kugel S gehört ein berechnetes Größenpaar α und β. Die Abmessung der auf der Kugel S abgetasteten Oberfläche K hängt von der Bildeinstellung ab, d. h. von den in Bilpunkten angegebenen Dimensionen 2Vx* und 2Vy* des Zielbildes I*.
- Entspechend Fig. 9B besteht die geometrische Transformation G&supmin;¹, die durch die Gleichungen 5) sowie 23a), 23b) definiert wird, aus einer "Projektion" des Bildes H* auf das sphärische Gebiet K*. Durch diese Projektion bestimmt man die Punkte K (α, β) von K*, die den Punkten M* (X*, Y*) von I* entsprechen. Diese Bestimmung läßt sich dank der Berechnungshilfsmittel, die als Block 220 des Diagramms in Fig. 13 symbolisch angegeben werden, in Echtzeit durchführen.
- Die in Fig. 9a und 9B angegebene Kugel S ist eine rein theoretische Konstruktion, die es dem Fachmann zu verdeutlichen hat, wie die komplizierte Funktion F tabellarisch zu erfassen ist.
- Um die Funktion F tabellarisch zu erfassen, legt man A PRIORI eine "Auflösung" in Bildpunkte pro Radiant auf der Kugel S fest, die zumindest ebenso gut ist wie jede sonstige mögliche "Auflösung" des Zielbildes I*. Man wählt also A PRIORI eine Anzahl Bildpunkte Ko, mit der Adresse (αo, βo) auf der Oberfläche der Kugel, im vorliegenden Fall im betrachteten Gebiet K*. Die Adresse (αo, βo) eines jeden gegebenen Bildpunktes Ko besteht aus den sphärischen Koordinaten (αo, βo) des Strahles PKo, der Kugel S. Für jedes mit einem gegebenen Bildpunkt Ko verbundene Paar (αo, βo) hat man in einem vorherigen Arbeitsgang mit Hilfe der im Vorhergehenden beschriebenen trigonometrischen Funktion F die Koordinaten (X, Y) der entsprechenden Punkte M des Quellenbildes I berechnet. Somit sind durch die Gleichungen 10a), 1 Ob) sowie 11a), 11b) für jedes Paar (αo, βo) die Koordinaten X. Y ein für allemal festgelegt und bestimmt - von dem Augenblick an, in dem die Paramater φ, θ und d des Quellenbildes I bekannt sind.
- Auf diese Weise ist gemäß der Erfindung und entsprechend Fig. 13 das Quellenbild I hypothetisch das Bild einer festen Bildeinstellung, deren Parameter A PRIO- RI bekannt sind. D. h., daß die Koordinatenpaare (X, Y), die zu Beginn mit Hilfe von F berechnet wurden, ausgehend von den zuvor festgelegten sphärischen Koordinatenpaaren (αο, βo), können im Speichergebiet 204 - auch TABELLE (LUT) genannt - gespeichert werden, unter Adressen, die von den gewählten Paaren (αo, βo) gebildet werden.
- Mit anderen Worten, man führt in der Beginnphase in eine Tabelle (LUT) für alle Adressen (αo, βo), das durch die sphärischen Koordinaten der Bildpunkte Ko festgelegt sind, die vorberechneten Koordinaten (X, Y) der Punkte M des Quellenbildes I ein. Nun wird im Block 220 des in Fig. 13 gezeigten "Adressenberechners" durch die Funktion G&supmin;¹ in Echtzeit ein Paar (α, β) für jedes Paar (X, Y) berechnet. Diese Berechnungshilfsmittel 220 erstrecken sich z. B. auf alle Funktionen, die schematisch in Fig. 15 gezeigt sind, um die Größe α zu ermitteln, indem die trigonometrische Gleichung 23a) berechnet wird, und ebenso, um die dazugehörige Größe β durch Berechnung der trigonometrischen Gleichung 23b) zu ermitteln. Auf diese Weise ist mit Hilfe der in der Erfindung verwendeten Hilfsmittel die Funktion G&supmin;¹, die die Variablen enthält, die sich jedes Mal ändern, wenn der Benutzer neue Einstellungen des Zielbildes wählt, einfach genug geworden, um in Echtzeit berechnet zu werden.
- Entsprechend Fig. 13 erhält der folgende Block 204 die Ergebnisse der in Block 220 durchgeführten Berechnungen, die aus berechneten Größenpaaren (α, β) bestehen. Dieser Block 204 ist die Tabelle (LUT), in welcher die Ergebnisse der Berechnungen entsprechend der Funktion F gespeichert sind, die für die A PRIORI gewählten Paare (αo, βo)benutzt wird, d. h. die Punkte M (X, Y), die den Punkten Ko (αo, βo) entsprechen. Durch die Bestimmungsmittel wird dann in Tabelle 204 die Adresse (αo, βo) gesucht, die unter den tabellarisch bestimmten Werten am besten der berechneten Adresse (α, β) entspricht, die vom Berechnungsblock 220 geliefert wird. Und bei dieser Adresse (αo, βo) befinden sich die Koordinaten (X, Y) eines Punktes M des Quellenbildes I, der auf diese Weise mit dem Ausgangsbildpunkt M* (X*, Y*) des Zielbildes I* in Übereinstimmung gebracht wird.
- Auf diese Weise werden in die Konstruktion des Zielbildes gemäß der Erfindung zwei verschiedene Näherugsverfahren eingeführt:
- - Eine erste Näherung bei der Berechnung der sphärischen Koordinaten (α, β) eines angenäherten Lichtstrahles PWH* anstelle des wirklichen Lichtstrahles Pu durch die Tatsache, daß man für die Funktion G&supmin;¹ vereinfachte trigonometrische Gleichungen für X*, Y* wählt anstelle der exakten Gleichungen, die (X*, Y*) mit (α, β) verbinden.
- - Eine zweite Näherung bei der Bestimmung der Punkte M (X, Y) durch die Tatsache, daß man die Koordinaten (X, Y) als Paare liefert, die in einer Beginnphase durch die Funktion F auf exakte Weise berechnet werden, die den A PRIORI vorbesteimmten und vorberechneten Paaren (αo, βo) entsprechen, und nicht den wirklich durch die Gleichung G&supmin;¹ berechneten Paaren (α, β).
- Block 204, z. B. eine Tabelle der Sorte LUT (in englischer Sprache "LOOK UP TABLE") kann in einem Anfangsarbeitsgang mit Hilfe von Angaben aus dem Quellenbild, die sich im Funktionsblock 21 befinden, direkt mit Daten gefüllt werden, wobei für eine Anzahl von zuvor bestimmten Paaren (αo, βo) die Funktion F verwendet wurde.
- Block 21 ist ein Speicherungsblock, in dem die Parameter φ, θ und d des Quellenbildes gespeichert werden.
- Die Erfindung betrifft auch ein Gerät zur Bildverarbeitung mit folgenden Bestandteilen:
- ein System von n reellen festen Kameras, die so angeordnet sind, daß ihre einzelnen Gesichtsfelder derart ineinander übergehen, daß ein einziges Weitwinkel- Gesichtsfeld entsteht, in dem man eine Panoramaszene erblicken kann;
- ein System der Bildkonstruktion, das eine sog. virtuelle mobile Kamera simuliert, die fortwährend die Panaromaszene abtastet, um davon in Echtzeit ein sog. Teil- Zielbild zu liefern, das einem willkürlichen Abschnitt des Weitwinkel-Gesichtsfeldes entspricht, und das ausgehend von aneinander grenzenden Quellenbildern konstruiert ist, die von den n reellen Kameras geliefert werden, wobei diese virtuelle Kamera einen Fluchtpunkt hat, der sich mit dem der reellen Kameras deckt oder ihm nahe ist.
- Diese Erfindung findet ihre Anwendung auf dem Gebiet der Bildschirmüberwachung oder auch auf dem Gebiet des Fernsehens, denn Weitwinkel-Gesichtsfelder sind z. B. in Fällen von Aufnahmen sportlicher Ereignisse erforderlich. Die Erfindung findet auch Anwendung auf dem Gebiet der Autotechnik, um peripherische und panoramische Rückspiegel ohne toten Winkel herstellen zu können.
- Als Anwendung des Systems der im Vorhergehenden beschriebenen Bildrekonstruktion hat die vorliegende Erfindung zum Ziel, ein Gerät zu präsentieren, das eine mobile Kamera simulieren kann, wobei ein Weitwinkel-Gesichtsfeld abgetastet wird, das von n festen Kamers überstrichen wird, deren Gesichtsfelder ineinander übergehen. Die Zielsetzung der vorliegenden Erfindung besteht ganz besonders im Verschaffen einer kamerasimulierenden Einrichtung, die alle Möglichkeiten umfaßt, die eine wirklich bestehende mobile Kamera haben könnte: d. h. ausgehend von einem feststehenden Beobachtungspunkt, Möglichkeiten zur waagerechten Winkelverschiebung nach links oder nach rechts einer Panoramaszene, die zu beobachten oder zu überwachen ist, Möglichkeiten der senkrechten Winkelversschiebung nach oben oder unten dieser Szene, und außerdem die Möglichkeiten der Brennweitenverstellung auf einen Oberflächenteil dieses ganzen Gesichtsfeldes.
- Es ergeben sich dann technische Probleme bei der Konstruktion des Zielbildes. In der Tat, um die Möglichkeiten einer wirklichen Kamera zu bieten, muß es mit der virtuellen Kamera möglich sein, ein Zielbild in Echtzeit zu konstruieren. Das bedeutet, daß die Berechnungszeit nicht zu lange zu dauern hat. Nun, im vorliegenden Fall bringt die Konstruktion des Zielbildes für die komplizierten geometrischen Berechnungen wirklich technische Probleme mit sich.
- Ein erstes Problem liegt in der Tatsache, daß, obwohl man über eine große Anzahl wirklicher Kameras verfügt, die aneinander angrenzend angeordnet sind und dabei solcherart, daß im von jeder Kamera bestrichenen Gesichtsfeld kein Gebiet der zu konstruierenden Panoramaszene der Beobachtung entgeht, und daß man auf diese Weise alle Angeben zur Konstruktion des Zielbildes zur Verfügung hat, dennoch große Bild- verzeichnungen entstehen, die lediglich auf Unterschiede des Sichtwinkels zweier Kameras zurückzuführen sind, und die jeweils an der Grenze zwischen den Kameras, beim Übergang des von einer Kamera gelieferten Bildes in ein von der angrenzenden Kamera geliefertes Bild für zwei angrenzende Gebiete der von zwei verschiedenen Kameras aufgenommenen Gesichtsfelder entstehen.
- Ein zweites Problem liegt in der Tatsache, daß in der Mehrzahl der Fälle, wo die Überwachung eines Weitwinkel-Gesichtsfeldes bei Verwendung einer minimalen Anzahl wirklicher feststehender Kameras durchzuführen ist, die wirklich benutzten Kameras hierbei Kameras mit optischen Systemen sind, die an sich bereits "weitwinklig" (in englischer Sprache "FISH-EYE") sind. Objektive diese Typs verursachen beachtliche und charakteristische Verzeichnungen. Vor allem die waagerechten und senkrechten Linien bekommen die Form eines Kreisbogens.
- Hieraus ergibt sich, daß, wenn die genannten Probleme keine Lösung finden, die Zielbilder, die sich am Übergang zweier Gebiete des von zwei verschiedenen Kameras aufgenommenen Gesichtsfeldes befinden, für eine Betrachtung sehr unpraktisch sind und überhaupt keine Genauigkeit haben.
- Das ist der Grund, warum die geometrische Anpassung der Bilderteile, die von verschiedenen wirklichen feststehenden Kameras stammen, in Ordnung gebracht werden muß, wobei die aus den nachstehenden Gründen entstehenden Verzeichnungen berücksichtigt und kompensiert werden müssen:
- Unterschiede der Sichtwinkel;
- optische Opjektivfehler der wirklichen feststehenden Kameras.
- Hinzu kommt, daß diese Bildverarbeitung in Echtzeit zu einem guten Ergebnis führen muß.
- Das Ziel der Erfindung ist es also, ein Gerät zu präsentieren, das die Funktion der Rekonstruktion des Zielbildes in Echtzeit erfüllt, wobei die Notwendigkeit entfällt, komplizierte geometrische Transformationen zu verwenden, die nur mit kostspieligen auf dem Markt erhältlichen Produkten durchgeführt werden können, wie dies bereits früher ausgeführt wurde. Gemäß der Erfindung wird dieses Ziel mit Hilfe eines Bildverarbeitungsgeräts erreicht, das nachstehend beschrieben wird.
- Mit diesem Gerät erhält der Benutzer, der eine Panoramaszene überwacht, dieselben Möglichkeiten und denselben Komfort wie ein Benutzer, der über eine mobile Kamera verfügt, mit Brennweitenverstellung und mit den mechanischen Hilfsmitteln um eine Änderung der Einstellung der optischen Achse vorzunehmen, d. h. um Änderungen des Schwenk- und des Kippwinkels für das Visieren herbeizuführen. Der Vorteil liegt darin, daß hier mechanische Hilfsmittel vermieden werden. Diese mechanischen Vorrichtungen, die motorische Antriebe für die mechanische Drehung der Schwenk- und Kippwinkel umfassen sowie einen Motor zur Brennweitenverstellung, sind stets mit Nachteilen verbunden: sie können zunächst festlaufen, und dann können die verursachten Verstellungen sehr viel Zeit erfordern. Dazu sind sie sehr kostspielig. Und schließlich werden sie meistens außerhalb eines Gebäudes angebracht, und das führt infolge der Witterungseinflüsse bald zu Beschädigungen. Die Mittel zur elektronischen Bildverarbeitung, die gemäß der Erfindung verwendet werden, vermeiden alle diese Nachteile, denn sie sind sehr genau, zuverlässig, funktionsschnell und leicht zu bedienen. Außerdem können sie im Gebäudeinnern angeordnet werden, und so sind sie vor Witterungseinflüssen geschützt. Hinzu kommt, daß elektronische Hilfsmittel einfach für automatisches Funktionnieren zu programmieren sind. Und schließlich sind sie weniger kostspielig als mechanische Hilfsmittel.
- Auf diese Weise erhält der Benutzer durch die Hilfsmittel der Erfindung zunächst ein angenehm zu betrachtendes Bild und anschließend auch größere Genauigkeit und größere Möglichkeiten um Manöver des Visierens auszuführen, als ob über mechanische Hilfsmittel verfügt werden könnte. Außerdem kann eine Panoramaszene in einem größeren Gesichtsfeld betrachtet werden, weil man ein Gesichtsfeld von 180º oder selbst von 360º betrachten kann, je nachdem, wieviel Kameras verwendet werden. Auf dem Gebiet der Überwachung erzielt man somit einen großen Fortschritt.
- Die Tatsache, daß man zahlreiche Kameras verwendet, um die notwendigen Angeben zur Konstruktion eines Zielbildes zu erfassen, ist kein Nachteil, weil ein solcher Komplex von feststehenden CCD-Kameras (Kameras mit Ladungsspeicherelementen) weniger kostspielig ist, als wie dies die mechanischen Vorrichtungen zur Veränderung der Schwenk- und Kippwinkel und der Drehung wären, ebenso der Brennweitenverstellung, die mit einer einzigen wirklichen mobilen Kamera verbunden wären.
- Fig. 10C zeigt im Schnitt eine mögliche Aufstellung von mehreren feststehenden wirklichen Kameras, um die Angaben für ein Gesichtsfeld eines Winkels von 180º zu erfassen. Die Aufzeichnung dieser Panoramaszene erfolgte mit drei Kameras C1, C2, C3. Die optischen Felder der Kameras sind solcherart, daß wirklich alle Einzelheiten der Panoramaszene von einer der Kameras registriert werden, und zwar derartig, daß nicht ein einziges zu überwachendes Objekt der Aufmerksamkeit entgeht. Die Kameras sind so angeordnet, daß sie einen gemeinsamen Fluchtpunkt haben (in englischer Sprache: VIEW POINT) oder sehr beieinander liegende Fluchtpunkte.
- Die Achsen PZ1, PZ2, PZ3 zeigen jeweils die optischen Achsen der Kameras C1, C2, C3; und die Punkte 01, 02, 03 geben jeweils die geometrischen Zentren der Bilder I1, I2, I3 in den Bildebenen auf den optischen Achsen an.
- Ein Fachmann kann - ohne allzu gründliche Auslegung der verschiedenen Anordnungen der feststehenden Kameras untereinander - jede Art der Beobachtung einer Panoramaszene durchführen. Allgemein gesprochen umfaßt das Aufnahmegerät eine Vielzahl von n wirklichen feststehenden Kameras, mit feststehenden bekannten Brennweiten, so verteilt, daß sie aneinander grenzen, und solcherart, daß ihre individuellen Gesichtsfelder ineinander übergehen, um ein Weitwinkel-Gesichtsfeld zu bestreichen.
- Auf diese Weise liefern die n feststehenden aneinander grenzenden Kameras n feststehende aneinander grenzende Bilder, und zwar solcherart, daß dieses Aufnahmegerät eine Panoramaszene überwachen kann. Die optischen Felder der Kameras sind solcherart, daß alle Einzelheiten der Panoramaszene von einer der Kameras registriert werden, damit kein zu überwachendes Objekt sich der Aufmerksamkeit entziehen kann. Um zu diesem Ergebnis zu gelangen, sind diese n feststehenden aneinander grenzenden Kameras übrigens so angeordnet, daß ihre optischen Zentren P, auch Fluchtpunkte (in englischer Sprache VIEW POINT) genannt, zusammenfallen.
- In Wirklichkeit können die Fluchtpunkte der n Kameras physikalisch nicht zusammenfallen. Aber im weiteren Verlauf dieser Abhandlung geht man davon aus, daß die Bedingung der Deckungsgleichheit genügend erfüllt ist, wenn der Abstand, der jeweils einen Fluchtpunkt von den anderen scheidet, gegenüber ihrem Abstand zur gefilmten Panaromaaussicht klein genug ist; z. B., wenn die Entfernung der Fluchtpunkte untereinander jeweils 5 cm oder 10 cm ist, und die Entfernung zur Panoramaszene 5 m. So sieht man die Bedingung der Deckungsgleichheit als erfüllt an, wenn das Verhältnis dieser Abstände eine Größenordnung von 50 oder von noch einem höheren Wert hat.
- Das Ziel der Erfindung ist die Präsentierung eines Rekonstruktionssystems für digitale Bilder, das eine mobile Kamera simuliert, die imstande ist, mit vom Benutzer gewählten Einstellungen in Echtzeit ein digitales Bild von einem beliebigen Teil oder Bildteil der Panoramaszene zu liefern, die von den n feststehenden Kameras aufgenommen wurde.
- Die n Kameras liefern jeweils sog. digitale Quellenbilder I1..., Ii, Ij..., In. Im Nachfolgenden betrachtet man als Beispiel die Quellenbilder Ii und Ij, die unter den n Quellenbildern von zwei wirklichen feststehenden aneinander grenzenden Kameras aufgenommen wurden.
- Entsprechend Fig. 10A bilden diese wirklichen feststehenden aneinander grenzenden Kameras Ci und Cj jeweils Bilder der Panoramaszene in den aneinander grenzenden Quellenebenen Ii und Ij. Entsprechend Fig. 10B wird das absolute System PXa, PYa, PZa der orthogonalen Achsen bestimmt, in dem die Achsen PXa und PZa waagerecht sind, und in dem die Achse PYa senkrecht ist. Die Quellenbilder Ii und Ij sind digitalisiert, und jeder Bildpunkt M dieser Bilder ist durch seine Koordinaten in der individuellen Bildeinstellung festgelegt, das zu jeder Bildebene zugehört, wie das im Vorhergehenden entsprechend Fig. 3A, 3B beschrieben wurde.
- Nachdem die mit jeder Bildebene der Kameras verbundenen individuellen Bildeinstellungen festgelegt worden sind, können diese Bildebenen der festgelegten Quellenbilder mit der terrestrischen Bildeinstellung in Beziehung gebracht werden, und zwar mit Hilfe des
- Schwenkwinkels ("PANNING") θi, θj,
- Kippwinkels ("TILTING") φi, φj.
- In Fig. 10A sind die Achsen PTai und PTaj die Projektionen der optischen Achsen PZi und PZj; die Punkte Oai und Oaj sind die Projektionen der optischen Zentren Oi und Oj, und die Segmente Iai und Iaj sind die Projektionen der Bildebenen Ii und Ij in der Abbildungsebene, die die wagerechte Ebene (PZa, PXa) des absoluten Systems darstellt. Also gilt:
- θi = (PTai, PZa);
- θj = (PTaj, PZa).
- Die Winkel φi und φj, die zu den Quellenbildern Ii und Ij zugehören, können bestimmt werden, wie im Vorhergehenden ausgeführt wurde, ensprechend Fig. 6A, und zwar folgendermaßen:
- φi = (PZi, PTai);
- und φj = (PZj, PTaj).
- Fig. 11A zeigt von vorn die Bilder Ii und Ij, die an die Panoramaszene angrenzen, und die von den zwei feststehenden aneinander angrenzenden Kameras geliefert werden. In Fig. 11A werden, um die Darstellung zu vereinfaachen, die Bilder Ii und Ij alle beide von vorn in der Abbildungsebene gezeigt, wohingegen in Wirklichkeit diese Bilder sich zueinander in einem Winkel befinden, der gleich dem Winkel zwischen den optischen Achsen der feststehenden Kameras ist. In diesen Bildern kann der Benutzer sich einen beliebigen Bildteil zur Betrachtung aussuchen, der von der Linie Jo begrenzt wird, mehr oder weniger nach links oder nach rechts, mehr oder weniger nach oben oder nach unten, mit derselben Vergrößerung, wie bei den feststehenden Kameras, oder mit einer größeren; bzw. eventuell auch mit einer kleineren Vergrößerung.
- Die simulierte mobile Kamera ist imstande, das Zielbild I* zu konstruieren, ausgehend von Bildteilen des Quellenbildes Si, Sj, die von der Linie Jo der Fig. 11A begrenzt werden. Diese Kamera trägt weiterhin die Bezeichnung C* und wird wegen der Tatsache, daß sie eine nicht wirklich bestehende Kamera simuliert, ,virtuelle Kamera' ganannt. Selbverständlich ist diese mobile Kamera nicht auf die Möglichkeit beschränkt, nur die zwei Bilder Ii, Ij abzusuchen. Sie kann alle Quellenbilder von I1 bis In absuchen, wie dies vorausgehend bereits ausgeführt wurde; und sie kann eventuell ein Zielbild konstruieren, ausgehend von mehr als zwei angrenzenden Quellenbildern.
- Das Zielbild I* wird, wie bereits zuvor ausgeführt wurde, durch die folgenden Größen definiert:
- den Schwenkwinkel θ*,
- den Kippwinkel φ*,
- den Maßstabsfaktor d*, seine Höhe 2Vy* parallel zu den Spalten, und seine Breite 2Vx* parallel zu den Zeilen der Bildpunkte. Sein Fluchtpunkt deckt sich mit den angenäherten Fluchtpunkten der wirklichen feststehenden Kameras, sowie mit dem absoluten Ursprung P. Der Punkt O* ist das geometrische Zentrum des Zielbildes I*.
- Fig. 10A zeigt die Projektion mit der Bezeichnung Ia* der Zielbildebene I* der virtuellen Kamera in die waagerechte Ebene, und die Projektion PTa* ihrer optischen Achse PZ*, wobei diese Projektion PTa* durch die Projektion Oa* des geometrischen Zentrums O* des Zielbildes I* hindurchgeht. Bei Veränderung des Schwenkwinkels θ* und des Kippwinkels φ*, ihres Maßstabsfaktors d* und ihrer Bildeinstellung 2Vx*, 2Vy* kann auf diese Weise die virtuelle Kamera vollkommen mit einer in Echtzeit funktionierenden mobilen Kamera verglichen werden, die das Weitwinkel-Gesichtsfeld mit Hilfe von ineienander übegehenden Gesichtsfeldern verschiedener wirklicher feststehender Kameras abtastet.
- Entsprechend Fig. 11A kann man feststellen, daß die virtuelle Kamera C* einen kleinen Teil (oder Bildteil) des Weitwinkel-Gesichtsfeldes betrachten kann, der von Jo begrenzt wird, sowie ein vergrößertes Bild I*, z. B. derselben letztlichen Abmessung wie jedes der Bilder I1... In, die jeweils von den wirklichen Kameras geliefert werden, indem man die einstellbare Brennweite PO* verändert. Man kann ebenfalls feststellen, daß die Versetzung des Gesichtsfeldes der mibilen Kamera C* ständig fortgesetzt werden kann und beliebig ist.
- Anschließend wird der Fall behandelt, in dem sich das Jo entsprechende Gesichtsfeld über beide Seiten der beiden Bildteile (Si, Sj) der Bilder Ii und Ij ertreckt, die in LO aneinander grenzen, und die von zwei aneinander grenzenden Kameras geliefert werden. Der Fachmann wird in der Lage sein, diese Situation zu verallgemeinern und auf andere Fälle, die mehr als zwei Quellenbilder betreffen, zu übertragen.
- Entsprechend Fig. 11B, im Falle, in dem das von der virtuellen Kamera C* konstruierte Bild I* zwei verschiedene Bildteile umfaßt, wurde das eine Bild Ii* ausgehend von den im digitalen Bild Ii enthaltenen Angaben Si konstruiert, und das andere Bild Ij* ausgehend von den im digitalen Bild Ij enthaltenen Angaben Sj. In Fig. 9A stellen Iai* und Iaj* die Projektionen der Zielbilder Ii* und Ij* in die waagerechte Ebene dar. Wie bereits im vorhergehenden beschrieben wurde, bestimmt man nun fur das digitale Zielbild I* eine rechteckige individuelle Bildeinstellung. Jeder Bildpunkt M* der Zielbildebene I* wird auf diese Weise durch seine Koordinaten im individuellen System festgelegt. Man bestimmt ebenfalls die Abmessungen des Zielbildes 2Vx*, 2Vy* in Bildpunkten.
- Gemäß der Erfindung ist es also die Aufgabe der digitalen Bildverarbeitungsverfahrenn ein von der virtuellen Kamera geliefertes "Zielbild" in Echtzeit zu konstruieren, wobei von den "Quellenbildern" ausgegangen wird, die von den wirklichen feststehenden Kameras geliefert werden.
- Man hat gesehen, daß sich bei der Konstruktion des Zielbildes I* ein technisches Problem ergab, weil die links und rechts angrenzenden Bilder Ii und Ij, die von den wirklichen angrenzenden Kameras geliefert werden, so wie sie in Form von digitalen Landschaftsbildern jeweils in Fig. 12A und 12B gezeigt werden, Verzeichnungen aufweisen, wodurch sie nicht völlig korrekt einander entsprechen: insbesondere sind gewisse Teile gerader Linien gekrümmt, senkrechte Linien sind nicht senkrecht, usw.. Das bedeutet, daß am Bildübergang diese Linien Schnittstellen bekommen, anstelle von in der gegenseitigen Verlängerung zu verlaufen. Hinzu kommt, daß die Quellenbildteile zu beiden Seiten des Übergangs von einem zu beobachteden Gebiet der Panoramaszene stammen, das von verschiedenen Perspektiven aus betrachtet wird. Hieraus ergibt sich, daß die Zielbildteile Ii* und Ij * nicht einwandfrei zusammengefügt werden können, wie man das auf dem digitalen Zielbild sieht, das als Beispiel in Fig. 12C gezeigt ist und durch ledigliches und einfaches Nebeneinanderlegen der rechts und links aneinander grenzenden digitalen Bildteile von Fig. 12A und 12B gebildet wird.
- Die vorliegende Erfindung schlägt ein Verfahren und Hilfsmittel zur Umgehung dieser Nachteile vor, sowie zur Erzielung eines digitalen rekonstruierten Bildes in Echtzeit, das keine Verzeichnungen und Perspektivenfehler aufweist, wobei die Teile Ii* und Ij*, aus denen es zusammengesetzt ist, so ineinander übergehen, daß die Grenzlinie für den Betrachter und den Benutzer unsichtbar ist.
- In Bild 12D wird das digitale Bild der Landschaft von Fig. 12C gezeigt, in dem die Verzerrugs- und Perspektivenfehler mit den Hilfsmitteln der Erfindung korrigiert wurden. Der darauf aufmerksam gemachte Fachmann kann feststellen, daß nunmehr die waagerechten Linien vollkommen geradlinig sind und nicht schwach gekrümmt, wie das der Fall wäre, wenn dei Aufnahme direkt mit einem Weitwinkelobjektiv mit einer wirklichen Kamera gemacht worden wäre. Übrigens sind auch die senkrechten Linien vollkommen senkrecht und nicht sich verjüngend, wie das bei Betrachtung mit bloßem Auge der Fall wäre, oder bei einer von einer wirklichen Kamera gemachten Aufnahme. Das ist das Ergebnis der Wahl, die bei der Berechnung der Funktion G&supmin;¹ getroffen wurde, um das Zielbild I* auf die Ebene H zu projizieren, um das Bild H* zu erhalten. Man erhält eine Perspektivenkorrektur, die auch "korrigierte Architekturperspektive" genannt wird. Hieraus ergibt sich, daß die korrigierten Bilder für die Betrachtung besonders angenehm sind, oft noch mehr als die "exakten" Bilder.
- Auf diese Weise wird man feststellen können, daß das gemäß der Erfindung von Fig. 12D erhaltene Bild viel angenehmer zu betrachten ist als ein ,wirkliches' Bild, wie das auf Fig. 12A oder 12B zu sehen ist. Außerdem ist in der Zielbildkonstruktion eine Grenzlinie, wie man diese in Fig. 12C sieht, in Fig. 12D nicht mehr vorhanden.
- Das allgemeine Verfahren der Zielbildkonstruktion umfaßt verschiedene Schritte, die vom Signalbearbeitungsgerät durchgeführt werden. Das ist weiter unten beschrieben. Dieses Verfahren umfaßt zunächst den folgenden Schritt:
- Für jeden Bildpunkt M*, der die Adresse (X*, Y*) im Zielbild I* hat, ermittelt man einen Punkt M mit der Adresse (X, Y) in einem Quellenbild. Diese Adresse B wird folgendermaßen definiert:
- Referenz oder Index der wirklichen Kamera, die das Quellenbild liefert;
- Adresse (X, Y) des Punktes M in diesem Quellenbild.
- Dieses Verfahren umfaßt dann einen zweiten Schritt, in dem:
- der wahrscheinlichste Wert der Leuchtdichte Q im Punkte M des Quellenbildes ermittelt wird;
- wonach dieser Leuchtdichtewert dem Bildpunkt M* im Zielbild zugeordnet wird.
- Diese Verfahrensschritte werden für alle Bildpunkte M* des Zielbildes I* durchgeführt.
- Dieses Bearbeitungsverfahren verschafft dem in Echtzeit konstruierten Zielbild alle Eigenschaften eines den Betrachter ansprechenden Bildes:
- minimale Verzeichnungen, angepaßte Perspektive,
- Abwesenheit von Schnittstellen bei Geraden an der Grenzstelle zweier aneinander grenzenden Bilder.
- Fig. 14 zeigt in Gestalt von Funktionsblöcken die verschiedenen Elemente des Bildverarbeitungsgeräts gemäß der Erfindung.
- Die Blöcke I1, Ii, Ij, ..., In zeigen n Speicherebenen, deren Ausgängen Quellenbilder liefern, die die Bezeichnungen I1, ..., Ii, Ij, ..., In tragen. Jedem dieser Quellenbilder sind Aufnahmeparameter zugeordnet, die der Einstellung der wirklichen Kamera hinsichtlich des aufgenommenen Bildes entsprechen, ebenso wie ein Maßstabsfaktor. Diese Parameter haben bekannt zu sein oder sind sehr genau zu bestimmen.
- Der Komplex 1 stellt ein Kontrollsystem vor, das es dem Benutzer möglich macht, die Parameter zu wählen und zu bezeichnen, die zur Einstellung und zur Bildeinstellung einer virtuellen Kamera C* zugehören.
- Der Komplex 100 ist ein Bildrekonstruktionssystem, das, ausgehend von den von wirklichen Kameras gelieferten Quellenbildern I1....In die Berechnung des Zielbildes I* ermöglicht, das von der virtuellen Kamera C* geliefert worden wäre, die entsprechend den vom Kontrollsystem bestimmten Parametern eingestellt und reguliert gewesen wäre, wobei diese virtuelle Kamera C* solcherart zu sein hätte, daß ihr Fluchtpunkt sich mit dem Fluchtpunkt P der wirklichen Kameras deckt oder in seine Nähe fällt.
- Block 10 betrifft die Bezeichnungs- bzw. Registrierhilfsmittel, zu denen u. a. ein Monitor digitaler Bezeichnungen zur Durchführung der Bezeichnungen in Echtzeit gehören kann, bzw. ein Video-Aufnahmegerät zur Aufzeichnung auf Magnetbänder, usw..
- Andererseits ist zu beachten, daß wirkliche Kameras auch analoge Daten liefern können. In diesem Fall werden Analog-Digitale Umsetzungsmodule - die nicht gezeigt sind - benutzt, um ein digitales Quellenbild entstehen zu lassen.
- Es ist vorteilhaft, wenn der Fachmann Kameras mit Ladungsspeicherelementen (CCD, in englischer Sprache ,Charge Coupled Device') wählen kann. Kameras dieser Art sind nicht kostspielig, leicht, robust und zuverlässig. Ihre Bildauflösung ist sehr gut, und abhängig von der Entwicklung kann in Zukunft diese Technologie durchaus zunehmen..
- Entsprechend Fig. 13 umfaßt das Bildverarbeitungsgerät insbesondere im Komplex 1 eine sog. ,Anwenderschnittstelle' 2 und die Speicherungshilfsmittel 210 für die Parameter φ*, θ*, d*, sowie Speicherungshilfsmittel für die Bildeinstellung 2Vx*, 2Vy* der virtuellen Kamera C*.
- Entsprechend Fig. 14 umfaßt das Gerät auch:
- einen Komplex 100, einen "Adressenberechner 200", einschließlich eines "Adressengenerators" 113, in dem die Adressen (X*, Y*) der Bildpunkte des Zielbildes I* erstellt werden, Bildpunkt nach Bildpunkt, sodaß dieses Zielbild I* in seiner Gesamtheit erfaßt wird; sowie die Speicherungmittel 21 der Parameter φ1 bis φn, θ1 bis θn, und d1 bis dn - jeweils die Maßstabsfaktoren der wirklichen Kameras C1 bis Cn, und die Speicherungshilfsmittel 117.
- Für jeden Bildpunkt M* des zu konstruierenden Zielbildes I* werden die zugehörigen Bestimmungsangaben (X*, Y*) von Block 113, dem "Adressengenerator", für das Zielbild I* geliefert. Als Funktion der Einstellungen, die vom Benutzer gewählt wurden, die in den Kontrollblock 1 mit Hilfe einer ,Benutzerschnittstelle', genannt 2, eingegeben wurden, und die in Form der Paramater φ*, θ*, d* und Vx*, Dy* der virtuellen Kamera jeweils in den Blöcken 210 und 201 gespeichert werden, und als Funktion der Parameter φj, θj und dj (j stellt hier den Index aller Kameras von 1 bis n vor) der wirklichen Kameras, die in Block 21 gespeichert sind, liefert der Adressenberechner' 200 den Index j (unter allen Indices zwischen 1 und n) der wirklichen Kamera, die imstande ist, das Bild Ij zu liefern, wo sich die Adresse (X*, Y*) des Bildpunktes M* im Zielbild I* befindet, und berechnet die Adresse (X, Y) des entsprechenden Punktes M in diesem gewählten Quellenbild Ij. Dies geschieht unbeeinflußt von den verschiedenen Transformationen oder Perspektiven, die der Benutzer in 2 verwendet hat. Auf diese Weise wird von diesen Operatoren eine Beziehung zwischen einem Bildpunkt M* mit den gegebenen Bestimmungsangaben (X*, Y*) des Zielbildes I* und einem Punkt M mit berechneten Bestimmungsangaben (X, Y) in einem Quellenbild Ij erstellt.
- Anschließend wird der Wert der Leuchtdichte Q für den Punkt M mit der Adresse (X, Y) im Quellenbild Ij festgelegt, um danach dem entsprechenden Bildpunkt M* mit der Adresse (X*, Y*) im Zielbild I* zugeordnet zu werden. Und das erfolgt für alle Bildpunkte des Zielbildes I*.
- Während jedoch die Adresse (X*, Y*) im Zielbild I* wirklich diejenige eines Bildpunktes M* ist, ist die Adresse (X, Y) im Quellenbild Ij eine berechnete Adresse, und das bedeutet, daß im allgemeinen diese gefundene Adresse nicht mit einem Bildpunkt übereinstimmt, sondern mit einem Punkt M, der zwischen den Bildpunkten gelegen ist. Die Leuchtdichte dieses Punktes M muß also ebenfalls berechnet werden.
- Dieses Problem findet seine Behandlung im Interpolator 112. Der Interpolator 112 berücksichtigt den Wert einer Leuchtdichtefunktion für die Bildpunkte, z. B. m1, m2, m3, m4 in der Umgebung eines Punktes M (X, Y), um die entsprechende Leuchtdichten-funktion für den betreffenden Punkt M (X, Y) mit Hilfe eines Interpolationsverfahrens zu berechnen. Auf diese Weise berechnet Block 112 die wahrscheinlichste Leuchtdichtenfunktion, die dem Punkt M mit der Adrese (X, Y) zugeordnet werden kann. Die Leuchtdichtefunktion Q, die vom Interpolator für die Adresse (X, Y) in den Quellenbildern berechnet wird, wird dann der Wert der Leuchtdichtefunktion, der dem Bildpunkt M* mit den Ausgangsadresse (X*, Y*) im Zielbild I* zugeteilt und in Block 117 gespeichert wird.
- Der verwendete ,Adressenberechner' 200 ist derjenige, der im Vorhergehenden entsprechend Fig. 13 im Falle der Verarbeitung eines einzigen Quellenbildes eingehend beschrieben worden ist. Für den Fall mehrerer Quellenbilder enthält der Berechner 200 insbesondere das Modul 204, das in einem vorausgehenden Arbeitsgang mit den in Block 21 gespeicherten Angaben, die alle wirklichen Kameras betreffen, "beladen" wurde; dieser Block liefert direkt den Index j für das Quellenbild und die Adresse (X, Y) in diesem Quellenbild, wobei diese Angaben für den Bildpunkt Ko (αo, βo), der dem Punkt K (α, β) entspricht und vom Modul 220 berechnet wurde, in der "Kugel S gelesen wurden", wie das bereits früher beschrieben worden ist.
- Entsprechend Fig. 14 kann also das Bild I* im Speicherungsblock 117 wiedererstellt werden, indem einem jeden Bildpunkt M* mit den Bestimmungsgrößen (X*, Y*) ein Wert der Leuchtdichtefunktion Q zugeordnet wird. Das Zielbild ist nun konstruiert.
- Das Bild I* kan anschließend wiedergegeben oder unter Verwendung der Hilfsmittel 10 gespeichert werden.
- Wenn man sich in der Situation befindet, daß mehrere Quellenbilder möglich sind, z. B. wenn es sich um eine Überlappung von Quellenbildern in einem Grenzgebiet handelt, wird der Block 204 tabellenförmig erfaßt, damit direkt eines der zwei möglichen Quellenbilder geliefert werden kann. Zu diesem Zweck gibt es bei der Tabellierung die Möglichkeit, um zwischen zwei Bildern zu wählen, wobei festgelegt wird, daß die Verbindung zwischen zwei Bildern im Grenzgebiet eine gerade Linie zu sein hat, die im wesentlichen in der Mitte des Überlappungsgebiets verläuft. Eine solche Festlegung kann im Fall von horizontal nebeneinander angeordneten Kameras getroffen werden, wie das in Fig. 10 mit senkrechten Übergängen der Fall ist.
- Entsprechend Fig. 15 wird ein Diagramm mit Funktionsblöcken gezeigt, um die Ausführung der Funktion G&supmin;¹ vorzunehmen, d. h. zur Berechnung von:
- α = A* + θ* 23a)
- β = arc tg [(Y* - Yo) (cos A*)/d*] 22b)
- mit A* = arc tg (X*/d*) 20a)
- und Yo = d*·tg*φ* 19)
- Dieser Teil 220 des Geräts umfaßt also:
- das System des ,Adressenberechners' 113, woraus die Koordinaten (X*, Y*) für alle Bildpunkte M* des Zielbildes I*, eine nach der anderen, geliefert werden;
- das Speicherungssystem 210 der Parameter des Zielbildes;
- ein System zur Bearbeitung der ersten Koordinate X* zur Ermittlung der sphärischen Koordinate α, das die folgenden Teile umfaßt:
- einen Kehrwertbildner 52, um den Kehrwert des Maßstabsfaktors d* zu bilden, entnommen aus dem Speicherungsblock 210;
- einen Multiplizierer 51, um die erste Koordinate X* und 1/d* zu multiplizieren;
- ein Modul 58 zur Berechnung des arc tg, das für das vom Multiplizierer 51 gelieferte Ergebnis verwendet wird, und das die Zwischenvariable A* ergibt;
- einen Addierer 59, der den Parameter θ* des Blocks 210 und die Zwischenvariable A* erhält, und der die erste sphärische Koordinate α liefert;
- ein Verarbeitungssystem für die zweite Koordinate Y*, um die sphärische Koordinate β zu liefern; hierin sind enthalten:
- einen Multiplizierer 54, der das Ergebnis (1/d*) vom Kehrwertbildner 52 und die Variable Y* erhält;
- ein Modul 57 zur Berechnung des tan, das den Parameter φ* des Zielbildes erhält, der vom Block 210 geliefert wird;
- einen Subtrahierer 55, der das Ergebnis (Y*/d*) vom Multiplizierer 54 erhält, sowie den Wert tg φ*, der vom Block 57 geliefert wird, und dessen Ergebnis für die Eingabe des Multiplizierers 56 verwendet wird;
- einen Block 60 zur Berechnung des cos, der die Zwischenvariable A* erhält, und der den cos A* an den Eingang des Multiplizierers 56 liefert;
- den Multiplizierer 56, der das Ergebnis des Subtrahierers 55 und cos A* erhält;
- das Modul 61 zur Berechnung des arc tg, das das Ergebnis des Multiplizierers 56 erhält, und das die zweite sphärische Koordinate β liefert.
- Die anderen Elemente, die in Fig. 15 gezeigt werden, sind auch in Fig. 14 zu finden. Die Berechnungsblöcke für die trigonometrischen Kurven (cos, arc tg, tg) und der Kehrwertbildner können aus den festen Tabellisierungsmitteln (LUT) bestehen, die z. B. als Speicherbestände ROM eingeführt werden können.
- Übrigens kann man hinzufügen, daß das, was über die Codierung der Bildpunkte hinsichtlich des ,Grauniveaus' oder der Leuchtdichte ausgeführt wurde, sich auch auf die Codierung von Farbbildern bezieht. Der Unterschied liegt nur darin, daß sich dann die Codierung auf eine größere Anzahl von Bits erstreckt. Somit kann - in den Erfindungsvarianten - die zu bestimmende Funktion Q im Punkt M eines Quellenbildes I oder Ij, die einem Bildpunkt M* des Zielbildes I* zuzuordnen ist, eine der folgenden Funktionen sein:
- die bereits beschriebene Leuchtdichtefunktion;
- eine Chrominanzfunktion;
- eine Leuchtdichte- und Chrominanzfunktion;
- eine X-Strahlungs-Intensitätsfunktion;
- eine Intensitätsfunktion anderer Strahlung (,Y-Strahlung'), usw..
- Allgemein gesprochen ist die Funktion Q eine charakteristische Funktion für das digitale Signal im berechneten Punkt M des Quellenbildes. Man hat zu beachten, daß damit kein Übergang im Zielbild sichtbar ist, mehrere Maßnahmen ergriffen werden müssen:
- genaue Kalibrierung der feststehenden Kameras;
- Korrigierung der Ergebnisse durch Rückkopplung mit anschließender eventueller Parametermodifikation der Modelle der feststehenden Kameras, bis daß man eine perfekte Anordnung nebeneinander hat, die zu einem einwandfreien Zielbild führt.
- Dieser Arbeitsgang bzw. diese vorbereitende Hndlung ist als ein unerläßlicher Bestandteil des Kalibriervorgangs anzusehen. TABELLE I TABELLE II
Claims (15)
1. Verfahren zur digitalen Bildverarbeitung, um mit Hilfe einer auf ein
sogenanntes Quellenbild (I) angewendeten geometrischen Perspektiventransformation ein
berechnetes Bild, ein sogenanntes Zielbild (I*) zu konstruieren, das das, in bezug auf das
Quellenbild, mit Modifikationen von zumindest einem der folgenden Parameter:
Kippwinkel, Schwenkwinkel und Maßstabsfaktor rekonstruierte Quellenbild darstellt, dadurch
gekennzeichnet, daß es Schritte zur Konstruktion des Zielbildes (I*) umfaßt, mit
Berichtigungen von Perspektivenfehlern und Korrekturen von sphärischen Aberrationen, die
einschließen:
die Bestimmung eines gemeinsamen optischen Zentrums (P) für das
Quellenbild (1) und das Zielbild (I*); und eines orthonormierten Bezugssystems, das dieses
optische Zentrum (P) als Ursprung hat; und die Messung des Kippwinkels (φ*), des
Schwenkwinkels (θ*) und des Maßstabsfaktors (d*) des Zielbildes (I*) in diesem
Bezugssystem;
die Definition eines sogenannten Projektionsbildes (H*) des Zielbildes (I*),
mit Schwenkwinkel null (θ*), Kippwinkel (φ*) gleich dem des Zielbildes (I*), auf der
optischen Achse (PZ*) des Zielbildes ausgerichtetem geometrischem Zentrum (ΩH*) und von
gleicher Bildeinstellung (2Vx*, 2Vy*) wie das Zielbild (I*), solcherart, daß jeder Bildpunkt
(M*) mit der Adresse (X*, Y*) im Zielbild (I*) eine Entsprechung durch Projektion (MH*)
mit gleicher Adresse (X*, Y*) im Projektionsbild (H*) aufweist, und wobei die
Projektionsebene (H) des Zielbildes (I*) gemäß dem Projektionsbild (H*) sich in einem Abstand vom
Ursprung (P) des Bezugssystems befindet, der gleich dem Maßstabsfaktor (d*) des
Zielbildes ist;
die Berechnung, für jeden Bildpunkt, genannt Ausgangsbildpunkt (M*), mit
der Adresse (X*, Y*) im Zielbild, eines Paares sogenannter sphärischen Koordinaten (α,
β), die im Bezugssystem den Strahl definieren, der den Ursprung (P) mit dem
entsprechenden Bildpunkt (MH*) verbindet, der sich im Projektionsbild (H*) befindet, und zwar mit
Hilfe einer trigonometrischen Funktion (G&supmin;¹), so daß: (α, β) = G&supmin;¹ (X*, Y*), wobei diese
Berechnung eine erste und eine zweite Berechnung der ersten und der zweiten sphärischen
Koordinate (α, β) mit Hilfe einer ersten und einer zweiten trigonometrischen Gleichung für
die erste und die zweite Koordinate des entsprechenden Bildpunktes (MH*) durch
Projektion in das Projektionsbild (H*) des Ausgangsbildpunktes (M*) umfaßt; wobei diese
trigonometrischen Gleichungen als Koeffizienten die Funktionen des Kippwinkels (φ*), des
Schwenkwinkels (θ*) und des Maßstabsfaktors (d*) des Zielbildes (I*) haben, so daß diese
trigonometrischen Gleichungen folgendermaßen lauten:
α = A* + θ* und β = arc tan [(Y* - Yo) (cos A*)/d*]
mit A* = arc tan (X*/d*) und Yo = d*·tanφ*;
das Aufsuchen in einer Tabelle, durch, bis auf die Auflösung der Tabelle, in
Übereinstimmung bringen des berechneten Paares sphärischer Koordinaten (α, β) mit einer
der Adressen (αo, βo) der Tabelle, eines gespeicherten Paares (X, Y), das die Adresse eines
Punktes (M) im Quellenbild (I) bildet, der dem Ausgangsbildpunkt (M*) im Zielbild (I*)
entspricht.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß es in einem ersten
Schritt das Laden der Tabelle mit Paaren von Koordinaten (X, Y) von Punkten (M) umfaßt,
die in einem örtlichen System des Quellenbildes (I) definiert und unter Adressen dieser
Tabelle gespeichert sind, die von Paaren (αo, βo) zuvor bestimmter sphärischer Koordinaten
gebildet werden, die in dem Bezugssystem definiert sind, das als Ursprung den
gemeinsamen Fluchtpunkt hat, wobei jedes Paar von Koordinaten (X, Y) mit einem Paar (αo, βo) von
sphärischen Koordinaten durch eine trigonometrische Funktion F verbunden ist, die als
feste Parameter den Kippwinkel (φ), den Schwenkwinkel (θ) und den Maßstabsfaktor (d)
des Quellenbildes hat.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß es, vor dem Laden
der Tabelle, die Berechnung der Paare von Koordinaten (X, Y) von Punkten (M) im
Quellenbild (I) umfaßt, die mit Paaren von sphärischen Koordinaten (αo, βo) verbunden sind;
wobei diese Berechnung eine erste und eine zweite Berechnung der ersten und der zweiten
Koordinate (X, Y) jedes Punktes (M) des Quellenbildes mit Hilfe der ersten und zweiten
trigonometrischen Gleichung enthält, die als Variable die sphärischen Koordinaten (αo, βo)
haben.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß bei der
Berechnung jeden Paares von Koordinaten (X, Y) der Punkte (M) im Quellenbild die erste und die
zweite trigonometrische Gleichung folgendermaßen lauten:
X = d·tan A und Y = d·tan B/cos A, mit:
B = arcsin (cos βo·cos (αo - θ) sinφ + sinβo·cosφ)
5. Verfahren nach einem der Ansprüche 1. bis 4., dadurch gekennzeichnet, daß
es die Konstruktion eines Zielbildes mit Hilfe einer Vielzahl von geometrischen
Transformationen umfaßt, die jeweils auf eine Vielzahl von n angrenzenden Quellenbildern (I1 - In)
angewendet werden, die alle ein mit dem Ursprung des Bezugssystems gemeinsames
optisches Zentrum haben, wobei das Zielbild angrenzende Bildteile der Quellenbilder darstellt,
und mit Modifikationen zumindest eines der folgenden Parameter rekonstruiert ist:
Kippwinkel oder Schwenkwinkel und Maßstabsfaktor, in bezug auf jedes der Bildteile der
Quellenbilder; inbegriffen das Aufsuchen in der Tabelle der Adresse (X, Y) des Punktes
(M) des Quellenbildes, der dem Ausgangsbildpunkt (M*) des Zielbildes entspricht,
verbunden mit dem Aufsuchen, bei der gleichen Adresse dieser Tabelle, eines Indexes, der das
spezielle Quellenbild unter den n Quellenbildern angibt, wo dieser Punkt (M) zu finden ist.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß
es die Auswertung einer charakteristischen Funktion des digitalen Signals für jeden im
Quellenbild (I) berechneten Punkt (M) umfaßt und die Zuordnung dieser charakteristischen
Funktion zu jedem entsprechenden Ausgangsbildpunkt (M*) im Zielbild (I*).
7. Einrichtung zur Verarbeitung digitaler Bilder, um mit Hilfe einer auf ein
sogenanntes Quellenbild (I) angewendeten geometrischen Perspektiventransformation ein
berechnetes Bild, ein sogenanntes Zielbild (I*) zu konstruieren, das das, in bezug auf das
Quellenbild, mit Modifikationen von zumindest einem der folgenden Parameter:
Kippwinkel, Schwenkwinkel und Maßstabsfaktor rekonstruierte Quellenbild darstellt, dadurch
gekennzeichnet, daß sie für die Konstruktion eines hinsichtlich Perspektivenfehlern
berichtigten und hinsichtlich sphärischen Aberrationen korrigierten Bildes Folgendes umfaßt:
Mittel (201), um das optische Zentrum des Zielbildes (I*) auf das optische
Zentrum (P) des Quellenbildes (I) festzulegen, und um ein orthonormiertes Bezugssystem
zu definieren, dessen Ursprung sich im gemeinsamen optischen Zentrum (P) befindet;
einen Adressenberechner (200), einschließlich der Berechnungsmittel (220),
um für jeden Bildpunkt, genannt Ausgangsbildpunkt (M*), mit der Adresse (X*, Y*) im
Zielbild (I*) ein im Bezugssystem berechnetes Paar sogenannter sphärischer Koordinaten
(α, β) zu liefern, und zwar mit Hilfe der trigonometrischen Funktion, die durch Ausführung
eines Verfahrens nach Anspruch 1 berechnet wurde;
sowie Tabellarisierungsmittel (204), um bis auf die Auflösung dieser
Tabellarisierungsmittel für jedes berechnete Paar sphärische Koordinaten (α, β) ein gespeichertes
Paar (X, Y) zu liefern, das die Adresse eines Punktes (M) im Quellenbild (I) darstellt, der
dem Ausgangsbildpunkt (M*) im Zielbild (I*) entspricht.
8. Einrichtung nach Anspruch 7, dadurch gekennzeichnet, daß sie Mittel zur
Auswertung (112) einer charakteristischen Funktion des digitalen Signals umfaßt, das mit
jedem im Quellenbild (I) berechneten Punkt (M) verbunden ist, sowie Mittel zur Zuordnung
(117) dieser charakteristischen Funktion zu jedem entsprechenden Ausgangsbildpunkt (M*)
im Zielbild (I*).
9. Einrichtung nach einem der Ansprüche 7 oder 8, dadurch gekennzeichnet,
daß sie Module zur Berechnung trigonometrischer Funktionen umfaßt, die zu Addierer-
oder Multiplizierer- oder. Kehrwertbildnermodulen gehören, um die Berechnung der ersten
sphärischen Koordinate (α) mit Hilfe der ersten trigonometrischen Gleichung
vorzunehmen, die als Variable die erste Koordinate (X*) des Ausgangsbildpunkts (M*) in einem
örtlichen System des Zielbildes (I*) hat, und um die Berechnung der zweiten sphärischen
Koordinate (β) mit Hilfe der zweiten trigonometrischen Gleichung vorzunehmen, die als
Variable die zweite Koordinate (Y*) des Bildpunktes (M*) im örtlichen System hat, gemäß
dem Verfahren von Anspruch 1.
10. Einrichtung nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, daß
sie einen Adressengenerator (113) umfaßt, um die Adressen (X*, Y*) der Bildpunkte (M*)
des Zielbildes (I*) in einem örtlichen System zu generieren.
11. Einrichtung nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet,
daß sie Speicherungsmittel (210) umfaßt, um Werte für den Kippwinkel (φ*) und den
Schwenkwinkel (θ*) des Zielbildes (I*) im Bezugssystem zu liefern, sowie dessen
Maßstabsfaktor (d*) und Speicherungsmittel (201), um dessen Bildeinstellung (Vx*, Vy*) zu
liefern.
12. Einrichtung nach einem der Ansprüche 7 bis 11, dadurch gekennzeichnet,
daß sie Speicherungsmittel (21) umfaßt, um den Kippwinkel (φ), den Schwenkwinkel (θ)
und den Maßstabsfaktor (d) des Quellenbildes (I) zu liefern.
13. Einrichtung nach einem der Ansprüche 7 bis 12, dadurch gekennzeichnet,
daß sie ein Schnittstellenmodul (2) umfaßt, mit dessen Hilfe ein Benutzer Werte für den
Kippwinkel (φ*), den Schwenkwinkel (θ*), den Maßstabsfaktor (d*) und für die
Bildeinstellung (Vx*, Vy*) des Zielbildes (I*) eingeben kann.
14. Einrichtung nach einem der Ansprüche 7 bis 13, dadurch gekennzeichnet,
daß sie Mittel zum Wiedergeben oder Speichern des rekonstruierten Zielbildes (I*) umfaßt.
15. Einrichtung nach einem der Ansprüche 7 bis 14, dadurch gekennzeichnet,
daß sie Module für die Bildung einer Vielzahl von n angrenzenden digitalen Quellenbildern
(I1 - In) umfaßt, die ein mit dem Ursprung des Bezugssystems gemeinsames optisches
Zentrum haben, und daß sie für die Konstruktion eines Zielbildes, das ausgehend von
angrenzenden Bildteilen dieser Quellenbilder konstruiert wird, mit Modifikationen zumindest
eines der folgenden Parameter: Kippwinkel, Schwenkwinkel und Maßstabsfaktor in bezug
auf jedes dieser Bildteile der Quellenbilder, in den Tabellarisierungsmitteln (204),
verbunden mit der Adresse (X, Y) eines Bildpunktes (M) in einem speziellen Quellenbild (I1 - In),
den Index dieses speziellen Quellenbildes umfaßt, wo dieser Punkt (M) zu finden ist.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR9315805A FR2714503A1 (fr) | 1993-12-29 | 1993-12-29 | Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective. |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE69430182D1 DE69430182D1 (de) | 2002-04-25 |
| DE69430182T2 true DE69430182T2 (de) | 2002-11-21 |
Family
ID=9454526
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE69430182T Expired - Fee Related DE69430182T2 (de) | 1993-12-29 | 1994-12-19 | Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der Perspektive |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US5594845A (de) |
| EP (1) | EP0661672B1 (de) |
| JP (1) | JPH07225855A (de) |
| DE (1) | DE69430182T2 (de) |
| FR (1) | FR2714503A1 (de) |
Families Citing this family (48)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5990941A (en) * | 1991-05-13 | 1999-11-23 | Interactive Pictures Corporation | Method and apparatus for the interactive display of any portion of a spherical image |
| JP3635359B2 (ja) * | 1995-11-09 | 2005-04-06 | 株式会社ルネサステクノロジ | 透視投影計算装置および透視投影計算方法 |
| US6031541A (en) * | 1996-08-05 | 2000-02-29 | International Business Machines Corporation | Method and apparatus for viewing panoramic three dimensional scenes |
| US5912670A (en) * | 1996-08-05 | 1999-06-15 | International Business Machines Corporation | Method and apparatus for overlaying a bit map image on an environment map |
| US6230167B1 (en) * | 1996-08-05 | 2001-05-08 | International Business Machines Corporation | Method and apparatus for generating and displaying hotlinks in a panoramic three dimensional scene |
| DE19880374D2 (de) * | 1997-03-27 | 2000-04-27 | Oce Printing Systems Gmbh | Bildbearbeitungsverfahren und Schaltungsanordnung zum Verändern der Bildauflösung |
| US6097394A (en) * | 1997-04-28 | 2000-08-01 | Board Of Trustees, Leland Stanford, Jr. University | Method and system for light field rendering |
| US5963213A (en) * | 1997-05-07 | 1999-10-05 | Olivr Corporation Ltd. | Method and system for accelerating warping |
| JP4007524B2 (ja) * | 1997-11-18 | 2007-11-14 | 株式会社リコー | 画像合成方法及び装置並びに情報記録媒体 |
| US7292261B1 (en) | 1999-08-20 | 2007-11-06 | Patrick Teo | Virtual reality camera |
| US20050078118A1 (en) * | 2000-05-12 | 2005-04-14 | Microsoft Corporation | Table indexing system and method |
| US7095905B1 (en) | 2000-09-08 | 2006-08-22 | Adobe Systems Incorporated | Merging images to form a panoramic image |
| AU2002254217A1 (en) * | 2001-02-24 | 2002-09-12 | Eyesee360, Inc. | Method and apparatus for processing photographic images |
| AU2002334705A1 (en) * | 2001-09-27 | 2003-04-07 | Eyesee360, Inc. | System and method for panoramic imaging |
| US7058239B2 (en) * | 2001-10-29 | 2006-06-06 | Eyesee360, Inc. | System and method for panoramic imaging |
| US20030095131A1 (en) * | 2001-11-08 | 2003-05-22 | Michael Rondinelli | Method and apparatus for processing photographic images |
| US20030171665A1 (en) * | 2002-03-05 | 2003-09-11 | Jiang Hsieh | Image space correction for multi-slice helical reconstruction |
| US7965901B2 (en) * | 2003-10-31 | 2011-06-21 | Hewlett-Packard Development Company, L.P. | Hard imaging methods and devices and optical scanning systems |
| US7454088B2 (en) * | 2003-11-20 | 2008-11-18 | Microsoft Corporation | Estimating orientation angle and translation values of a scanned image |
| US7292207B1 (en) | 2004-08-27 | 2007-11-06 | Sun Microsystems, Inc. | Computing blending functions for the tiling of overlapped video projectors |
| US7425958B2 (en) * | 2004-10-25 | 2008-09-16 | Adobe Systems Incorporated | Perspective editing tools for 2-D images |
| US7496242B2 (en) * | 2004-12-16 | 2009-02-24 | Agfa Inc. | System and method for image transformation |
| US7406860B2 (en) * | 2006-04-28 | 2008-08-05 | Seagate Technology Llc | Atomic force microscopy scanning and image processing |
| US8988466B2 (en) * | 2006-12-13 | 2015-03-24 | Adobe Systems Incorporated | Panoramic image straightening |
| DE102008017501A1 (de) * | 2008-04-04 | 2009-10-08 | Olympus Winter & Ibe Gmbh | Verfahren zum Darstellen der Innenfläche eines Hohlorgans |
| US8296860B2 (en) * | 2009-03-16 | 2012-10-23 | Seagate Technology Llc | Atomic force microscopy true shape measurement method |
| US9586817B2 (en) | 2011-07-28 | 2017-03-07 | Seagate Technology Llc | Semi-auto scanning probe microscopy scanning |
| FR3004881B1 (fr) * | 2013-04-19 | 2015-04-17 | Kolor | Procede de generation d'un flux video de sortie a partir d'un flux video large champ |
| CN110650241B (zh) | 2014-06-16 | 2021-01-29 | 华为技术有限公司 | 移动终端中呈现全景照片的方法和移动终端 |
| US9277122B1 (en) * | 2015-08-13 | 2016-03-01 | Legend3D, Inc. | System and method for removing camera rotation from a panoramic video |
| US9681111B1 (en) | 2015-10-22 | 2017-06-13 | Gopro, Inc. | Apparatus and methods for embedding metadata into video stream |
| US10033928B1 (en) | 2015-10-29 | 2018-07-24 | Gopro, Inc. | Apparatus and methods for rolling shutter compensation for multi-camera systems |
| US9973696B1 (en) | 2015-11-23 | 2018-05-15 | Gopro, Inc. | Apparatus and methods for image alignment |
| US9792709B1 (en) | 2015-11-23 | 2017-10-17 | Gopro, Inc. | Apparatus and methods for image alignment |
| US9848132B2 (en) | 2015-11-24 | 2017-12-19 | Gopro, Inc. | Multi-camera time synchronization |
| US9667859B1 (en) | 2015-12-28 | 2017-05-30 | Gopro, Inc. | Systems and methods for determining preferences for capture settings of an image capturing device |
| US9922387B1 (en) | 2016-01-19 | 2018-03-20 | Gopro, Inc. | Storage of metadata and images |
| US9967457B1 (en) | 2016-01-22 | 2018-05-08 | Gopro, Inc. | Systems and methods for determining preferences for capture settings of an image capturing device |
| US9665098B1 (en) | 2016-02-16 | 2017-05-30 | Gopro, Inc. | Systems and methods for determining preferences for flight control settings of an unmanned aerial vehicle |
| US9602795B1 (en) | 2016-02-22 | 2017-03-21 | Gopro, Inc. | System and method for presenting and viewing a spherical video segment |
| US9973746B2 (en) | 2016-02-17 | 2018-05-15 | Gopro, Inc. | System and method for presenting and viewing a spherical video segment |
| US9743060B1 (en) | 2016-02-22 | 2017-08-22 | Gopro, Inc. | System and method for presenting and viewing a spherical video segment |
| US9934758B1 (en) | 2016-09-21 | 2018-04-03 | Gopro, Inc. | Systems and methods for simulating adaptation of eyes to changes in lighting conditions |
| US10268896B1 (en) | 2016-10-05 | 2019-04-23 | Gopro, Inc. | Systems and methods for determining video highlight based on conveyance positions of video content capture |
| US9973792B1 (en) | 2016-10-27 | 2018-05-15 | Gopro, Inc. | Systems and methods for presenting visual information during presentation of a video segment |
| US10194101B1 (en) | 2017-02-22 | 2019-01-29 | Gopro, Inc. | Systems and methods for rolling shutter compensation using iterative process |
| US10187607B1 (en) | 2017-04-04 | 2019-01-22 | Gopro, Inc. | Systems and methods for using a variable capture frame rate for video capture |
| CN107784633B (zh) * | 2017-09-04 | 2021-04-13 | 黄仁杰 | 适用于平面测量的无人机航拍图像校准方法 |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2546017B1 (fr) * | 1983-05-11 | 1986-01-17 | Thomson Csf | Procede pour realiser une transformation geometrique sur une image video, et dispositifs mettant en oeuvre ce procede |
| US4682160A (en) * | 1983-07-25 | 1987-07-21 | Harris Corporation | Real time perspective display employing digital map generator |
| US4734690A (en) * | 1984-07-20 | 1988-03-29 | Tektronix, Inc. | Method and apparatus for spherical panning |
| JPS62102369A (ja) * | 1985-10-29 | 1987-05-12 | インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション | グラフイツク物体の3次元透視投影を生成する方法 |
| US4807158A (en) * | 1986-09-30 | 1989-02-21 | Daleco/Ivex Partners, Ltd. | Method and apparatus for sampling images to simulate movement within a multidimensional space |
| US4819064A (en) * | 1987-11-25 | 1989-04-04 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Television monitor field shifter and an opto-electronic method for obtaining a stereo image of optimal depth resolution and reduced depth distortion on a single screen |
| US4969036A (en) * | 1989-03-31 | 1990-11-06 | Bir Bhanu | System for computing the self-motion of moving images devices |
| US5175616A (en) * | 1989-08-04 | 1992-12-29 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada | Stereoscopic video-graphic coordinate specification system |
| US5268998A (en) * | 1990-11-27 | 1993-12-07 | Paraspectives, Inc. | System for imaging objects in alternative geometries |
| US5185667A (en) * | 1991-05-13 | 1993-02-09 | Telerobotics International, Inc. | Omniview motionless camera orientation system |
| US5359363A (en) * | 1991-05-13 | 1994-10-25 | Telerobotics International, Inc. | Omniview motionless camera surveillance system |
| DE69324224T2 (de) * | 1992-12-29 | 1999-10-28 | Koninklijke Philips Electronics N.V., Eindhoven | Bildverarbeitungsverfahren und -vorrichtung zum Erzeugen eines Bildes aus mehreren angrenzenden Bildern |
| US5430806A (en) * | 1993-09-07 | 1995-07-04 | Loral Vought Systems Corporation | System for changing perspective of 3-D images obtained from reflected energy signals |
| FR2714502A1 (fr) * | 1993-12-29 | 1995-06-30 | Philips Laboratoire Electroniq | Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective. |
-
1993
- 1993-12-29 FR FR9315805A patent/FR2714503A1/fr active Pending
-
1994
- 1994-12-19 DE DE69430182T patent/DE69430182T2/de not_active Expired - Fee Related
- 1994-12-19 EP EP94203683A patent/EP0661672B1/de not_active Expired - Lifetime
- 1994-12-20 US US08/359,378 patent/US5594845A/en not_active Expired - Fee Related
- 1994-12-26 JP JP6322453A patent/JPH07225855A/ja not_active Ceased
Also Published As
| Publication number | Publication date |
|---|---|
| EP0661672B1 (de) | 2002-03-20 |
| US5594845A (en) | 1997-01-14 |
| FR2714503A1 (fr) | 1995-06-30 |
| JPH07225855A (ja) | 1995-08-22 |
| DE69430182D1 (de) | 2002-04-25 |
| EP0661672A1 (de) | 1995-07-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE69430182T2 (de) | Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der Perspektive | |
| DE69425481T2 (de) | Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der Perspektive | |
| DE69324224T2 (de) | Bildverarbeitungsverfahren und -vorrichtung zum Erzeugen eines Bildes aus mehreren angrenzenden Bildern | |
| DE19714101C2 (de) | Verfahren und Vorrichtung zum Bearbeiten von Bilddaten | |
| DE69506856T2 (de) | Verbessertes chromakey-system | |
| DE69411849T2 (de) | Verfahren zur Verarbeitung von Luminanzpegel in einem zusammengesetzten Bild und Bildverarbeitungssystem zur Anwendung dieses Verfahrens | |
| DE69432692T2 (de) | Bildverarbeitungsvorrichtung und -verfahren. | |
| DE3686233T2 (de) | Videosignalverarbeitung. | |
| DE19983341B4 (de) | Verfahren und Einrichtung zur Erfassung stereoskopischer Bilder unter Verwendung von Bildsensoren | |
| DE69107267T2 (de) | Verfahren und vorrichtung zur modifizierung einer zone sukzessiver bilder. | |
| DE69601880T2 (de) | Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio | |
| DE2637647C2 (de) | Digitaler Bildsimulator | |
| DE112011105371T5 (de) | Vorrichtung zum Synthetisieren von dreidimensionalen Bildern zum Visualisieren der Fahrzeugumgebung und zugehöriges Verfahren | |
| DE60020919T2 (de) | Stereoskopisches Kamerasystem in einem Fahrzeug | |
| DE102006055641A1 (de) | Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes | |
| DE3022454A1 (de) | Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator | |
| DE19953595A1 (de) | Verfahren und Vorrichtung zur Verarbeitung dreidimensionaler Bilder | |
| DE19746910A1 (de) | Übertragung von Texturen fotografischer Bilder auf CAD-Ebenen | |
| DE69531536T2 (de) | Synthetisches bilderzeugungsverfahren mit sphärischem puffer | |
| DE3732422A1 (de) | Verfahren und einrichtung zum feststellen einander entsprechender bereiche unter primaerfarbenbilder | |
| DE19815106B4 (de) | Verfahren zum Messen von Kamera- und Linseneigenschaften zur Kameranachführung | |
| DE3814644A1 (de) | Verfahren und vorrichtung zum erhalten von bildern zur verwendung beim darstellen eines dreidimensionalen scheinbildes | |
| DE102011104216A1 (de) | Verfahren und Vorrichtung zum dreidimensionalen Erfassen von Objekten sowie Computerprogrammprodukt | |
| DE102006055758A1 (de) | Verfahren zur Kalibrierung von Kameras und Projektoren | |
| EP2350977B1 (de) | Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8320 | Willingness to grant licences declared (paragraph 23) | ||
| 8364 | No opposition during term of opposition | ||
| 8339 | Ceased/non-payment of the annual fee |