[go: up one dir, main page]

DE19502640C1 - Verfahren zur Erzeugung eines Fusionsbildes aus mehreren Eingangsbildern - Google Patents

Verfahren zur Erzeugung eines Fusionsbildes aus mehreren Eingangsbildern

Info

Publication number
DE19502640C1
DE19502640C1 DE1995102640 DE19502640A DE19502640C1 DE 19502640 C1 DE19502640 C1 DE 19502640C1 DE 1995102640 DE1995102640 DE 1995102640 DE 19502640 A DE19502640 A DE 19502640A DE 19502640 C1 DE19502640 C1 DE 19502640C1
Authority
DE
Germany
Prior art keywords
image
fusion
features
pixel
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE1995102640
Other languages
English (en)
Inventor
Thomas Dipl Ing Fechner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler Benz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Benz AG filed Critical Daimler Benz AG
Priority to DE1995102640 priority Critical patent/DE19502640C1/de
Application granted granted Critical
Publication of DE19502640C1 publication Critical patent/DE19502640C1/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

Die Erfindung bezieht sich auf ein Verfahren gemäß dem Oberbegriff des Anspruchs 1. Ein solches Verfahren ist durch die DE 29 42 181 A1 bekannt.
Die Fähigkeit, in Dunkelheit und Nebel zu sehen, ist wichtig für viele zivile und militärische Anwendungen, zum Beispiel für Nachteinsätze von Hubschraubern in Bodennähe. Das Nacht-Sehen ist allerdings eine Schwäche des auf Tageslicht-Sehen spezialisierten menschlichen Sehapparats. Entsprechend dem Spektrum des Tageslichts ist die Empfindlichkeit des menschlichen Auges auf den schmalen Bereich zwischen 380-780 nm im elektromagnetischen Spektrum konzentriert. Zur Abdeckung weiterer Bereiche im elektromagnetischen Spektrum müssen geeignete technische Sensoren verwendet werden. Die wichtigsten sind als das lichtverstärkende "Low Light Level TV" (LLLTV) und als das wärmebilderzeugende "Forward Looking Infrared" (FLIR) bekannt. Zukünftig wird auch die Bedeutung bildgebender Laser- und Millimeterwellenradare zunehmen.
Zur Unterstützung des menschlichen Sehapparats werden die Signale der Sensoren auf Bildschirmen oder speziellen Brillen als sichtbare Bilder dargestellt.
Situationsbedingte Nachteile einzelner Sensoren lassen sich durch den gleichzeitigen Einsatz mehrerer komplementärer Sensoren kompensieren. Der Mensch ist allerdings nicht in der Lage, zuverlässig die wichtigsten Informationen aus einer Anzahl gleichzeitig präsentierter Bilder verschiedener Sensoren zu integrieren. Besser ist es daher, lediglich ein einziges Bild zu erzeugen, das die Nutzinformation aller Einzelsensoren vereinigt, d. h. aus mehreren Eingangsbildern muß ein Fusionsbild geschaffen werden.
In Fig. 3 ist ein mit bildgebenden Sensoren in einem ersten Spektralbereich gewonnenes Eingangsbild X¹ gezeigt, in dem bestimmte Details einer Szenerie besonders deutlich dargestellt sind. Ein weiteres Eingangsbild X² der selben Szenerie auf der Grundlage bildgebender Sensoren aus einem zweiten Spektralbereich gibt dagegen andere Einzelheiten deutlich wieder. Erst das aus den beiden Eingangsbildern X¹ und X² geschaffene Fusionsbild Y läßt sämtliche Details zufriedenstellend erkennen.
Ziel der Bildfusion ist ein Bild, das mehr Nutzinformation enthält als jedes Einzelbild. Dabei darf an keiner Stelle des Fusionsbildes ein Nutzinformationsverlust gegenüber einem Einzelbild auftreten. Einfache Methoden zur Fusion verschiedener Sensorbilder, wie die additive Mischung, haben sich in der Praxis als ungeeignet erwiesen, da aufgrund unterschiedlicher Kontrastpolaritäten partielle Bildauslöschungen auftreten können.
Sowohl die von M Sensoren gelieferten Eingangssignale als auch die erzeugten Ausgangssignale sind beliebige zweidimensionale Pixel-Bilder der gleichen Szenerie (zum Beispiel Intensitäts-, Entfernungs-, Multi-Spektralbilder). Vor der eigentlichen Fusion müssen die zu fusionierenden Bilder durch Rotation, Translation und Skalierung in einer ersten Stufe aneinander angeglichen werden (Bild- Registration), um die unterschiedlichen Geometrien der Sensoren zu kompensieren. Die M deckungsgleichen Bilder X₁¹ . . . XM M, bestehend aus den Pixeln Xm = [x₁m, x₂m, . . . xN m] werden in einer weiteren Verarbeitungsstufe zu einem gemeinsamen Bild Y = [y₁, y₂, . . . yN] fusioniert. Die Bildfusion auf der Pixelebene für jedes Pixel i (i Position des Pixels) läßt sich beschreiben als:
yi = ai¹ xi¹ + ai² xi² + . . . ai M xi M.
Die Fusionskoeffizienten ai m können im einfachsten Fall konstant sein oder aber abhängig sein vom jeweiligen Bildinhalt:
ai m = f (X¹, X², . . . XM, i)
Entsprechend lassen sich die Fusionsverfahren einteilen in solche, die global konstante Abbildungen realisieren und solche, bei denen die Abbildung bildinhaltsabhängig also variabel vorgenommen wird. Letztere Verfahren sind vorteilhafter, da hier die Fusionsabbildung aus der jeweiligen lokalen Situation heraus so angepaßt werden kann, daß der Kontrast optimiert wird und dabei keine Auslöschung einzelner Details stattfindet.
Durch Gonzales, Wintz "Digital Image Processing", Addison Wesley, 1977, Seiten 306÷317 wird ein Bildfusionsverfahren beschrieben, das auf der Hauptachsentransformation beruht. Die Pixel der M zu fusionierenden Sensorbilder werden zu Vektoren zusammengefaßt. Die Komponenten jedes Vektors repräsentieren die unterschiedlichen Darstellungen der verschiedenen Sensoren. Da die einzelnen Komponenten mit jeweils der gleichen Stelle in der abzubildenden Szene korrespondieren, bestehen mehr oder weniger starke Korrelationen. Durch Eigenanalyse der aus allen Bildvektoren gebildeten M × M Kovarianzmatrix wird die wichtigste Hauptachse identifiziert. Die Hauptachse zeigt die Richtung der größten Varianz an. In anderen Worten ausgedrückt: wenn man den Vektorraum auf eine Dimension reduziert, ist die Hauptachse die Achse, bei der die meiste Varianz bzw. Information erhalten bleibt. Projiziert man die multidimensionalen Pixel auf diese Hauptachse, erhält man das Fusionsbild, bei dem im Mittel am meisten Information aus den Eingangsbildern erhalten bleibt.
Die Projektion stellt allerdings nichts anderes als eine lineare Abbildung der Form yi = ai¹ xi¹ + . . . ai M xi M dar. Die Fusionskoeffizienten ai m (m = 1 . . . M) sind unabhängig von der lokalen Pixelumgebung konstant für das ganze Bild. Pixel unterschiedlicher Intensität, die auf der gleichen Achse senkrecht zur Hauptachse liegen, werden dabei auf den gleichen Punkt der Hauptachse und damit auf die gleiche Ausgangsintensität abgebildet. Damit lassen sich diese Pixel nicht mehr voneinander trennen - es kommt zu Kontrastverlusten und zu partiellen Auslöschungen.
Um unterschiedlichen Detailauflösungen in den Bildern gerecht zu werden, wird gemäß P.J. Burt, R.J. Kolczynski "Enhanced Image Capture Through Fusion" Proceedings IEEE Conference Computer Vision Berlin 1993, Seiten 173 bis 182 ein Bildfusionsverfahren in verschiedenen Bildauflösungen durchgeführt. Dazu werden die einzelnen Sensorbilder mittels Tiefpaßfilterung in Hierarchien von immer gröber werdenden Auflösungen zerlegt (fein → grob). Durch Subtraktion aufeinanderfolgender Auflösungsstufen entsteht für jeden Sensor eine sogenannte Differenzbildpyramide. Auf jeder Ebene dieser Differenzbildpyramide wird die Fusion separat durchgeführt, so daß eine vereinigte Differenzbildpyramide entsteht. Das Fusionsbild wird durch sukzessive Addition aufeinanderfolgender Stufen der fusionierten Differenzbildpyramide gebildet. Zur Auswahl der Fusionsoperation wird dazu beim bekannten Verfahren ein spezielles Kontrastkriterium definiert. Wird an der betrachteten Stelle in den Teilbildern der gleiche Kontrast festgestellt, so werden die Pixel der beteiligten Sensoren addiert. Im Falle unterschiedlicher Kontrastpolaritäten wird dagegen das Pixel des Sensors mit dem größeren Kontrast selektiert.
Durch die Überlagerung mehrerer Bilder gleichen Inhalts, aber verschiedener Auflösungen entsteht bei der Pyramidenrekonstruktion ein leichter Unschärfe-Effekt, der als nachteilig empfunden werden kann, da scharfe Konturen weich gezeichnet werden und Bildpunkte verblassen und mit einem Halo-Effekt versehen werden. Außerdem läßt sich im fusionierten Bild die Herkunft des Bildpixels nicht mehr rekonstruieren, was weitere Interpretationen ausschließt (z. B. warm/kalt - hell/dunkel).
Gleiches gilt für das Verfahren gemäß A. Toet "Hierarchical Image Fusion", Machine Vision and Applications, 1990, Springer Verlag New York, 3 : 1-11.
Ohne auf Details einzugehen, wird in R. Tinkler "Enhanced Night Operation Effectiveness Utilizing Image Fusion", Report Defense Systems & Electronics Group, Texas Instruments über ein Verfahren zur Bildfusion berichtet, bei dem die Fusion auf der Basis des lokalen Kontrasts im Frequenzbereich durchgeführt wird.
Auch in einem in der DE 39 41 391 A1 angegebenen Verfahren werden mehrere bildgebende Sensoren eingesetzt. Vorgesehen ist dort eine globale additive bzw. subtraktive Überlagerung mit einer Darstellung in Fehlfarben. Einfache Bildfusionsoperationen wie die verwendeten globalen Summations- oder Subtraktionsoperationen können jedoch nicht befriedigend zwei hochaufgelöste Bilder derselben Szene zu einem Bild höherer Qualität fusionieren.
Die eingangs genannte DE 29 42 181 A1 beschreibt ein Verfahren zur Überlagerung von IR-Bildern in den Wellenlängenbereichen 4 µm und 10 µm. Schwerpunkt ist die Kombination des gering auflösenden 4 µm- Kanals mit dem hochauflösenden 10 µm-Kanal. Dabei werden die Signale der verschiedenen Kanäle separat mit speziellen Filtern aufbereitet werden. Mit der Filterung wird hier das Ziel verfolgt, jeden Kanal auf eine besondere Aufgabe zu trimmen. So dient der 4 µm-Kanal für die Beobachtung von Hotspots, und der 10 µm-Kanal wird zur Darstellung des detaillierten Bildes der Umgebung verwendet. Durch allgemeine Summen- bzw. Differenzenbildung werden die gefilterten Bilder überlagert. Die Bildfusion ergibt sich hier als die Darstellung der Ergebnisse zweier verschiedener Verfahren mit voneinander unabhängigen Ergebnisbildern in einem gemeinsamen Bild.
Der Erfindung liegt die Aufgabe zugrunde, ein Bildfusionsverfahren entsprechend dem Oberbegriff des Anspruchs 1 anzugeben, durch das die Bilder verschiedener Bildsensoren so zu einem einzigen Bild zusammengefaßt werden, daß das Fusionsbild gegenüber den Eingangsbildern einen höheren Nutzinformationsgehalt und weniger Störungen aufweist.
Diese Aufgabe wird gemäß der Erfindung durch die im Anspruch 1 gekennzeichneten Merkmale gelöst.
Im Unterschied zu den bekannten Verfahren wird hier ein trainierbarer Klassifikator eingesetzt, wodurch der Charakter des Fusionsbildes gezielt gesteuert werden kann und somit nicht dem Fusionsverfahren selbst überlassen bleibt. So kann z. B. das dem Menschen am natürlichsten erscheinende Eingangsbild als Basisbild gewählt werden, in das lediglich lokal interessante Details aus den anderen Eingangsbildern eingeblendet werden.
Vorteilhafte Ausbildungen des Verfahrens nach der Erfindung sind in den Ansprüchen 2 bis 5 gekennzeichnet.
Die Erfindung soll im folgenden anhand der Zeichnungen mit Ausführungsbeispielen erläutert werden. Es zeigen
Fig. 1 ein Prinzipblockbild entsprechend der Durchführung des Verfahrens nach der Erfindung und
Fig. 2 ein weiteres Blockbild für den Verfahrensablauf bei einer Kaskadierung mehrerer Fusionsblöcke zur Fusion dreier Eingangsbilder.
Fig. 3 ist bereits im Zusammenhang mit der Darlegung des Standes der Technik erläutert worden.
Gemäß Fig. 1 werden ausgehend von zwei durch Sensoren unterschiedlicher Spektralbereiche gewonnenen Eingangsbildern X¹ und X², von denen das Eingangsbild X¹ als Basisbild ausgewählt ist, zunächst auf Pixel-Ebene in einer Selektionsstufe BM spezifische Bildmerkmale ermittelt. Im Prinzip können alle denkbaren Bildmerkmale verwendet werden. Solche Bildmerkmale sind in P. Zamperoni "Methoden der digitalen Bildverarbeitung", F. Vieweg & Sohn Verlagsgesellschaft mbH Braunschweig, 1991, Seiten 83 bis 85, Seiten 88 bis 91 und Seiten 106 bis 110 definiert.
Ausgehend von diesen Bildmerkmalen, die aus den Eingangsbildern X¹, X² gewonnen werden, generiert ein Klassifikator NFF eine Fusionsmaske FM, die optimal die Art der Fusionsoperation bestimmt. Der Klassifikator NFF ist implementiert als ein lernfähiges Neuronales Netz, das die Transformation der Merkmale in die Fusionsmaske FM realisiert. Neben lokalen Kontrast- Merkmalen ist die Erkennung von Objekten und die Assoziation mit bereits bekannten Objekten zur Vervollständigung gestörter Bildobjekte für die Auswahl der optimalen Fusionsoperation von Bedeutung. Der Lernvorgang des Neuronalen Netzes erfolgt deshalb nach Fusionsmasken, die von einem Experten ausgewählt worden sind. Die Fusionsmaske ist im einfachsten Fall binär ausgelegt und kennzeichnet Bildteile, auf die die Fusion angewendet werden soll; sie kann aber auch in kodierter Form die Art der Fusionsoperation enthalten, falls mehrere Operationen zur Auswahl stehen. Ausgangspunkt des Trainings des Neuronalen Netzes, das in seinem Wirkvorgang gestrichelt in Fig. 1 angedeutet ist, ist eine von dem menschlichen Experten bearbeitete Bildfusionsmaske T, in der regionenweise auf der Ebene der Bildpixel die gewählte Fusionsoperation angegeben ist. Dem Neuronalen Netz werden somit eine Anzahl von Basis-Merkmalen zur Verfügung gestellt, die es dem Neuronalen Netz gestatten, eine optimale Fusionsmaske FM zu erzeugen. Dazu zählen Kontrastmerkmale in verschiedenem Umgebungskontext von global bis zu lokal. Außerdem werden lokale statistische Größen wie Mittelwert, Varianz, Skewness und Histogramme für verschieden große Bereiche gebildet. (Vgl. die vorher erwähnten Bildmerkmale, z. B.
Pixel-Intensität:
xi m
Lokaler Mittelwert:
Lokale Varianz:
Histogramm-Merkmale:
m: Sensor
V: lokale Umgebung im Volumen V um Pixel xi
N: Anzahl der Pixel im Volumen V
Lokaler Kontrast:
Ferner sind auch Detail-Merkmale wie "Busyness" und "Coarsness" sowie Kanten-Merkmale wie "Laplace-Operator" und "Gradient" zur Bildbeschreibung geeignet (siehe Zamperoni, a.a.O.)).
Formal läßt sich der Trainingsvorgang wie folgt beschreiben:
Die für jedes Bild-Pixel x₁mc aller Sensoren extrahierten Merkmale bilden den Merkmalsvektor pi für das Neuronale Netzwerk. Das durch die Abbildungsfunktion h (w, p) mit dem Parametervektor w beschriebene Neuronale Netz transformiert Pixel für Pixel die angelegten Merkmalsvektoren in Entscheidungsvektoren o. Die Komponenten o₁ . . . oN des Entscheidungsvektors repräsentieren die Wahrscheinlichkeit für die anzuwendende Fusionsoperation y₁ . . . yN. Ausgewählt wird die Funktionsoperation mit der maximalen Wahrscheinlichkeit.
Während des Trainings wird die vom Neuronalen Netz generierte Fusionsmaske FM verglichen mit der vom Experten vorgegebenen Fusionsmaske T. Ergeben sich Abweichungen, wird ein Fehlersignal gebildet, das zur Adaption der Netzwerkparameter w herangezogen wird. Für diese Anwendung sind speziell alle vorwärtsgerichteten Neuronalen Netze mit nichtlinearem Übertragungsverhalten geeignet, z. B. also Multi-Layer Perceptron, Radial-Basis Function Netzwerke oder Functional Link Netzwerke.
Die vom trainierten Neuronalen Netz als Klassifikator NFF automatisch gelieferte Fusionsmaske FM wird dann in einer Additionsstufe K mit dem Basis-Eingangsbild X¹ kombiniert. Die kombinierten Merkmale ergeben das gewünschte Fusionsbild Y.
Fig. 2 zeigt die Kaskadierung mehrerer Fusionsblöcke zur Fusion beliebig vieler, hier zum Beispiel dreier Eingangsbilder X¹ bis X³. Dabei wird zunächst eine erste Bildfusion BF1 gemäß dem Verfahren nach der Erfindung zwischen dem Basis-Eingangsbild X¹ und den aus dem zweiten Eingangsbild X² extrahierten Bildmerkmalen vorgenommen. Dem Ergebnis dieser ersten Bildfusion BF1 werden dann weitere, aus dem Eingangsbild X³ gewonnene Bildmerkmale mit einer zweiten, in gleicher Weise nach dem Verfahren nach der Erfindung arbeitenden Bildfusion BF2 überlagert. Das Ergebnis ist das gewünschte Fusionsbild Y.
Das Verfahren nach der Erfindung ist selbstverständlich auch für Farbbilder einsetzbar.

Claims (5)

1. Verfahren zur Erzeugung eines Fusionsbildes aus mehreren durch unterschiedliche bildgebende Sensoren aus der gleichen Ansicht gewonnenen und geometrisch angeglichenen Eingangsbildern durch elektronische Verknüpfung, dadurch gekennzeichnet, daß durch gemeinsame Auswertung lokal korrespondierender Pixelmerkmale der verschiedenen Eingangsbilder mittels eines trainierbaren Klassifikators pixelweise eine jeweils optimale Fusionsoperation gewählt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Klassifikator durch ein trainiertes Neuronales Netzwerk gebildet wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß das Training der Abbildungsfunktion des Neuronalen Netzwerks anhand von durch menschliche Experten ausgewählten Bildfusionsmasken nach Pixel spezifischen Bildmerkmalen erfolgt.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß die Bildmerkmale als regionale Kontrastmerkmale bzw. Kantenmerkmale und/oder als lokale statistische Größen für verschieden große Bild-Bereiche zur Bildung der Abbildungsfunktion zur Verfügung gestellt werden.
5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, daß vorwärts gerichtete Neuronale Netzwerke mit nichtlinearem Übertragungsverhalten verwendet werden.
DE1995102640 1995-01-20 1995-01-20 Verfahren zur Erzeugung eines Fusionsbildes aus mehreren Eingangsbildern Expired - Fee Related DE19502640C1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1995102640 DE19502640C1 (de) 1995-01-20 1995-01-20 Verfahren zur Erzeugung eines Fusionsbildes aus mehreren Eingangsbildern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1995102640 DE19502640C1 (de) 1995-01-20 1995-01-20 Verfahren zur Erzeugung eines Fusionsbildes aus mehreren Eingangsbildern

Publications (1)

Publication Number Publication Date
DE19502640C1 true DE19502640C1 (de) 1996-07-11

Family

ID=7752514

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1995102640 Expired - Fee Related DE19502640C1 (de) 1995-01-20 1995-01-20 Verfahren zur Erzeugung eines Fusionsbildes aus mehreren Eingangsbildern

Country Status (1)

Country Link
DE (1) DE19502640C1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10220512B4 (de) * 2002-05-08 2005-10-27 Gebr. Heller Maschinenfabrik Gmbh Verfahren zum Vermessen und/oder Erkennen von Objekten, vorzugsweise von Werkzeugen und/oder Werkstücken einer Bearbeitungsmaschine
EP1287684A4 (de) * 2000-04-27 2006-07-12 Litton Systems Inc Verfahren und system zum verschmelzen von bildern
CN111783817A (zh) * 2019-03-18 2020-10-16 辉达公司 使用神经网络进行图像识别
CN115935169A (zh) * 2022-12-19 2023-04-07 中国电信股份有限公司 变压器放电高频波形数据的特征提取方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2942181A1 (de) * 1979-10-18 1981-04-30 Elektro-Optik GmbH & Co KG, 2392 Glücksburg Optisch-elektronische anordnung fuer ein thermografisches bild- und trackergeraet
DE3941391A1 (de) * 1989-12-15 1991-06-20 Messerschmitt Boelkow Blohm Verfahren zur passiven detektion von muendungsfeuer

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2942181A1 (de) * 1979-10-18 1981-04-30 Elektro-Optik GmbH & Co KG, 2392 Glücksburg Optisch-elektronische anordnung fuer ein thermografisches bild- und trackergeraet
DE3941391A1 (de) * 1989-12-15 1991-06-20 Messerschmitt Boelkow Blohm Verfahren zur passiven detektion von muendungsfeuer

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A. Toet "Hierarchical Image Fusion" Machine Vision and Applications, Springer-Verlag 1990, H. 3, S. 1-11 *
Gonzales/Wintz "Digital Image Processing", Addison Wesley, 1977, 306-317 *
P.J. Burt, R.J. Kolczynski "Enhanced Image Capture Trough Fusion" Proc. IEEE Conf. Computer Vision, Berlin, 1993, 173-182 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1287684A4 (de) * 2000-04-27 2006-07-12 Litton Systems Inc Verfahren und system zum verschmelzen von bildern
DE10220512B4 (de) * 2002-05-08 2005-10-27 Gebr. Heller Maschinenfabrik Gmbh Verfahren zum Vermessen und/oder Erkennen von Objekten, vorzugsweise von Werkzeugen und/oder Werkstücken einer Bearbeitungsmaschine
CN111783817A (zh) * 2019-03-18 2020-10-16 辉达公司 使用神经网络进行图像识别
CN115935169A (zh) * 2022-12-19 2023-04-07 中国电信股份有限公司 变压器放电高频波形数据的特征提取方法及装置

Similar Documents

Publication Publication Date Title
DE60017600T2 (de) Digitales bilderzeugungsverfahren
DE69028946T2 (de) Verfahren zur adaptiven Schärfung elektronischer Bilder
DE68923949T2 (de) System zum interaktiven Abgleich des dynamischen Bereiches beim Drucken digitaler Bilder.
DE60132278T2 (de) Rauschverminderungsverfahren unter Verwendung von Farbinformationen, einer Vorrichtung und eines Programms zur Digital-Bildverarbeitung
DE69216207T2 (de) Farbeinstellung zur Glättung der Grenzen zwischen Farbbildern
DE112017007579T5 (de) Verfahren und System zum automatischen Kolorieren von Nachtsichtbildern
DE69525733T2 (de) Vorrichtung zur Kodierung/Dekodierung eines Bildsignals mit einem gleichbleibenden Objekt
EP3340610A2 (de) Verfahren zum unterscheiden von hintergrund und vordergrund einer szenerie sowie verfahren zum ersetzen eines hintergrundes in bildern einer szenerie
DE10204500A1 (de) Echtzeitfähiges Erkennungs- und Kompensationsverfahren von Beleuchtungsschwankungen in digitalen Farbbildsignalen
AT521845B1 (de) Verfahren zur Fokuseinstellung einer Filmkamera
DE69111660T2 (de) Bildlesevorrichtung und Verfahren zur Verbesserung von Formumrissen.
DE3841383C2 (de) Bildverarbeitungseinrichtung
DE102016121755A1 (de) Verfahren zum Bestimmen eines zusammengesetzten Bilds eines Umgebungsbereichs eines Kraftfahrzeugs mit Anpassung von Helligkeit und/oder Farbe, Kamerasystem sowie Krafzfahrzeug
DE2612042A1 (de) Verschiebbares video-mattscheibensystem
DE102016216795A1 (de) Verfahren zur Ermittlung von Ergebnisbilddaten
DE112018005391T5 (de) Anzeigeverarbeitungsvorrichtung
DE102020109997A1 (de) System und Verfahren, um zuverlässige gestitchte Bilder zu machen
DE10221513B4 (de) Verfahren zur Darstellung von Bildern mit verändertem Breite-Höhe-Verhältnis
DE69512824T2 (de) Kompressions- und Dekompressionsverfahren für mehrdimensionale mehrwertige Farbbilder
DE19502640C1 (de) Verfahren zur Erzeugung eines Fusionsbildes aus mehreren Eingangsbildern
DE102018216806A1 (de) Konzept zum Aufbereiten von Infrarotbildern
DE3238696A1 (de) Farbschluesselsignalgenerator
EP0897247A2 (de) Verfahren zur Berechnung von Bewegungsvektoren
DE102022121325A1 (de) Infrarot- und farbverbesserte teilbildvermischung
DE102006037507A1 (de) Anwendung einer variablen Opazität (Bild-Alpha) an Leistungs- und Wahrscheinlichkeitsverteilungen, die auf kartographische Anzeigen überlagert sind

Legal Events

Date Code Title Description
8100 Publication of the examined application without publication of unexamined application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: DAIMLERCHRYSLER AG, 70567 STUTTGART, DE

8339 Ceased/non-payment of the annual fee