DE4011465A1 - Elektronische holographievorrichtung - Google Patents
Elektronische holographievorrichtungInfo
- Publication number
- DE4011465A1 DE4011465A1 DE4011465A DE4011465A DE4011465A1 DE 4011465 A1 DE4011465 A1 DE 4011465A1 DE 4011465 A DE4011465 A DE 4011465A DE 4011465 A DE4011465 A DE 4011465A DE 4011465 A1 DE4011465 A1 DE 4011465A1
- Authority
- DE
- Germany
- Prior art keywords
- object field
- detectors
- complex
- spectral element
- zero
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001093 holography Methods 0.000 title description 5
- 238000001228 spectrum Methods 0.000 claims description 56
- 230000003595 spectral effect Effects 0.000 claims description 45
- 230000003287 optical effect Effects 0.000 claims description 38
- 230000004044 response Effects 0.000 claims description 31
- 230000001427 coherent effect Effects 0.000 claims description 16
- 238000005286 illumination Methods 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 11
- 238000011156 evaluation Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000012887 quadratic function Methods 0.000 claims description 2
- 238000009826 distribution Methods 0.000 description 23
- 238000005070 sampling Methods 0.000 description 22
- 238000001914 filtration Methods 0.000 description 20
- 230000000694 effects Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 18
- 238000000034 method Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 230000015572 biosynthetic process Effects 0.000 description 10
- 238000012546 transfer Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000010363 phase shift Effects 0.000 description 6
- 230000010354 integration Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000000737 periodic effect Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000002347 injection Methods 0.000 description 3
- 239000007924 injection Substances 0.000 description 3
- 238000005305 interferometry Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000001681 protective effect Effects 0.000 description 3
- 239000000243 solution Substances 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 101100117236 Drosophila melanogaster speck gene Proteins 0.000 description 1
- 241000280258 Dyschoriste linearis Species 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 239000000443 aerosol Substances 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000009738 saturating Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Holo Graphy (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
Die Erfindung bezieht sich auf die Holographie und betrifft
insbesondere eine elektronische holographische Vorrichtung,
deren elektrisches Ausgangssignal die Größe und die Phase
von kohärentem Licht darstellt, das von einem dreidimensionalen
Objekt reflektiert und über der Öffnung der Vorrichtung
verteilt wird. Diese Information gestattet, nachdem sie auf
genommen und geeignet verarbeitet worden ist, die Wiederer
zeugung des optischen Wellenfeldes und daher die Rekonstruktion
des Objektfeldes, welches dieses Wellenfeld erzeugt hat,
für Zwecke wie Abbildung, Interferometrie, signalangepaßte
Filterung oder Korrelation.
Die Holographie ist eine gut etablierte Technologie, die auf
verschiedenen Gebieten Anwendung findet. Ein Hologramm ist
im wesentlichen eine Aufzeichnung, welche die Größe und die
Phase von Licht einer einzelnen Wellenlänge als Funktion der
Position in einer Empfangsöffnung enthält. Dem Beobachter
gibt ein Hologramm eines dreidimensionalen Objekts, wenn es
geeignet angezeigt wird, einen Eindruck der Tiefeneigenschaft
des Objekts. Das steht im Gegensatz zu der flachen, zwei
dimensionalen Rekonstruktion eines dreidimensionalen Objekts,
die durch die traditionelle Fotographie erzielt wird.
Die Suche nach einer dreidimensionalen Rekonstruktion führte
zu den Stereopticon- oder Doppelprojektionsdias am Anfang
des 20. Jahrhunderts, wo zwei Bilder durch zwei nebeneinander
angeordnete Kameras (oder durch eine einzelne Kamera mit
zwei Objektiven) und zwei gesonderte Filme, die gleichzeitig
belichtet wurden, erzielt wurden. Die belichteten Filme wurden
verarbeitet, um ein Paar Drucke zu gewinnen, die zum Be
trachten in einem in der Hand gehaltenen Betrachter herge
richtet wurden, der gestattet, mit einem Auge ein Bild und
mit dem anderen dessen Gegenstück zu betrachten, wobei der
Betrachter einen dreidimensionalen Eindruck empfing. Es ist
klar, daß bei den Doppelprojektionsdias etwas unterschiedliche
Bilder entsprechend zwei gesonderten Betrachtungspunkten
den Augen dargeboten wurden.
Die Beleuchtung für die frühe Doppelprojektion war breit
bandiges weißes Licht, das Verfahren konnte aber weiterhin
praktisch angewandt werden, als der Farbfilm eingeführt wurde
und zwei Vollfarbbilder zum Erzeugen eines dreidimensionalen
Eindrucks benutzt wurden.
Die dreidimensionale Wahrnehmung wurde zunächst hervorgerufen,
ohne daß zwei Vollfarbbilder hergestellt wurden, sondern viel
mehr durch Herstellen eines rot hervorhebenden Bildes und
eines blau-grün hervorhebenden Bildes für die gesonderten
Augen. Dieses Verfahren wurde in Kinos benutzt, wo den Be
trachtern eine Brille ausgehändigt wurde, die jeweils eine
Linse hatten, welche das rot hervorhebende Bild durchließ,
wogegen die andere Linse das blau-grüne Bild durchließ. Das
gestattete dem Betrachter, zwei auf einer einzigen Leinwand
überlagerte Bilder zu betrachten. Es zeigte sich, daß die
Augen durch verschiedene Strategien dazu verleitet werden
konnten, Tiefe wahrzunehmen.
Der Wissenschaftler jedoch, der die Wellennatur des Lichtes
kennt, wünschte immer, die Größe und die Phase von Licht
einer einzigen Wellenlänge, das von einem dreidimensionalen
Objekt ausgeht und eine Öffnung erreicht, festzuhalten und
diese Größen- und Phaseninformation dieses Lichtes zu benutzen,
die Originalwellenfelder auf eine Weise zu rekonstruieren,
die der Identität mit dem ursprünglichen dreidimensionalen
Objekt nahekommt. Wenn das möglich wäre, könnte der
Betrachter mit beiden offenen Augen ohne Filter oder anderes
Zubehör die Rekonstruktion betrachten, während er seinen Kopf
etwas von einer Seite zur anderen bewegt, und er würde ein
etwas anderes Bild sehen, wenn er sich bewegt, und dazu ver
leitet werden, anzunehmen, vor ihm befinde sich ein dreidi
mensionales Objekt. In der Praxis bedeutete das, daß ein holo
graphisches Bild unter Verwendung von Licht einer einzigen
Wellenlänge in den Raum vor dem Betrachter aus einer ebenen
Wellenfeldaufzeichnung projiziert werden könnte, um ein drei
dimensionales Objekt zu rekonstruieren, und daß der Betrachter
denken würde, bei der ebenen Tafel, von der das Licht in
seine Augen gesandt oder reflektiert wurde, handele es sich
um ein Fenster, welches das dreidimensionale Objekt enthält.
Der mit beiden Augen ausgeführte dreidimensionale Wahrnehmungs
test eines Hologramms ist ein ungefähres Maß für die
richtige Konstruktion eines Hologramms.
Es ist jedoch klar, daß durch die Verwendung der Information
für interferometrische und andere Zwecke diese Wiedergewin
nung der ursprünglichen Wellenfelder durch Wiedergewinnung
der Größe und der Phase über einer Öffnung in der Tat erreich
bar ist und mit extremer fraktioneller optischer Wellenlänge
genauigkeit erfolgen kann. Im Prinzip kann ein Hologramm
erzielt werden, indem die gewünschte Szene mit Licht einer
einzelnen Wellenlänge, d. h. mit kohärentem Licht beleuchtet
wird. Das Licht, das von einem Objektfeld gestreut wird, hat
eine besondere Größen- und Phasenverteilung (über einer
Empfangsöffnung). Diese Verteilung steht in eindeutiger Be
ziehung zu den optischen Details des Objektfeldes. Das Holo
gramm ist eine geeignet codierte Aufzeichnung dieser Größen-
und Phaseninformation als Funktion der Position in der Empfangs
öffnung. Das Hologramm gestattet die Rekonstruktion
des optischen Wellenfeldes, das von dem Objektfeld zurück
gestreut wird, betrachtet innerhalb der Empfangsöffnung. Richtig
rekonstruierte Wellenfelder werden sich dann der Kongruenz
mit dem ursprünglichen kohärenten Licht nähern, das von
dem Objektfeld zerstreut wird.
Mit der heutigen Technologie werden Hologramme üblicherweise
auf fotographischem Film oder einem äquivalenten Speichermedium
aufgezeichnet. Die anschließende Verarbeitung zur Re
konstruktion des Bildes muß dann mit Laserbeleuchtung, beu
gungsbegrenzten Linsen, usw. in einem zweiten, gesonderten
Schritt optisch erfolgen. Die praktische Durchführung des aus
zwei Schritten bestehenden Verfahrens am Anfang der 50er
Jahre wird Professor Dennis Gabor in England zugeschrieben
(Van Nostrand's Scientific Encyclopedia, 1968, D. van Nostrand
Company, Inc.).
Das Verfahren, das üblicherweise praktisch angewandt wird,
verlangt, daß der Film belichtet, entwickelt und dann in einer
optischen Rekonstruktionsvorrichtung dargeboten wird. Andere
holographische Anordnungen sind bereits vorgeschlagen worden,
beispielsweise solche für interferometrische Bewegungsstudien,
wobei ein schwingendes Teil in einem aktiven Fernsehkamera
system betrachtet wird und die Streifenbilder in einem konti
nuierlichen Verfahren untersucht werden, um kleine Verschie
bungen zu bestimmen.
Gegenwärtig ist eine Allzweckvorrichtung zum Erzeugen eines
elektrischen holographischen Bildes eines Objektfeldes, das
direkt angezeigt oder verarbeitet werden kann, nicht verfüg
bar. Der elektrische Ausgang einer solchen Vorrichtung würde
vorzugsweise eine elektrische Darstellung des Hologramms
liefern, wobei die elektrische Darstellung dann aufgezeichnet,
gefiltert, angezeigt und/oder aktualisiert werden kann,
und zwar mit einer Geschwindigkeit, die zum Aufnehmen von
statischen oder dynamischen Objektfeldern in einem kontinu
ierlichen Verfahren geeignet ist.
Ein erwarteter Vorteil einer solchen elektronischen Vorrich
tung zum Aufnehmen eines Objektfeldes in Echtzeit wäre die
Schaffung einer Schnittstelle zwischen einem kohärenten opti
schen Wellenfeld und einem digitalen Datenverarbeitungssystem.
In einer solchen Vorrichtung könnte Softwareverarbeitung be
nutzt werden, um solche Funktionen wie Abbildung, Interfero
metrie, signalangepaßte Filterung, Korrelation, usw. auszu
führen. Daher würde teuere beugungsbegrenzte optische Hard
ware weitgehend unnötig und durch Software ersetzt werden.
Darüber hinaus könnte das Verfahren direkt und kontinuierlich
sein.
Aufgabe der Erfindung ist es, eine neue elektronische All
zweckvorrichtung zum Aufnehmen von holographischen Daten zu
schaffen.
Weiter soll durch die Erfindung eine elektronische hologra
phische Allzweckvorrichtung zum Aufnehmen von holographischen
Daten zur Verwendung bei der Abbildung, Interferometrie, signal
angepaßten Filterung oder Korrelation geschaffen werden.
Ferner soll durch die Erfindung eine neue holographische
Vorrichtung geschaffen werden, die holographische Daten auf
nimmt, welche ein detailliertes dreidimensionales Objekt be
schreiben, das mit kohärentem Licht beleuchtet wird, und das
optische Signal in ein elektrisches Signal umwandelt, welches
die komplexe Größen- und Phaseninformation der holographischen
Daten darstellt, die zur Abbildung geeignet ist.
Außerdem soll durch die Erfindung eine neue elektronische
Holographievorrichtung zum Aufnehmen von statischen oder
dynamischen Objektfeldern geschaffen werden.
Weiter soll durch die Erfindung eine neue elektronische
Holographievorrichtung zum Gewinnen von holographischen Daten
in elektrischer Form geschaffen werden, die gestattet, die
Daten auf direkte und kontinuierliche Weise zu verarbeiten.
Diese und weitere Ziele der Erfindung werden in einer neuen
elektronischen Holographievorrichtung erreicht, welche eine
Einrichtung zum Herstellen von gegenseitig kohärenten opti
schen Beleuchtungs- und Referenzbündeln und eine Kamera ent
hält.
Das Beleuchtungsbündel beleuchtet das Objektfeld, um das von
dem Objektfeld reflektierte Licht zu veranlassen, in die
Kamerablendenöffnung einzutreten und ein Muster von Tupfen
zu bilden, die spezifische Merkmale von Licht sind, das von
diffusen Objekten unter kohärenter Beleuchtung zerstreut wird.
Daher sind "Tupfen" die auflösbaren Merkmale eines kohärenten
Wellenfeldes. Das Referenzbündel beleuchtet die Blendenöffnung
von einer virtuellen Position aus, die auf eine Seite
des Objektfeldes verschoben ist, so daß eine lineare Über
lagerung von sinusförmigen Streifen auf dem Tupfenmuster er
zeugt wird. Die Anordnung erzeugt Streifen, welche im wesent
lichen parallel und nach Phase und Amplitude unabhängig sind.
Darüber hinaus werden die Referenzquellenposition und das
Zentrum des Objektfeldes so eingestellt, daß sie einen Winkel
abstand, gemessen an der Kamerablendenöffnung haben, der
im Mittel wenigstens ein dunkles Gebiet und ein helles Gebiet
pro Tupfen erzeugt, was ein wesentliches Erfordernis für das
Bestimmen der Phase und der Größe des Tupfens ist.
Die Blendenöffnung der Kamera wird ausreichend groß gemacht,
um die Auflösung von gesonderten Elementen des Objektfeldes
zu gestatten, und optische Detektoren sind in einer Matrix
in Zeilen und Spalten angeordnet, wobei die Zeilen rechtwinkelig
zu den Streifen und die Spalten parallel zu den Streifen
sind. Die Ausgangssignale der Detektoren werden periodisch
abgetastet, die als einer quadratischen Funktion folgende
Vorrichtungen auf das einfallende Licht ansprechen, um
Vektor- oder Kreuzproduktglieder zu erzeugen, wenn sie durch
die beiden Quellen getroffen werden.
Die Tupfen werden mit ausreichender Vergrößerung abgebildet,
so daß im Mittel eine volle Welle (ein dunkles und ein helles
Gebiet) eines Tupfens auf eine ausreichende Anzahl von Detek
toren in einer Zeile trifft, um eindeutig die Größe und die
räumliche Phase des Streifens zu bestimmen. Üblicherweise
verlangt das vier Detektoren.
Es wird somit ein elektrisches Signal in den abgetasteten
Ausgangssignalen der Detektoren gewonnen, das die räumliche
Phase und die Amplitude jedes Tupfens im Mittel darstellt.
Wenn dieses elektrische Signal verarbeitet wird, um Fremd
glieder zu eliminieren, können die ursprünglichen Wellenfelder
wiedergewonnen werden, d. h., das Hologramm kann wieder
gewonnen werden, und die Szene kann auf eine Weise rekon
struiert werden, welche die Fresnel/Fourier-Transformations
operation approximiert, die durch eine Linse vorgenommen
wird, ohne aber eine Linse zu erfordern, wenn die richtige
Wellenfeldverarbeitung angewandt wird.
Bei diesem Verfahren erzeugen das beleuchtete Objektfeld und
die Referenz ein räumliches Spektrum über der Kamerablenden
öffnung, das auf vier räumlich überlagerte Glieder führt,
welche in den abgetasteten Detektorausgangssignalen erschei
nen. Diese Glieder umfassen ein Spektralglied gleichförmigen
Wertes aufgrund der Beleuchtung durch das Referenzbündel,
ein Spektralglied, welches das Tupfenmuster aufgrund des
beleuchteten Objektfeldes darstellt, ein unerwünschtes
negatives Raumfrequenzspektralglied, das dem konjugierten
Glied des Kreuzprodukts aufgrund von Licht aus dem beleuchteten
Objektfeld und der Referenz entspricht, und ein gewünschtes
positives Raumfrequenzspektralglied, das dem
direkten Kreuzproduktglied aufgrund von Licht aus dem
beleuchteten Objektfeld und der Referenz entspricht.
Gemäß der Erfindung ist die Position des virtuellen Referenz
punktes gegenüber dem Zentrum des Objektfeldes unter einem an
der Kamera gemessenen Winkel verschoben, der größer als der
Winkel ist, der durch das Objektfeld begrenzt wird. Diese
physikalische Anordnung bewirkt, daß die vier Glieder, ob
gleich sie über der Blendenöffnung räumlich überlagert sind,
in dem Raumfrequenzspektralgebiet in gegenseitig ge
sonderten Positionen verteilt sind. Kurz gesagt, sie sind in
einem Zustand, aufgrund dessen sie durch ein geeignetes Filter,
das auf einen Impuls begrenzt anspricht, ein sogenanntes
FIR (Finite Impulse Response)-Filter, welches in der Lage ist,
die Glieder durch ihre räumliche Frequenzen zu trennen,
getrennt werden können.
Gemäß einem weiteren Aspekt der Erfindung ist die Referenz
eine virtuelle Punktquelle, wobei das Zentrum des Objektfeldes
und der virtuelle Referenzpunkt in im wesentlichen dem
selben Abstand von der Sensorebene angeordnet sind, um zu
bewirken, daß die Streifen in sämtlichen Tupfen im wesentlichen
die gleichen räumlichen Frequenzen haben, und die Detektoren
sind zur wirksamen Phasen- und Amplitudenmessung in gleichen
Abständen längs der Zeilen angeordnet.
Gemäß einem weiteren Aspekt der Erfindung werden die abge
tasteten Ausgangssignale von n aufeinanderfolgenden Detek
toren in jeder Zeile substraktiv verknüpft, um einen (n-1)
fachen Satz von Ausgangssignaldifferenzen zu gewinnen. Die
Differenzbildung dient dazu, das Spektralglied gleichförmigen
Wertes und einen wesentlichen Teil des Spektralglieds des
Tupfenmusters an sich aus dem Kameraausgangssignal zu elimi
nieren. Das Spektralglied des Tupfenmusters wird weiter redu
ziert, indem die Intensität des Referenzbündels in Relation
zu der Intensität der von dem Objektfeld zu dem begrenzten
planaren Gebiet reflektierten Beleuchtung groß gemacht wird.
Die beiden vorgenannten Maßnahmen können als ein Teil des
FIR-Filters betrachtet werden, und zwar als Teil von dessen
Funktion, das gewünschte Kreuzproduktglied, das die hologra
phische Information enthält, zu isolieren, oder als Maßnahme
zum Vereinfachen der schließlichen Aufgabe eines schließ
lichen FIR-Filters, die darin besteht, die beiden Kreuzpro
duktglieder zu trennen, um das gewünschte Kreuzproduktglied
zu isolieren.
Schließlich ist ein herkömmliches FIR-Filter, dem die Sequenz
von Ausgangssignaldifferenzen in abgetasteten Detektoraus
gangssignalen zugeführt wird, dafür vorgesehen, das uner
wünschte Kreuzproduktspektralglied negativer Frequenz zu
unterdrücken, um das gewünschte Kreuzproduktspektralglied
positiver Frequenz zu gewinnen.
Ausführungsbeispiele der Erfindung werden im folgenden unter
Bezugnahme auf die Zeichnungen näher beschrieben. Es zeigen
Fig. 1A in perspektivischer Darstellung eine Vor
richtung zum Aufzeichnen des Hologramms
eines Objektfeldes unter Verwendung einer
Ladungsverschiebungsvorrichtung (Charge
Transfer Device oder CTD);
Fig. 1B eine künstlerische Darstellung des gerasterten
Tupfenmusters, das gebildet wird, wenn
Licht aus dem kohärent beleuchteten Objekt
feld und Licht von einem zweiten Ort aus
derselben kohärenten Quelle die Sensorebene
der CTD beleuchten und interferieren;
Fig. 1C das Muster von Sensoren, welche die Sensor
ebene bilden, auf der sich das gerastete
Tupfenmuster bildet;
Fig. 2 die Intensitätsverteilung über der Öffnung
der Sensorebene und, zu Analysezwecken,
eine elementare Anordnung, in welcher ein
einzelner Punkt aus dem Objektfeld und eine
einzelne Punktreferenzquelle einen Beobachtungs
punkt in der Sensorebene beleuchten;
Fig. 3 das räumliche Spektrum der Intensitäts
verteilung in der Sensorebene aufgrund von
sämtlichen Punkten in dem Objektfeld unter
den Bedingungen der in Fig. 1A dargestellten
Beleuchtung, wobei insbesondere die räum
lichen Frequenzspektren in der X-Richtung
dieser Verteilung dargestellt sind;
Fig. 4 eine Darstellung des Winkelantennen
bewertungsmusters, das den X- und Y-Verteilungen
der räumlichen Frequenzspektren längs der
X- und Y-Achse aufgrund des endlichen Flächen
inhalts der Sensoren aufgeprägt wird;
Fig. 5 eine komplexe "Z-Ebene"-Darstellung der
Abtastdaten des räumlichen Frequenzspektrums
in der X-Richtung, die zur Erläuterung der
Forderung an das Filter, das gewünschte
komplexe Spektrum des Sensorfeldes auszu
wählen und unerwünschte Spektren zu unter
drücken, brauchbar ist;
Fig. 6 das wiederholte zweidimensionale Winkel
spektrum aufgrund des Abtastens der Aus
gangssignale von aufeinanderfolgenden
Sensoren, das zur Erläuterung des Filterer
fordernisses brauchbar ist;
Fig. 7A eine Ersatzschaltungsdarstellung der "Differenz
bildung", die mit den Ausgangssignalen
der einzelnen Sensoren in der Sensorebene
vorgenommen wird und mathematisch ein Teil
eines FIR-Filters ist;
Fig. 7B eine Ersatzschaltungsdarstellung des FIR-
Filters, das erforderlich ist, um das gewünschte
komplexe Spektrum auszuwählen und
die unerwünschten Spektren zu unterdrücken,
wobei die Darstellung die Option der Differenz
bildung in der Sensorebene und das externe
FIR-Filter oder allein das externe FIR-
Filter zeigt;
Fig. 8A ein Schaltbild eines CID-Sensors, der zur
Verwendung als CTD in der Kamera geeignet
und insbesondere zur Bildung von Differenzen
zwischen aufeinanderfolgenden Sensoren in
der X-Abmessungen geeignet ist;
Fig. 8B und deren Transposition die Schaltungs
einzelheiten des Vertikalwahlabtasters bzw. des
Vertikalklemmabtasters;
Fig. 8C die Schaltungseinzelheiten des Horizontal
abtasters;
Fig. 9A und 9B zwei Stufen des Ausleseprozesses, während
welchem die Differenzbildung in dem CID-
Sensor nach den Fig. 8A, 8B und 8C
stattfindet;
Fig. 10A und 10B die Filterwirkung der Differenzbildung,
wobei Fig. 10A die Z-Ebene-Nullage auf dem
Einheitskreis und auf der positiven reellen
Achse von Differenzbildungsprodukten zeigt
und wobei Fig. 10B die Kerbdifferenz
bildungsprodukte in dem Kamerafrequenzgang bei
Gleichstrom und niedrigen Raumfrequenzen
verknüpft mit der Filterwirkung der
Sensoren endlichen Flächeninhalts zeigt;
Fig. 11 die Z-Ebene-Nullagen für ein zusätzliches
externes FIR-Filter gemäß einer exemplarischen
Ausführungsform, in welcher eine bis
vier aufeinanderfolgende Nullen auf dem
Einheitskreis in der negativen imaginären
Achse hinzugefügt werden, zusammen mit einer
einzelnen Null auf dem Einheitskreis in der
negativen realen Achse;
Fig. 12 den Gesamtfrequenzgang aufgrund der gewünschten
und unerwünschten Signalspektren des Gesamt
systems, das ein zusätzliches externes
FIR-Filter aufweist, welches die Z-Ebene-
Nullagen nach Fig. 11 hat und eine Dezimierung
um zwei vornimmt;
Fig. 13 den Gesamtfrequenzgang derselben exemplarischen
Ausführungsform unter der Annahme
einer vernachlässigbaren Energie in dem
zentralen Basisband;
Fig. 14 den Gesamtfrequenzgang einer exemplarischen
Ausführungsform, die die Z-Ebene-Nullagen
nach Fig. 11 hat und eine zusätzliche Dezi
mierung um zwei vornimmt (also um vier ins
gesamt); und
Fig. 15 ein Diagramm des maximalen Phasenfehlers
über der räumlichen Winkelfrequenz der
exemplarischen Ausführungsform, deren
Systemfrequenzgang in Fig. 14 gekenn
zeichnet ist.
In Fig. 1A ist eine perspektivische Ansicht einer Vorrichtung
zum Aufzeichnen des Hologramms eines Objektfeldes dargestellt.
Die Vorrichtung zeichnet holographische Information des
Objektfeldes über einer Blendenöffnung auf, die eine ausrei
chende Größe hat, um einzelne Elemente des Objektfeldes aufzu
lösen. Die holographische Aufzeichnung kann für mehrere
Zwecke benutzt werden, zu welchen das Aufnehmen von Verschie
bungen oder die Rekonstruktion des Objektfeldes, wie darge
stellt, gehören.
Die Vorrichtung weist Einrichtungen auf zum Erzeugen von
gegenseitig kohärenten optischen Beleuchtungs- und Referenz
bündeln und eine Ladungsverschiebungsvorrichtungs(CTD)-Kamera,
die eine Blendenöffnung hat, welche auf das Objektfeld
gerichtet ist, das Referenzbündel empfängt und in bezug auf
die Bündel und das Objektfeld geeignet ausgerichtet ist, um
holographische Daten aufzuzeichnen. Die Kamera, die ohne ein
herkömmliches Fokussierobjektiv arbeitet, tastet die Beleuch
tung ab, welche auf Fotodetektoren auftrifft, die in der Sensor
ebene angeordnet sind. Die Beleuchtung, die auf die Sensor
ebene auftrifft, kann als eine Fresnel/Fourier-Transfor
mation des an dem beleuchteten Objekt reflektierten Lichtes
gekennzeichnet werden.
Die elektrischen Signale, die aus den Fotodetektoren gewonnen
werden, werden in dem A/D-Wandler 24 in ein Digitalformat um
gewandelt und dann an ein FIR-Filter 25 angelegt, um uner
wünschte Beleuchtungsglieder zu beseitigen und die gewünschte
Phasen- und Amplitudeninformation zu gewinnen, die zum Kenn
zeichnen des Hologramms erforderlich ist. Ein wichtiges Merkmal
der Vorrichtung ist das Bilden von Differenzen zwischen
den Ausgangssignalen von benachbarten Fotodetektoren. Das
kann physikalisch zwar Teil der Schaltungsanordnung in der
Sensorebene sein, mathematisch wird es jedoch als ein Teil
des FIR-Filters aufgefaßt. Die Dezimierung der Daten um 2
oder 4 (d. h., jede zweite oder vierte Abtastprobe der ge
filterten Daten zu nehmen) vereinfacht normalerweise die spä
tere Datenverarbeitung und ist durch den Block 26 dargestellt.
Eine zusätzliche Matrixverarbeitung der gefilterten Daten
kann durch einen Fresnel/Fourier-Transformator 27 erfolgen,
um das Objektfeld für eine Anzeigeeinrichtung 28 zu
rekonstruieren.
Gemäß der Darstellung in Fig. 1A stammen das Beleuchtungs-
und das Referenzbündel aus einem einzigen Laser 10, wobei
der Strahl aus dem Laser auf einen Strahlteiler 11 trifft,
der einen Teil der Laserenergie auf eine gesonderte Bahn für
das Referenzbündel ablenkt. Der Teil des Laserstrahls, der
nicht abgelenkt wird, wird der Beleuchtungsbündeloptik 12
zugeführt, in welcher der Laserstrahl aufgeweitet wird, um
das Objektfeld 13 zu beleuchten. Somit tritt kohärentes Licht,
das an dem Objektfeld reflektiert wird, in die Blendenöffnung
14 der CTD-Kamera 15 ein und erzeugt ein Tupfenmuster über
der Sensorebene 16 der Kamera. Der Teil der Laserenergie, der
an dem Strahlteiler 11 abgelenkt wird, durchquert die Zeit
verzögerungsoptik 17, einen Spiegel 18, eine Referenzbündel
formoptik 19 und einen Spiegel 20. Der Spiegel 20 projiziert
das Referenzbündel zurück durch die Öffnung 14 auf die Sensor
ebene 16 der Kamera. Die Beleuchtungsbündelformoptik 12
hat die Funktion, denjenigen Teil des Objektfeldes zu be
leuchten, der durch die Kamera betrachtet wird. Die Referenz
bündelformoptik 19 hat die Funktion, die Sensorebene zu be
leuchten, was eine Maßnahme zum Erzielen der Phaseninformation
für das Hologramm darstellt. Die Optik 19 ist, was noch
näher erläutert werden wird, so ausgelegt, daß sie die virtu
elle Quelle des Referenzbündels in derselben Entfernung (Z-
Koordinate) von der Sensorebene wie das Zentrum des Objekt
feldes plaziert.
In der Darstellung in Fig. 1A gehen die Strahlengänge sowohl
des Beleuchtungs- als auch des Referenzbündels von dem Laser
10 aus und endigen beide auf der Sensorebene der Kamera.
Wenn die Weglängen der beiden Bündel ausreichend gleichge
macht werden, werden beide Bündel die Sensorebene im Mittel
zur selben Zeit erreichen, und jede Laserinstabilität wird
minimiert werden, wodurch die fraktionelle optische Wellen
längengenauigkeit in der holographischen Information, die in
der Sensorebene abgelesen wird, bewahrt wird. Die Zeitverzö
gerungsoptik 17 bildet die Einrichtung zum Gleichmachen der
Weglängen der beiden Bündel. Differenzen in den Weglängen der
beiden Bündel von dem Laser 10 bis zu der Sensorebene 16
werden immer vorhanden sein, wenn das Objektfeld eine ausge
dehnte Tiefe (in Richtung der Z-Achse) hat. Größere Differenzen
zwischen den beiden Weglängen können aber toleriert werden,
wenn die Kohärenzlänge des Lasers vergrößert wird. Je
stabiler der Laser ist, umso größer sind deshalb die tolerier
baren Differenzen in den Weglängen und umso größer ist die
Schärfentiefe, bevor eine Instabilität in den Messungen
bedeutsam wird.
Das Referenzbündel bildet die Einrichtung zum Gewinnen der
Phaseninformation für das Hologramm. Wenn das Referenzbündel
auf das Tupfenmuster auftrifft, das bereits auf der Sensor
ebene der Kamera aufgrund des Beleuchtungsbündels vorhanden
ist, wird ein räumlich periodisches Interferenzmuster, das
als ein "gerastertes Tupfenmuster" bezeichnet werden kann,
erzeugt. Das Interferenzmuster mit seinen aufeinanderfolgenden
hellen und dunklen Gebieten gestattet geeignet angeordneten
Sensoren, welche nur die Intensität des Lichtes abfühlen,
sowohl dessen Amplitude als auch dessen Phase zu bestimmen.
Die Phase wird selbstverständlich in bezug auf die Phase des
Referenzbündels gemessen. Die Analyse zeigt, daß, wenn eine
ausreichende räumliche Abtastung jedes Tupfens im Mittel ge
wonnen wird, die Amplituden- und Phaseninformation jedes
Tupfens (im Mittel) und allgemein eine ausreichende Menge an
Information des komplexen Wellenfeldes an den Sensor zum
Aufzeichnen des Hologramms zur späteren Rekonstruktion des
Objektfeldes gewonnen werden kann.
Die CTD-Kamera kann zwar mehrere Formen annehmen, wesentlich
ist jedoch für eine wirksame Signalvorverstärkung und für
die FIR-Filterung des Fotodetektorausgangssignals, daß die
Kamera eine Einrichtung bildet zum Gewinnen von Signaldifferenzen
zwischen aufeinanderfolgenden Fotodetektoren längs
gemeinsamer Zeilen.
Eine geeignete Kamera für diesen Zweck ist eine Ladungs
injektionsvorrichtung (CID), die eine Matrix von üblicherweise
256 × 256 Fotodetektorstellen hat, welche zeilenweise ausge
lesen werden, wie es in den Fig. 8A, 8B und 8C gezeigt ist.
Die Einzelheiten der Kamera und die Einrichtung, durch welche
die Differenzen gebildet werden, werden im folgenden erläutert.
Die Aufzeichnung von holographischer Information gewinnt
stark an Genauigkeit der Amplituden- und Phasenmessung und
an Gesamtempfindlichkeit, wenn die räumlichen Beziehungen,
die in Fig. 1A dargestellt sind, aufrechterhalten werden. Die
Beleuchtung, die Quelle des Referenzbündels und die Lage des
Objektfeldes bilden ein Dreikoordinatensystem, mit dem die
Winkelöffnung und die Sensorebene der Kamera für optimale
Phasen- und Amplitudentreue und für maximale Empfindlichkeit
ausgerichtet werden müssen. Die richtige Positionierung der
Referenzquelle, des Objektfeldes und der Kamera legt
die Position, die Orientierung und die Raum- oder
räumliche Frequenz der Streifen
fest und macht in der bevorzugten Anordnung die räumliche
Frequenz der Streifen über der Blendenöffnung der Kamera im
wesentlichen konstant. Die richtige Orientierung der Sensor
ebene der Kamera in Relation zu den Streifen und die richtige
Vergrößerung der Streifen in Relation zu dem Intervall zwischen
den Sensoren in der Sensorebene erleichtern die Genauigkeit
beim Aufzeichnen der holographischen Information weiter.
Das wird nun im einzelnen erläutert.
Gemäß Fig. 1A ist die Kamera im Idealfall so positioniert,
daß die Mitte 21 des Objekts auf einer Linie liegt, die recht
winkelig zu der Sensorebene ist, welche von dem Mittelpunkt
22 ihrer Öffnung aus errichtet worden ist. Der Ursprung eines
dreiachsigen Koordinatensystems ist daher der Mittelpunkt der
Sensorebene, wobei die Z-Achse die Linie ist, die zu der Sensor
ebene rechtwinkelig ist und durch die Mitte 21 des Objekts
geht. Die X- und die Y-Achse liegen in der Sensorebene, aber
ihre Orientierung bleibt unbestimmt, bis die Position des
Referenzbündels festgelegt ist.
Die Referenzbündelformoptik 19 wird so justiert, daß die
Position der virtuellen Quelle des Referenzbündels in dem
Punkt 23 plaziert wird. Die virtuelle Quelle 23 des Referenz
bündels ist in bezug auf das Objektfeld klein und kann als
eine Punktquelle behandelt werden. Die Interferenzstreifen,
die durch die Referenzbeleuchtung erzeugt werden, und das
beleuchtete Objektfeld sind im Mittel zu der durch die Punkte
21, 22 und 23 definierten Ebene rechtwinkelig. Andererseits
wird nur Licht, das längs der Schnittlinie der Ebene 21, 22,
23 mit dem Objektfeld ausgeht, Streifen erzeugen, die zu
dieser Ebene exakt rechtwinkelig sind. Exaktheit ist nicht
erforderlich, um genaue Ergebnisse über einem vernünftigen
Sichtfeld zu erzielen. Zum Abtasten der räumlichen Frequenz
der Streifen, die von allen Punkten des Objektfeldes aus
erzeugt werden, sollten daher die Fotodetektoren in Zeilen
angeordnet sein, welche zu der Ebene (21, 22, 23) parallel sind.
Der Schnitt dieser Ebene (21, 22, 23) mit der Sensorebene
definiert somit die X-Achse und infolgedessen die Position
der Y-Achse, die als zur X-Achse rechtwinkelig definiert
worden ist. Die Spalten von Sensoren sind zu der Y-Achse
parallel. Die Zeilen von Sensoren, die benutzt werden, um die
räumliche Phase der Streifen zu bestimmen, sind somit zu der
X-Achse parallel.
Weiter ist gemäß der Erfindung die virtuelle Referenzquelle
in derselben Z-Koordinatenentfernung von dem Ursprung wie
der Mittelpunkt 21 des Objektfeldes 13 angeordnet. Das hat
den Vorteil, daß die Parallaxe von unterschiedlichen Blick
punkten innerhalb der Empfangsblendenöffnung her bezüglich
desselben Objektpunktes reduziert wird und daß der Streifen
abstand gleichmäßiger gemacht wird. Bei Gleichmäßigkeit des
Streifenabstands wird die Konstanz der räumlichen Abtast
frequenz wirksamer.
Weiter hängt das räumliche Winkelspektrum von dem Winkel R
zwischen dem Ursprung 23 des Referenzbündels und den Auflösungs
punkten in dem Objektfeld 13 ab. Wenn das Objektfeld 13
in dem Fernfeld der Empfangsöffnung ist, ist der Winkel zwischen
einem bestimmten Punkt in dem Objektfeld und der Normalen
zu der Ebene der Empfangsöffnung (d. h. der Z-Achse) für
alle Blickpunkte innerhalb der Empfangsöffnung derselbe.
Unter diesen Bedingungen ist ein kollimiertes Referenzbündel,
das aus dem Fernfeld zu kommen scheint, erwünscht. Wenn je
doch das Objektfeld 13 in dem Nahfeld der Empfangsöffnung
ist, was üblicherweise der Fall ist, erscheint ein fester
Punkt in dem Objektfeld 13 unter verschiedenen Winkeln wie
von verschiedenen Punkten innerhalb der Öffnung aus betrach
tet. Unter diesen Bedingungen führt die Überlagerung eines
kollimierten Referenzbündels unter einem festen Winkel zu
einem Interferenzmuster, deren Streifenabstand sich mit der
Position in der Öffnung beträchtlich ändert. Eine große Ver
änderung im Streifenabstand führt zu einer ineffizienten Ab
tastung des Musters. Der Zustand kann gemildert werden, indem
der Punkt 23 des Referenzbündels in nominell demselben Z-
Koordinatenabstand wie der Mittelpunkt 21 des Objektfeldes 13
plaziert wird. Unter diesen Bedingungen gibt es keine Parallaxe
zwischen den Punkten in dem Objektfeld 13 und dem Referenz
punkt 23. Das führt dazu, daß der Winkel zwischen dem Referenz
punkt und jedem festen Punkt in dem Objektfeld 13 für
alle Blickpunkte innerhalb der Empfangsöffnung nominell der
selbe ist und daß Gleichmäßigkeit im Streifenabstand und
Effizienz bei der Abtastung dieser Streifen mit einer
konstanten räumlichen Abtastfrequenz gegeben sind.
Fig. 1B ist eine künstlerische Darstellung eines Teils des
Streifenmusters, das auf der Sensorebene der Kamera 15
erscheint. Das Streifenmuster ist in demselben Maßstab und mit
derselben Ausrichtung gezeigt wie das in Fig. 1C gezeigte
Sensormuster.
In der Darstellung in Fig. 1B ist ein kleiner Teil des gesamten
gerasterten Tupfenmusters gezeigt, und die Darstellung in
schwarz und weiß ist eine grobe Annäherung an die allmählicheren
Abstufungen in hell und dunkel, welche tatsächlich auf
treten. Unter Annahme der Verwendung einer herkömmlichen
Kamera zeigt die Darstellung nur etwa 0,2% des nutzbaren
Tupfenmusters und der Sensorebene. Die Streifenbildung oder
Rasterung der Tupfen ist auf die Interferenz zwischen mono
chromatischem Licht aus dem Objektfeld 13 mit monochromatischem
Licht aus der Referenzquelle 23 zurückzuführen. Die
beiden Quellen sind, wie bereits beschrieben, gegenseitig
kohärent, und solange die Elemente in dem Objektfeld 13
stationär sind, bleibt das Muster ebenfalls im wesentlichen
stationär, wobei eine gewisse Störung dadurch verursacht
wird, daß die Bündel durch Luft hindurchgehen, die sich
bewegt, oder durch kleine Vibrationen der Elemente des
optischen Systems.
Die Orientierung und der Abstand der Streifen werden durch
die Positionierung der Punkte 21, 22 und 23 festgelegt. Somit
ist jeder Streifen zu der Y-Achse parallel, und aufeinander
folgende Streifen des Abtasttupfens haben längs der X-Achse
gegenseitigen Abstand. Ein dunkles Gebiet und ein helles
Gebiet ist eine volle Welle (2π Radian) der räumlichen Fre
quenz des Tupfens, und ein Tupfen mittlerer Größe wird so
gewählt, daß er wenigstens eine volle Welle von Streifen hat,
so daß es möglich ist, die räumliche Phase des Tupfens zu
erfassen. Die Anzahl von Streifen pro Tupfen wird durch die
Winkelverschiebung R₀ der virtuellen Referenzquelle 23
gegenüber der Z-Achse gesteuert.
Die holographische Information aus einem Tupfen wird in
ihrer Helligkeit und in ihrer augenblicklichen räumlichen
Phase festgehalten. Gemäß der Darstellung in Fig. 1B unter
scheidet sich die räumliche Phase jedes Tupfens von der
seines Nachbarn auf anscheinend ziemlich willkürliche Weise.
Das Sensormuster, das in einem üblichen Fall viermal so
fein wie das Streifenmuster ist, bildet die Einrichtung zum
Abtasten des gerasterten Tupfens derart, daß sowohl die
Phase als auch die Amplitude jedes Tupfens (im Mittel)
wiedergewonnen werden und somit die zum Konstruieren eines
Hologramms notwendige Information erzielt wird.
Die Beleuchtung erzeugt sowohl erwünschte als auch uner
wünschte Glieder, auf welche die Sensoren ansprechen, während
der Abtastprozeß seine eigenen Artefakte erzeugt. Die
erwünschten und die unerwünschten Glieder sowie ein Teil der
Artefakte, welche durch den Abtastprozeß hervorgerufen
werden, werden in den Fig. 3, 4 und 6 behandelt.
Fig. 5 ist eine komplexe Z-Ebene-Darstellung der Filter
leistung, die erforderlich ist, um das erwünschte Spektralglied
auszuwählen und die unerwünschten Spektralglieder zu unter
drücken. Die Auswahl der brauchbaren Glieder erfolgt durch
Differenzbildung, die unter den Fotodetektorausgangssignalen
vorgenommen wird, durch Einstellen der Referenzbündelinten
sität in Relation zu der Objektfeldintensität und durch FIR-
Filterung, was im folgenden noch näher erläutert wird.
Fig. 3 zeigt das in der X-Richtung gemessene Raumfrequenz
spektrum der Intensitätsverteilung (quadrierte Größe
der Lichtamplitude) in der gezeigten Empfangsöffnung. Die
längs der horizontalen Achse gemessenen Einheiten sind Radian
pro Längeneinheit. Der Parameter k ist gleich 2π dividiert
durch die optische Wellenlänge. Der Winkel R X ist der im
Ursprung 22 (in Fig. 1A) zwischen einem gewählten einzelnen
Punkt 27 in dem Objektfeld und dem Bündelreferenzpunkt 23
gemessene Zentrumswinkel. (Somit ist zu erkennen, daß die
Winkelposition eines einzelnen Punktes in dem Objektfeld 13
direkt in eine entsprechende einzelne Raumfrequenz
komponente abgebildet wird.)
Das Raumfrequenzspektrum in der X-Richtung der Inten
sitätsverteilung in der Empfangsöffnung nach Fig. 1A ist in
Fig. 3 dargestellt. Das Raumfrequenzspektrum repräsentiert
eine räumliche Fourier/Fresnel-Integration der Verteilung
der optischen Leistung, die auf die Sensorflächenelemente
über der Öffnung auftrifft.
Als ein erster Schritt zum Analysieren dieses Spektrums kann
die optische Leistung pro Flächeneinheit in der Position p
in der Ebene der Empfangsöffnung I(p) betrachtet werden. Sie
kann folgendermaßen ausgedrückt werden:
I(p) = I R + (|S(p)|)² + I n (p) + I p (p) (1)
wobei
I R die im wesentlichen konstante Intensität über der Öffnungs ebene aufgrund des Referenzbündels ist;
(|S(p)|) die Größe des gesamten optischen Objektlichtes in dem Punkt p in der Empfangsöffnung aufgrund des gesamten beleuchteten Objektfeldes ist;
I n (p) die unerwünschte Komponente (negativer Frequenz) der Gesamtintensitätsverteilung entsprechend der Konjugierten des Lichtes aus dem Objektfeld ist, d. h. das Produkt der Konjugierten der komplexen Amplitude des Lichtes aus dem beleuchteten Objektfeld und der komplexen Amplitude des Lichtes aus der Referenzquelle; und
I p (p) die erwünschte Komponente (positiver Frequenz) der Gesamtintensitätsverteilung ist, die dem Licht aus dem Objekt feld entspricht, d. h. das Produkt der komplexen Amplitude des Lichtes aus dem beleuchteten Objektfeld und der Konjugierten der komplexen Amplitude des Lichtes aus der Referenzquelle.
I R die im wesentlichen konstante Intensität über der Öffnungs ebene aufgrund des Referenzbündels ist;
(|S(p)|) die Größe des gesamten optischen Objektlichtes in dem Punkt p in der Empfangsöffnung aufgrund des gesamten beleuchteten Objektfeldes ist;
I n (p) die unerwünschte Komponente (negativer Frequenz) der Gesamtintensitätsverteilung entsprechend der Konjugierten des Lichtes aus dem Objektfeld ist, d. h. das Produkt der Konjugierten der komplexen Amplitude des Lichtes aus dem beleuchteten Objektfeld und der komplexen Amplitude des Lichtes aus der Referenzquelle; und
I p (p) die erwünschte Komponente (positiver Frequenz) der Gesamtintensitätsverteilung ist, die dem Licht aus dem Objekt feld entspricht, d. h. das Produkt der komplexen Amplitude des Lichtes aus dem beleuchteten Objektfeld und der Konjugierten der komplexen Amplitude des Lichtes aus der Referenzquelle.
Die vier Glieder des Ausdrucks (1) bilden, wenn sie durch
einen räumlichen Fourier/Fresnel-Transformator über der Öffnung
integriert werden, vier entsprechende räumliche Spektral
glieder. Wenn die Kamera 15, die Beleuchtungsgeometrie und
das Objektfeld 13 geeignet angeordnet sind, sind die sich
ergebenden Spektralglieder in gegenseitig getrennten Positionen
über dem Raumfrequenzspektrum verteilt, das in Fig. 3 dargestellt ist.
Die mathematische Basis für die Glieder des Ausdrucks (1)
kann am besten erläutert werden, indem auf eine Analyse der
Intensitätsverteilung über der Öffnung der Sensorebene unter
Verwendung des elementaren Beispiels von zwei punktgroßen
Lichtquellen, die in Fig. 2 dargestellt sind, zurückgegriffen
wird. Hier wird angenommen, daß ein Referenzbündel vorhanden
ist, welches Licht aus einem willkürlich angeordneten Referenz
punkt abstrahlt, und daß ein nahegelegenes Objektfeld
vorhanden ist, das aus einem einzelnen Punkt besteht, der
reflektiertes Licht abstrahlt. Eine mathematische Beschreibung
des sich ergebenden Interferenzmusters über einer ent
fernten Sensorebene innerhalb der Empfangsblendenöffnung der
Kamera ist Gegenstand der folgenden Erläuterung.
Das Beispiel nach Fig. 2 mit den beiden Punktquellen basiert
auf dem bereits beschriebenen dreiachsigen rechtwinkeligen
Koordinatensystem. Die drei interessierenden Punkte sind die
Orte der Punktquellen (bezeichnet als Referenzpunktquelle und
als Objektfeldpunktquelle) und ein Beobachtungspunkt in der
Empfangsöffnung. Die Vektoren werden so definiert, wie sie
die Punkte gemäß der Darstellung in Fig. 2 miteinander ver
binden. Es gelten folgende Definitionen.
(X R , Y R , Z R ) sind die Koordinaten der Referenzbündelpunkt quelle,
(X S , Y S , Z S ) sind die Koordinaten der Objektfeldpunktquelle,
(x, y, 0) sind die Koordinaten des Beobachtungspunktes in der Empfangsöffnung,
R ist der Abstandsvektor von dem Referenzpunkt zu dem Beobachtungspunkt,
S ist der Abstandsvektor von dem Objektfeldpunkt zu dem Beobachtungspunkt,
V R , V S sind die Größen der Abstandsvektoren.
(X R , Y R , Z R ) sind die Koordinaten der Referenzbündelpunkt quelle,
(X S , Y S , Z S ) sind die Koordinaten der Objektfeldpunktquelle,
(x, y, 0) sind die Koordinaten des Beobachtungspunktes in der Empfangsöffnung,
R ist der Abstandsvektor von dem Referenzpunkt zu dem Beobachtungspunkt,
S ist der Abstandsvektor von dem Objektfeldpunkt zu dem Beobachtungspunkt,
V R , V S sind die Größen der Abstandsvektoren.
Es werden sphärische Wellen betrachtet, die von jedem Punkt
abgestrahlt werden. Diese Wellen können folgendermaßen
beschrieben werden. Die komplexe Amplitude einer Welle, die von
dem Referenzpunkt in einem Bereich R von einem Beobachtungs
punkt auf dem Sensor ausgeht ist:
wobei:
A R /r die Größe der komplexen Amplitude einer Welle ab dem Referenzpunkt in dem Bereich r von einem Beobachtungspunkt auf dem Sensor ist (wobei die quadrierte Größe gleich der optischen Leistung pro Flächeneinheit in dem Bereich r ab dem Referenzpunkt ist). Φ R ist die Phase der Referenzwelle in dem Quellenpunkt (d. h. bei r=0). Die komplexe Amplitude einer Welle ab dem Objektfeldpunkt in einem Bereich r ab einem Beob achtungspunkt auf dem Sensor ist:
A R /r die Größe der komplexen Amplitude einer Welle ab dem Referenzpunkt in dem Bereich r von einem Beobachtungspunkt auf dem Sensor ist (wobei die quadrierte Größe gleich der optischen Leistung pro Flächeneinheit in dem Bereich r ab dem Referenzpunkt ist). Φ R ist die Phase der Referenzwelle in dem Quellenpunkt (d. h. bei r=0). Die komplexe Amplitude einer Welle ab dem Objektfeldpunkt in einem Bereich r ab einem Beob achtungspunkt auf dem Sensor ist:
wobei:
A S /r die Größe der komplexen Amplitude einer Welle ab einem Objektfeldpunkt in dem Bereich r ab einem Beobachtungspunkt auf dem Sensor ist (wobei die quadrierte Größe gleich der optischen Leistung pro Flächeneinheit in dem Bereich r ab dem Referenzpunkt ist). Φ S ist die Phase des Objektpunktes an seiner Quelle (d. h. bei r=0).
A S /r die Größe der komplexen Amplitude einer Welle ab einem Objektfeldpunkt in dem Bereich r ab einem Beobachtungspunkt auf dem Sensor ist (wobei die quadrierte Größe gleich der optischen Leistung pro Flächeneinheit in dem Bereich r ab dem Referenzpunkt ist). Φ S ist die Phase des Objektpunktes an seiner Quelle (d. h. bei r=0).
Die komplexe Gesamtamplitude in einem gewählten Beobachtungs
punkt ist die Überlagerung dieser beiden Komponenten, wobei
die geeigneten Werte für die Vektorgrößen für r nach Bedarf
benutzt werden.
Die Intensität I für das Beispiel mit zwei Punktquellen variiert
mit der Position (x, y) des Beobachtungspunktes in der
Empfangsöffnung. Der Ausdruck für die Intensität I, der unter
Verwendung von gewissen vereinfachenden Annahmen gewonnen werden
kann (z. B., daß der Abstand zwischen den beiden Punkt
quellen in Relation zu ihren Abständen von dem Beobachtungs
punkt klein ist), kann folgende Form annehmen:
wobei:
wobei:
Somit ist zu erkennen, daß sich die Intensität in der Empfangs
öffnung sinusförmig mit der Position um einen Vorspannungs
wert verändert. Die räumlichen Frequenzen in den x- und
y-Richtungen dieser Veränderung hängen, wie ersichtlich, von
dem Winkel zwischen den Referenz- und Objektpunkten ab, und
zwar von dem Beobachtungspunkt in der Empfangsöffnung aus
gesehen. Das Plazieren des Referenzpunktes in demselben Be
reich wie der Objektpunkt eliminiert die Parallaxe zwischen
diesen Punkten, was dazu führt, daß dieser Winkel und die
entsprechende räumliche Frequenz über der Empfangsöffnung
konstant sind.
Die räumliche Phase dieser sinusförmigen Variation hängt er
sichtlich von der Phasendifferenz zwischen den Objekt- und
Referenzpunkten sowie von deren Positionen ab. Diese sind
durch Φ S , Φ R bzw. V S , V R angegeben.
Das Vorspannungsglied (I R + I S ) in der Gleichung (2a) enthält
keine brauchbare Information und sollte durch Differenzbildung
in der Kamera eliminiert werden, was im folgenden näher
erläutert ist.
Die Position des Objektpunktes relativ zu dem Referenzpunkt
kann aus den räumlichen Frequenzen unter Verwendung der Glei
chungen (2a) bis (2e) eindeutig bestimmt werden.
Die Position des sinusförmigen Musters kann aus den Sensor
daten ermittelt und benutzt werden, um die Phase der Objekt
punkte in Relation zu dem Referenzpunkt zu bestimmen. Das
entspricht der Größe, die in Gleichung (2a) mit
Φ S - Φ R + k (V S - V R ) angegeben ist.
Die Amplitude A S des Objektpunktes kann aus der Gleichung
(2c) bestimmt werden, wenn die Intensität I S und der Bereich
V S bekannt sind. Der Bereich ist aus der Objektrekonstruktion
bekannt. Die Intensität wird aus der Amplitude der sinusförmigen
Variation bestimmt, wie es in Gleichung (2a) zu erkennen
ist. Es wird angenommen, daß die Referenzintensität I R
bekannt ist.
Zusammenfassend ist festzustellen, daß, wenn die Position,
die Amplitude und die Phase des Referenzbündelpunktes bekannt
sind und die Beziehung des Ausdrucks (2a) bis (2e) benutzt
wird, die unbekannte Position, Amplitude und Phase des nahe
gelegenen Objektpunktes aus den Einzelheiten des Intensitäts
musters bestimmt werden kann, das aus der Überlagerung von
Licht von dem Referenzpunkt und einem unbekannten Objektpunkt
in einer Empfangsöffnung resultiert. Die vorstehende Analyse
basiert auf einem Zweipunktbeispiel.
Das Objektfeld nimmt jedoch ein ausgedehntes, aber endliches
Volumen im Raum statt den soeben betrachteten einzelnen
Punkt ein. Der Referenzpunkt unterscheidet sich von den
Punkten in dem Objektfeld dadurch, daß er sich außerhalb der
Objektfeldgrenzen befindet und daß er aus Gründen, die noch
erläutert werden, heller gemacht wird als das Objektfeld.
Das heißt, die Intensität in jedem Punkt in der Empfangsöffnung
aufgrund des Referenzbündels ist größer als die Intensität
in diesem Punkt aufgrund des Lichtes, das von dem gesamten
Objektfeld ausgeht.
Die folgende Gleichung (3) gibt die komplexen Amplituden S(p)
in einem Punkt p in der Empfangsöffnung aufgrund des gesamten
ausgedehnten Objektfeldes an. Der Gesamtvektor des elektrischen
Feldes in irgendeinem Punkt in dieser Öffnung ist die
Überlagerung der Felder aufgrund der Schar von Quellen in dem
Objektfeld, und seine komplexe Amplitude lautet wie folgt:
wobei:
p ein Punkt in der Empfangsöffnung ist,
p S ein lichtabstrahlender Punkt in dem Objektfeld ist (das viele derartige Punkte enthält),
S(p) die komplexe Gesamtamplitude (nach Größe und Phase) des E-Vektors in dem Punkt p in der Empfangsöffnung ist,
|A(p S )|, Φ (p S ) die Größe bzw. Phase der Lichtquelle in dem Punkt p S in dem Objektfeld sind,
r S (p, p S ) die Größe des Abstands von dem Punkt p S in dem Objektfeld zu dem Punkt p in der Empfangsöffnung ist, und dV ein Volumeninkrement ist, das Quellenpunkte des Objektfeldes enthält.
p ein Punkt in der Empfangsöffnung ist,
p S ein lichtabstrahlender Punkt in dem Objektfeld ist (das viele derartige Punkte enthält),
S(p) die komplexe Gesamtamplitude (nach Größe und Phase) des E-Vektors in dem Punkt p in der Empfangsöffnung ist,
|A(p S )|, Φ (p S ) die Größe bzw. Phase der Lichtquelle in dem Punkt p S in dem Objektfeld sind,
r S (p, p S ) die Größe des Abstands von dem Punkt p S in dem Objektfeld zu dem Punkt p in der Empfangsöffnung ist, und dV ein Volumeninkrement ist, das Quellenpunkte des Objektfeldes enthält.
In allen Fällen, die gegenwärtig von Interesse sind, ist es
die komplexe Verteilung (p) die zur Messung in der Empfangs
öffnung verfügbar ist. Die entsprechende Quellenverteilung
an dem Objekt, die durch die Größe A(p S ) und die Phase
Φ(p S ) beschrieben wird, wird als das "äquivalente Objekt"
definiert.
Das tatsächliche Objekt besteht üblicherweise aus physikalischen,
reflektierenden Facetten, die durch kohärente Laser
strahlung beleuchtet sind. Diese Facetten können diskrete
streuende Partikel wie in einem Nebel oder Aerosol sein oder
es kann sich um große Objekte mit durchgehenden reflektierenden
Oberflächen handeln.
Die komplexe Lichtverteilung über der Empfangsöffnung muß
geeignet verarbeitet werden, um die Wahrnehmung eines äqui
valenten Objekts zu rekonstruieren. Optisch wird das üblicher
weise durch eine Linse oder ein Objektiv gemacht. Im vor
liegenden Fall wird für diesen Zweck eine Bündelformtechnik
benutzt.
Wenn die komplexe Amplitude S(p) aus Gleichung (3) genommen
wird, das Referenzbündellicht addiert wird und die Summe mit
der komplexen Konjugierten multipliziert wird, ergibt sich
die folgende Gesamtintensität I(p).
wobei:
I(p) die gesamte optische Intensität in dem Punkt p in der Empfangsöffnung ist,
I R die Intensität aufgrund des Referenzbündels ist, die mit der Position in der Empfangsöffnung gleichmäßig ist,
|S(p)| die Größe des gesamten optischen Amplitudensignals in dem Punkt p in der Empfangsöffnung aufgrund des gesamten Objektfeldes ist,
Φ Sp (p) die Gesamtphase von Licht in dem Punkt p in der Empfangsöffnung aufgrund des gesamten Objektfeldes ist (d. h. Φ Sp (p) = Φ S - k r S (p, p S )), und
Φ Rp (p) die Phase von Licht in dem Punkt p in der Empfangs öffnung aufgrund des Referenzbündels ist (d. h. Φ Rp (p) = Φ R - k r R (p, p R )),
worin gilt, r R (p, p R ) = Größe der Strecke von dem Referenz punkt zu dem Punkt p in der Betrachteröffnung.
I(p) die gesamte optische Intensität in dem Punkt p in der Empfangsöffnung ist,
I R die Intensität aufgrund des Referenzbündels ist, die mit der Position in der Empfangsöffnung gleichmäßig ist,
|S(p)| die Größe des gesamten optischen Amplitudensignals in dem Punkt p in der Empfangsöffnung aufgrund des gesamten Objektfeldes ist,
Φ Sp (p) die Gesamtphase von Licht in dem Punkt p in der Empfangsöffnung aufgrund des gesamten Objektfeldes ist (d. h. Φ Sp (p) = Φ S - k r S (p, p S )), und
Φ Rp (p) die Phase von Licht in dem Punkt p in der Empfangs öffnung aufgrund des Referenzbündels ist (d. h. Φ Rp (p) = Φ R - k r R (p, p R )),
worin gilt, r R (p, p R ) = Größe der Strecke von dem Referenz punkt zu dem Punkt p in der Betrachteröffnung.
Die Natur des Intensitätsmusters, das durch Gleichung (4) ge
geben ist, kann abgeschätzt werden, indem es hinsichtlich der
Zweipunktverteilung betrachtet wird, die durch die Gleichung
(2a) bis (2e) gegeben ist. In sämtlichen Fällen ist die ge
samte komplexe Amplitude die lineare Überlagerung der komplexen
Amplituden aufgrund jedes Punktes einschließlich des Referenz
punktes. Wenn mit der komplexen Konjugierten multipliziert
wird, um die Intensität zu erzielen, ergeben sich sämt
liche möglichen Kombinationen von Punktpaaren. Jedes Punkt
paar kann gemäß der Gleichung (2a) bis (2e) beschrieben
werden. Die Summe des Effekts von sämtlichen möglichen Punktpaar
kombinationen ist das Gesamtergebnis und durch Gleichung (4)
angegeben.
Die Punktpaarkombinationen können als einer von drei Typen
betrachtet werden, entsprechend den drei Gliedern der
Gleichung (4). Diese Typen sind:
- - Referenzpunkt und Referenzpunkt
- - Objektpunkt und Objektpunkt
- - Referenzpunkt und Objektpunkt.
Der Referenzpunkt mal seiner komplexen Konjugierten ergibt
das Glied I R , welches das große gleichförmige Vorspannungs
glied ist, das in den beiden Gleichungen (2a) und (4) vorhanden
ist.
Ein Objektpunkt mal der Konjugierten irgend eines anderen
Objektpunktes (einschließlich seiner selbst) trägt zu der
quadrierten Größe von S p bei, welche das zweite Glied der
Gleichung (4) ist. Die Form jeder derartigen Paarkombination
gleicht der durch die Gleichung (2a) bis (2e) beschriebenen,
mit der Ausnahme, daß die Indizes R und S, die benutzt werden,
um in der Gleichung (2a) bis (2e) den Referenzpunkt bzw.
den Objektpunkt zu bezeichnen, durch m und n ersetzt werden,
um Punkte m und n in dem Objektfeld zu bezeichnen.
Die höchsten räumlichen Frequenzen k x und k y , die für Glieder
dieses Typs vorhanden sein können, werden durch die maximale
Winkelausdehnung der Szene in der x- bzw. y-Richtung
begrenzt (vgl. die Gleichungen (2d) und (2e)).
Diese maximale Frequenz diktiert ihrerseits eine minimale
räumliche Größe eines Merkmals, das in der Empfangsöffnung
aufgrund dieses zweiten Glieds vorhanden sein kann. Das ist
im wesentlichen die minimale Tupfengröße, die vorhanden sein
kann. Diese Tupfenverteilung ist durch die quadrierte Größe
von S p gegeben. Das ist die Intensitätsverteilung, die in
der Empfangsöffnung vorhanden wäre, wenn kein Referenzbündel
vorhanden wäre. Da keine Phaseninformation in diesem Glied
vorhanden ist, ist es nicht von Interesse und wird in der
Kamera 15 unterdrückt, was weiter unten beschrieben wird.
Die letzten beiden Glieder, zu denen das interessierende
gehört, resultieren aus dem Produkt von Licht aus dem Objekt
feld mit der Konjugierten des Lichtes von dem Referenzpunkt
plus der Konjugierten dieses Produkts. Die Summe davon wird
direkt durch das Cosinus-Glied in Gleichung (2a) beschrieben.
Die Summe aller dieser Cosinus-Glieder für alle Punkte in
dem Objektfeld ergibt das Cosinus-Glied von Gleichung (4).
Der Referenzpunkt soll dieselbe y-Koordinate wie der Mittel
punkt 21 des Objektfeldes 13 haben, wobei die x-Koordinate
von dem Mittelpunkt des Objektfeldes in ausreichendem Maße
nach außerhalb der Grenzen des Objektfeldes verschoben ist.
Unter diesen Bedingungen ist das räumliche Frequenzspektrum
in der y-Richtung für das Cosinus-Glied in Gleichung (4)
dasselbe wie für das Tupfenmuster, das durch die quadrierte
Größe von S p gegeben ist.
In der x-Richtung wird jedoch die Mittenfrequenz des Spektrums
durch den Winkel zwischen dem Referenzpunkt und dem
Mittelpunkt 21 des Objektfeldes (13) diktiert (genaugenommen
durch die Differenz zwischen dem Sinus des Referenzwinkels
und dem Sinus des Objektwinkels gemäß den Gleichungen (2d)
und (2e)). Dieses Spektrum breitet sich über eine Bandbreite
aus, die durch die Winkelgröße des Objektfeldes in der x-
Richtung diktiert wird, welche dieselbe Bandbreite wie die
des Tupfenspektrums in der x-Richtung ist.
Das Gesamtintensitätsmuster, das durch Gleichung (4) gegeben
ist, ist eine reelle Funktion. Somit hat ihr Raumfrequenz
spektrum positive und negative Frequenzkomponenten, die
komplexe Konjugierte voneinander sind.
Fig. 3 zeigt schematisch ein solches Raumfrequenz
spektrum in der x-Richtung. Die Komponente, die in dieser
Fig. schraffiert dargestellt ist, ist die interessierende
Komponente. Die anderen gezeigten Komponenten sind das Er
gebnis des nichtlinearen Quadriervorganges, der ausgeführt
wird, um die Amplitude in die Intensität umzuwandeln.
Die gewünschte Komponente von Gleichung (4) wird erzielt,
indem die Cosinusfunktion als die Summe von zwei komplexen
Exponentialgliedern ausgedrückt und einfach das positive
Exponentialglied genommen wird.
wobei:
I p (p) die gewünschte Komponente (positiver Frequenz) der Ge samtintensität ist, die dem Objektfeld entspricht.
I p (p) die gewünschte Komponente (positiver Frequenz) der Ge samtintensität ist, die dem Objektfeld entspricht.
wobei:
I n (p) die unerwünschte Komponente (negativer Frequenz) der Gesamtintensität ist, die der Konjugierten des Objektfeldes entspricht.
I n (p) die unerwünschte Komponente (negativer Frequenz) der Gesamtintensität ist, die der Konjugierten des Objektfeldes entspricht.
Das Verknüpfen der Definitionen der Gleichungen (5) und (6)
mit Gleichung (4) ergibt die Gesamtintensitätsverteilung, die
im Ausdruck (1) angegeben ist.
Es ist nun zu erkennen, daß diese vier Glieder additive Bei
träge zu der Intensitätsfunktion repräsentieren, welche die
optische Intensität beschreibt, die auf die Kamerablendenöffnung
16 gelangt. Diese vier Beiträge sind einander räumlich
überlagert, wobei jeder von ihnen die gesamte Kamerablenden
öffnung bedeckt. Diese Glieder können durch räumliche Filte
rung getrennt werden, was der Verarbeitung durch eine räumliche
Fourier/Fresnel-Transformation äquivalent ist.
Die Fourier-Operation ist linear, so daß die Fourier-Trans
formation der Gesamtfunktion Glied für Glied ausgeführt wer
den kann, was vier Fourier-Transformationsglieder ergibt, mit
einer Eine-zu-Eins-Entsprechung zu den ursprünglichen vier
Gliedern. Nach dem Transformieren sind diese Glieder nicht
länger überlagert, sondern befinden sich in unterschiedlichen
Positionen in dem Objekt- oder Raumspektralbereich,
wie es in Fig. 3 gezeigt ist.
Somit kann das interessierende Glied Fourier/Fresnel-trans
formiert werden, um eine mathematische Beschreibung des
"äquivalenten Objekts" (schraffiertes Gebiet in Fig. 3) zu
erzeugen. Der mathematische Algorithmus, durch den das er
reicht wird, ist in den folgenden Formeln angegeben:
wobei r S = Größe des Punktabstands zwischen p und p s
<V S < = Mittelwert von V S
<V S < = Mittelwert von V S
Unter Verwendung der Gleichung (5) zur Substitution ergibt
sich:
Das ist im wesentlichen eine mathematische Beschreibung des
Algorithmus, durch den das Objekt aus den Kameradaten rekon
struiert wird. Das setzt voraus, daß die kohärente Beschrei
bung des optischen Wellenfeldes, das von dem Objekt stammt,
genau wiedergewonnen worden ist durch Isolieren (durch räum
liche Filterung) des geeigneten (I p ) der vier Intensitäts
glieder, die durch die Kamera direkt abgefühlt werden, gemäß
der obigen Erläuterung, und daß dann aus diesem Wellenfeld
profil die bekannte Geometrie des Referenzbündels entfernt
wird. Das führt zu der Wellenfeld-Funktion, welche das Licht
von dem Objekt in der Kameraebene beschreibt. Das äquivalente
Objekt kann daraus in jeder Ebene am Ort des
Objekts durch die geeignete Fresnel-Transformation wieder
gewonnen werden.
Es ist ein wesentlicher Gesichtspunkt dieser Lehre, daß die
äußerst optimierte FIR-Filterung den wirksamsten Weg zum
Isolieren des gewünschten Glieds und zum gleichzeitigen Er
zielen einer hohen Phasengenauigkeit darstellt. Diese Aus
legungen gestatten die Verwendung von Daten, welche benach
barte Differenzen darstellen, die auf derselben Kameramatrix
gebildet werden, welche die optische Vorspannung eliminiert
und eine gute Aufnahme selbst dann gestattet, wenn das Referenz
bündel viel intensiver als das von dem Objekt kommende
Licht ist. Darüber hinaus ergibt das eine wirksamere Daten
übertragung aus der Kamera, da I- und Q-Abtastproben, die nur
das gewünschte Glied darstellen, aus der Kamera durch das
FIR-Filter geleitet werden können, wodurch die erforderliche
Datenfrequenz für eine bestimmte Teilbildzeit reduziert
werden kann.
Im Falle eines einzelnen Objektpunktes kann dieser Punkt
durch einfache Formeln lokalisiert werden, statt daß es not
wendig ist, sich mit der Komplexität einer vollständigen
Fresnel-Transformation zu befassen. Die optische Phase im
Falle des einzelnen Punktobjekts, die dem gewünschten Glied
I p zugeordnet ist, kann folgendermaßen ausgedrückt werden:
Φ = k (V S - V R ) + Φ S - Φ R (9)
wobei V S , V R = Schrägabstand zum Objekt- bzw. virtuellen Referenz
punkt ab dem Beobachtungspunkt:
p = x, y
und Φ S , Φ R = optische Reflexionsphase des Objekt- bzw. Referenz
punkts.
In vielen Fällen ist Φ zeitlich moduliert (z. B. sinusförmig
durch ein schwingendes Ziel), und zwar entweder durch eine
Modulation des optischen Index in dem dazwischen gelegenen
Medium oder durch eine Bewegung des Zielpunktes.
Durch geeignete Differentiation der obigen Formel nach x und
y können die folgenden Relationen zwischen der Geometrie der
Objekt-Referenz-Konfiguration und den aufeinanderfolgenden
Differentialquotienten gezeigt werden:
Die Differentialquotienten dΦ/dx, d²Φ/dx² und die ent
sprechenden Differentialquotienten nach y können aus den Phasen
daten ermittelt werden, die das FIR-Filter liefert. Diese
Differentialquotienten werden unter Verwendung eines globalen
Interpolationsalgorithmus berechnet, der die meisten oder
sämtliche Daten an der Kamerablendenöffnung benutzt, was so
mit ein hohes Ausmaß an räumlichen Integrationsgewinn zum Ver
bessern des Rauschabstands ergibt. Somit sind alle Elemente
auf der rechten Seite der Gleichung (10) bekannt, und V S kann
berechnet werden. Wenn das gemacht worden ist, sind sämtliche
Elemente auf den rechten Seiten der Gleichungen (11) und (12)
bekannt, und X S , Y S können berechnet werden, was zur voll
ständigen Lokalisierung des Objektpunktes führt.
Aus den Gleichungen (10)-(12) ist zu erkennen, daß die Winkel
position (in der x- und y-Richtung) des Objekts von dem
Beobachtungspunkt in der Blendenöffnung der Kamera aus pro
portional zu der ersten Ableitung der Phase ist, welche die
räumliche Frequenz in x oder y ist. Die Schrägdistanz V S ist
ungefähr proportional zu dem Kehrwert der zweiten Ableitung
der Phase.
Gemäß Gleichung (5) hat das gewünschte Glied I p (p) einen
Amplitudenskalenfaktor, der gleich der Quadratwurzel der Referenz
bündelintensität ist. Das Erhöhen der Referenzbündel
intensität erhöht entsprechend die Amplitude des gewünschten
Glieds über jedes elektronische Rauschen in der Umgebung.
Darüber hinaus zeigt Gleichung (5) das Vorhandensein einer
zusätzlichen Phase von Φ Rp subtrahiert von der Signalphase.
Diese Phase rührt von dem Referenzbündel her und hat folgende
Form
Φ Rp (p) = Φ R - k r R (p, p R ) (13)
wobei:
r(p, p R die radiale Strecke von dem Referenzpunkt zu dem Punkt p in der Empfangsöffnung (wie oben definiert) ist und Φ R die Referenzbündelphase in dem Referenzpunkt (wie oben definiert) ist.
r(p, p R die radiale Strecke von dem Referenzpunkt zu dem Punkt p in der Empfangsöffnung (wie oben definiert) ist und Φ R die Referenzbündelphase in dem Referenzpunkt (wie oben definiert) ist.
Die Lehre aus Gleichung (5) ist, daß die Phase des gewünschten
Signals korrigiert werden muß durch Subtrahieren einer
zusätzlichen Phasenverschiebung von k r R (p, p R ), um ein
Ergebnis zu erzielen, das mit dem identisch ist, das aufgrund
des Objektfeldes allein ohne irgendwelche holographischen
Messungen vorhanden sein würde. Gemäß der unten folgenden Er
läuterung kann die Korrektur dieser Phase durch anschließende
Softwareverarbeitung erzielt werden.
Die Gleichung (1) liefert die optische Leistung pro Flächen
einheit in der Position p in der Ebene der Empfangsöffnung.
Diese Öffnung enthält diskrete Aufnahmebereiche gemäß der Dar
stellung in Fig. 1C, welche die Gesamtleistung über einer
bestimmten Fläche integrieren, um eine einzelne reale Zahl
zu erhalten, welche der gemessene Abtastwert für diese
Position ist.
Die folgenden Parameter, die in Fig. 1C dargestellt sind,
werden zum Definieren der Sensorgeometrie benutzt.
w ist die Breite jeder Sensorfläche in x-Richtung,
h ist die Höhe jeder Sensorfläche in y-Richtung,
d x ist der Abstand in x-Richtung zwischen den Sensor mittelpunkten,
d y ist der Abstand in y-Richtung zwischen den Sensor mittelpunkten,
m, n sind die ganzzahligen Indizes, die dem Sensor m in x-Richtung und dem Sensor n in y-Richtung entsprechen,
(m d x , n d y ) sind die x,y-Koordinaten des Mittelpunkts des Sensorelements m bzw. n.
w ist die Breite jeder Sensorfläche in x-Richtung,
h ist die Höhe jeder Sensorfläche in y-Richtung,
d x ist der Abstand in x-Richtung zwischen den Sensor mittelpunkten,
d y ist der Abstand in y-Richtung zwischen den Sensor mittelpunkten,
m, n sind die ganzzahligen Indizes, die dem Sensor m in x-Richtung und dem Sensor n in y-Richtung entsprechen,
(m d x , n d y ) sind die x,y-Koordinaten des Mittelpunkts des Sensorelements m bzw. n.
Mit diesen Definitionen ist die Gesamtleistung, die durch das
Element m, n der Kamera abgefühlt wird, durch folgende
Gleichung gegeben:
wobei:
P(m,n) die gesamte optische Leistung ist, die durch das Element m, n in der Kameramatrix abgefühlt wird, und
I(x,y) die Intensität I(p) in dem Punkt x, y (d. h. in dem Punkt p) in der Empfangsöffnung ist, welche durch Gleichung (1) gegeben ist.
P(m,n) die gesamte optische Leistung ist, die durch das Element m, n in der Kameramatrix abgefühlt wird, und
I(x,y) die Intensität I(p) in dem Punkt x, y (d. h. in dem Punkt p) in der Empfangsöffnung ist, welche durch Gleichung (1) gegeben ist.
Durch Einsetzen der Gleichung (3) in die Gleichungen (5) und
(6) und durch Verknüpfen mit der Gleichung (1) wird die In
tensität in dem Punkt x, y in der Empfangsöffnung ausgedrückt
durch die Amplitudenverteilung A(p S ) des Objekts. Diese Ver
knüpfung enthält ein Volumenintegral über dem Objekt aus der
Gleichung (3).
Durch das Einsetzen dieses sich ergebenden Intensitätsmusters
in die Gleichung (14) ergibt sich das Gesamtausgangssignal
des Sensors m, n in der Kameramatrix. Dieses enthält ein Flächen
integral in x, y über der Sensorfläche sowie ein Volumen
integral über dem Objekt.
Die Reihenfolge der Integration ist umgekehrt, die Flächen
integration wird zuerst ausgeführt.
Bei der Ausführung dieser Flächenintegration wird die Größe
|S(p)| der Lichtverteilung über der Fläche eines einzelnen
Sensors als konstant und gleich seinem Wert in dem Mittel
punkt des Sensors angenommen. Diese Approximation ist ge
rechtfertigt, da der Mittenabstand x, y der Abfühlbereiche
klein genug sein muß, um die räumliche Abtastung darin zu er
füllen (d. h. wenigstens zwei räumliche Abtastproben pro
Tupfen). Das ist dargestellt durch die relativen Größen des
Rastertupfenmusters, das in Fig. 1B dargestellt ist, und die
Sensorgröße, die in Fig. 1C dargestellt ist.
Innerhalb der Grenzen dieser Approximation wird folgendes
Ergebnis erzielt:
P(m,n) = P₀ + P S (m,n) + P n (m,n) + P p (m,n) (15a)
P₀ = h · w · I R (15b)
P S (m,n) = h · w · [|S[m · d X · n · d Y ]|] ² (15c)
P n (m,n) = {P p (m,n)}* = komplexe Konjugierte von P p (m,n) (15f)
wobei:
A(P S ) = komplexe Amplitude des Punkts P S im Objektfeld,
Φ(m,n,P S ) = Phasenverschiebung des Lichts bei der Ausbreitung von dem Punkt P S im Objektfeld zu dem Detektor m, n,
Φ R (m,n) = Phasenverschiebung des Lichts bei der Ausbreitung von dem virtuellen Referenzpunkt zu dem Detektor m, n,
k x k y = Raumfrequenzkoordinaten bezogen auf den Winkel zwischen dem Objektpunkt und dem Referenz punkt, wie in Gleichung (2) angegeben.
A(P S ) = komplexe Amplitude des Punkts P S im Objektfeld,
Φ(m,n,P S ) = Phasenverschiebung des Lichts bei der Ausbreitung von dem Punkt P S im Objektfeld zu dem Detektor m, n,
Φ R (m,n) = Phasenverschiebung des Lichts bei der Ausbreitung von dem virtuellen Referenzpunkt zu dem Detektor m, n,
k x k y = Raumfrequenzkoordinaten bezogen auf den Winkel zwischen dem Objektpunkt und dem Referenz punkt, wie in Gleichung (2) angegeben.
Die Gleichung (15) faßt die Auswirkung der endlichen Fläche
jedes Detektors zusammen. Die gemessene Leistung wird mit der
Fläche w h jedes Detektors bewertet. Die endlichen Größen w
und h in den beiden Richtungen führen zu Winkelantennen
diagrammen, die durch die beiden Sinc-Funktionen des Winkels ge
geben sind, wie es in Fig. 4 gezeigt ist. Das übrige Phasen
glied ist einfach die Gesamtphase in dem Mittelpunkt des
gegebenen Detektors m, n.
Fig. 4 zeigt die Auswirkung des Winkelbeugungsmusters auf das
Objektfeld. Aus dieser Fig. ist zu erkennen, daß die Winkel
ausdehnung des Objektfeldes und des Referenzpunktes klein
genug sein muß, damit die Sinc-Funktionen die interessierende
Szene innerhalb ihrer Hauptkeulen enthalten, wie dargestellt.
Unter diesen Bedingungen sind die Auswirkungen der Sensoren
endlicher Fläche und ihrer entsprechenden Antennendiagramme
gering und können im allgemeinen vernachlässigt werden.
Diese Abtastproben endlicher Fläche werden als Approximationen
für Abtastproben in Punkten mit der Fläche Null in der
Mitte jeder Sensorzelle genommen. Wenn diese Abtastproben so
interpretiert werden, wiederholen sich die Spektren mit den
Abtastfrequenzen ad infinitum sowohl in der x- als auch in
der y-Richtung. Dieser Effekt ist in Fig. 6 skizziert. Die
Spektren der Punktabtastproben werden durch die Sinc-Funktion-
Beugungsmuster wie oben erläutert modifiziert, um die end
lichen Flächen der Detektoren zu berücksichtigen.
In der Praxis können die Abfühlbereiche im wesentlichen an
einanderstoßend gemacht werden, so daß die Breiten w und h im
wesentlichen gleich den Mittenabständen d X bzw. d Y sind.
d X = w (16a)
d Y = h (16b)
Unter diesen Bedingungen entsprechen die ersten Nullen in den
Sinc-Diagrammen bei k sin R x =2π/w und k sin R y =2π/h
den Abtastfrequenzen, wo sich die Nullordnungen bei 2π/d X
bzw. 2f/d Y wiederholen. Das ist nominell die Situation, die
in den Fig. 4 und 6 gezeigt ist.
Zusammenfassend läßt sich feststellen, daß die Fläche jeder
Abtastzelle im Vergleich zu der Größe eines Tupfens klein
sein muß, d. h. kleiner als ¼. Unter diesen Bedingungen be
steht die Hauptauswirkung der endlichen, von Null verschiedenen
Größe der Abfühlfläche darin, daß dem Objektfeld die ge
ringfügige Amplitudenbewertung gegeben wird. Die resultierende
Messung, die an jeder Abfühlstelle gemacht wird, wird als
eine Approximation einer räumlichen Punktabtastprobe betrachtet,
die zu dem üblichen wiederholten Spektrum aufgrund der
periodischen Abtastung führt, wie es in Fig. 6 gezeigt ist.
Die gesamte optische Leistung, die durch jede Sensorzelle in
der Kamera erfaßt wird, ist durch die Gleichung (15) gegeben.
Gemäß obiger Erläuterung ist P o das dominante Glied in diesem
Ausdruck, wogegen P p das viel kleinere Glied von Interesse
ist.
Um zu verhindern, daß der nutzbare Dynamikbereich des Kamera
ausgangssignals durch das große unerwünschte Vorspannungs
glied verbraucht wird, wird dieses Glied unterdrückt, indem
die Differenzen zwischen benachbarten Zellen in der x-Richtung
gebildet werden und diese Differenz abgegeben wird.
C(m,n) = P(m + 1, n) - P(m,n) (17)
wobei:
C(m,n) = Kameraausgangssignalabtastprobe m in x-Richtung und n in y-Richtung.
C(m,n) = Kameraausgangssignalabtastprobe m in x-Richtung und n in y-Richtung.
Unter Verwend 41029 00070 552 001000280000000200012000285914091800040 0002004011465 00004 40910ung der Nomenklatur Gleichung (15) werden
die folgenden Definitionen gemacht und mit den Gleichungen
(15) und (17) verknüpft.
C S (m,n) = P S (m + 1, n) - P S (m,n) (18a)
C n (m,n) = P n (m + 1, n) - P n (m,n) (18b)
C p (m,n) = P p (m + 1, n) - P p (m,n) (18c)
C(m,n) = C S (m,n) + C n (m,n) + C p (m,n) (18d)
Das große Gleichstromvorspannungsglied P o erscheint in den
obigen Gleichungen nicht, die das Kameraausgangssignal angeben.
Somit wird der Dynamikbereich durch aussagekräftige Daten
ausgenutzt.
In dem Bereich der räumlichen Frequenz, der durch die Fig. 3,
4 und 6 dargestellt ist, wird durch diesen Differenzbildungs
prozeß der Gleichstromimpuls der Ordnung Null im Ursprung
effektiv beseitigt. Die interessierende Information wird auf
die schraffierten Bereiche in den Fig. beschränkt. Das
entspricht P p in Gleichung (15).
Es ist zu erkennen, daß jeder gewünschte Ausdruck P p (m,n)
innerhalb eines Glieds, das in m (d. h. in der x-Richtung)
konstant ist, aus einer geeigneten Linearkombination der ver
schiedenen Ausgangssignale C (m,n) erzielt werden kann. Somit
ist keine bedeutsame Information von Interesse bei dieser
Differenzbildungsoperation verlorengegangen.
Die Fig. 8A, 8B und 8C zeigen eine Anordnung zur "Differenz
bildung" in der Kamera. Das kann als die erste Stufe eines
FIR-Filters aufgefaßt werden, das mit den abgetasteten Daten
arbeitet.
Die CTD-Kamera kann mehrere Formen annehmen, wesentlich ist
sowohl für eine effiziente Signalvorverstärkung als auch für
die FIR-Filterung, daß die Kamera Einrichtungen aufweist zum
Erzielen von N Signaldifferenzen zwischen aufeinanderfolgenden
Fotodetektoren in einer Zelle von (N+1) Fotodetektoren
(d. h. P₁-P₀, P₂-P₁, P₃-P₂, . . ., P N -P N-1) wobei P i das
Ausgangssignal eines Fotodetektors ist und wobei der Index
"i" seine Position in der Zeile bezeichnet.
Eine geeignete Kamera für diesen Zweck ist eine Ladungs
injektionsvorrichtung (Charge Injection Device oder CID), die
eine Matrix von üblicherweise 256 × 256 Fotodetektorstellen
hat, die ausgelesen werden können, wie es in den Fig. 8A, 8B
und 8C dargestellt ist.
Fig. 8A zeigt die Matrix in ihrer Gesamtheit, wobei Fig. 8B
die Einzelheit der internen Torsteuerung an den unteren beiden
Ausgangsanschlüssen R 2, R 4 des Vertikalwahlabtasters
zeigt, und, wenn Fig. 8B transponiert wird (von rechts nach
links), liefert sie die Einzelheit für die interne Torsteuerung
an den unteren beiden Ausgangsanschlüssen R 2, R 4 des
Vertikalwahlabtasters. Fig. 8C zeigt die Einzelheit, die für
die ersten drei Anschlüsse am linken Ende des Horizontalab
tasters gilt. Diese Anordnung zeigt eine herkömmliche CID mit
Zeilenauslesung, wie sie ausführlicher in den US-Patentschriften
40 11 441, 40 84 257 und 42 41 421 beschrieben ist. Diese
Patentschriften, auf die bezüglich weiterer Einzelheiten ver
wiesen wird, veranschaulichen die Zeilenausleseoperation und
das Bilden von Differenzen auf eine für die vorliegende Aus
führungsform geeignete Weise. Die Fig. 9A und 9B zeigen drei
Pixel oder Bildelemente der Matrix während des Auslesens, wo
bei Fig. 9B das Auslesen zu einer späteren Zeit zeigt. Jedes
Pixel der CID enthält zwei Speicherwannen, von denen die eine
einer Zeilenleitung und die andere einer Spaltenleitung zuge
ordnet ist. Das Auslesen erfolgt längs Zeilenleitungen, welche
mit Anschlüssen VEE und VEO verbunden sind, die zu gerad
zahligen und ungeradzahligen Zeilenverstärkern (nicht darge
stellt) führen. Die Ladungsverschiebung zwischen Zeilen- und
Spaltenspeicherwannen erfolgt, wenn Potentiale zum Zusammen
brechenlassen der Wannen an die Spalten angelegt werden, welche
durch den Horizontalabtaster, der in Fig. 8A gezeigt ist,
abgetastet werden. Während des Abtastens der Matrix sammelt sich
im Anschluß an die Injektion der zuvor ausgelesenen Ladung in
das Substrat neue Ladung an und wird in den Spaltenwannen
gespeichert.
Das Auslesen, welches Differenzen erzeugt, erfolgt in einem
im wesentlichen aus drei Schritten bestehenden Verfahren, das
am besten unter Bezugnahme auf die Fig. 9A und 9B verständlich
wird. Die Spaltenwanne ist so ausgelegt, daß sie das doppelte
Speichervermögen der Zeilenwanne hat, um sicherzustellen, daß
sich die Spaltenwanne zuerst füllt und daß die Zeilenwanne
leer bleibt. Diese ist in dem Zustand "0" vor dem Auslesen.
In Fig. 9A sind das (i+1)te und das (i+2)te Pixel in dem
Zustand "0", wogegen in Fig. 9B nur das i+2te Pixel (allein) in
dem Zustand "0" ist. Das Zeilenauslesen erfolgt in einem sich
wiederholenden, aus zwei Schritten bestehenden Verfahren. In
dem Zustand eins wird ein Potential an den i ten Spaltenbus
angelegt, welches die i ten Spaltenwannen zusammenbrechen läßt,
was bewirkt, daß die fotoinduzierte Ladung in die
Zeilenwanne des i ten Pixel verschoben wird, wie es in Fig.
9A gezeigt ist. In diesem Zeitpunkt kann, wenn das i te Pixel
das erste Element in der Zeile ist, ein Verschiebungsstrom in
dem Zeilenverstärker allein aufgrund der fotoinduzierten Ladung
in dieser Spalte abgefühlt werden. Dieses Ausgangssignal,
von dem keine Differenz gebildet wird, kann in dem Kamera
ausgangssignal außer Betracht gelassen werden.
Fig. 9B zeigt den nächsten Zeitpunkt, in welchem das i te Pixel
nun in den zweiten Zustand eintritt. In dem zweiten Zustand
werden die (i+1)ten Spaltenwannen zum Zusammenbrechen ge
bracht, während die i ten Spaltenwannen wiederhergestellt wer
den. Das hat zur Folge, daß die fotoinduzierte Ladung des
i ten Pixel aus der Zeilenwanne zurück in die Spaltenwanne be
wegt wird, während sich die fotoinduzierte Ladung des (i+1)ten
Pixel aus der Spaltenwanne in die Zeilenwanne bewegt. Die Ge
samtverschiebungsladung an dem Eingang des Zeilenverstärkers
ist die fotoinduzierte Ladung des zweiten Pixel minus derje
nigen des ersten Pixel, d. h. (P i - P i-1). In einem Zeitpunkt
später als dem in Fig. 9B dargestellten werden die (i+2)ten
Spaltenwannen zum Zusammenbrechen gebracht, während die
(i+1)ten Spaltenwannen wiederhergestellt werden, und der Ge
samtverschiebungsstrom an dem Zeilenvorverstärker ist die
fotoinduzierte Ladung des (i+2)ten Pixel minus der des
(i+1)ten Pixel usw., da sich der Prozeß längs der Zeilen
leitung wiederholt.
Das Kameraausgangssignal kann verarbeitet werden, um ein
Spektrum zu erhalten, das dem in Fig. 6 dargestellten gleicht,
mit der Ausnahme, daß die Gleichstromimpulse im Ursprung be
seitigt worden sind. Das interessierende Signalspektrum kann
durch seine räumliche Mittenfrequenz und seine Bandbreite
folgendermaßen beschrieben werden:
k 0x = k · sin {α x } (19a)
wobei:
k 0x die räumliche Trägerfrequenz in x-Richtung in der Mitte des Signalbandes ist,
a x der Winkel in x-Richtung von dem Referenzpunkt zu der Mitte der Zielszene ist,
B x die Bandbreite der räumlichen Frequenz in der x-Richtung der Szene ist,
β x der Winkel in x-Richtung ist, der durch die interessierende Zielszene begrenzt wird.
k 0x die räumliche Trägerfrequenz in x-Richtung in der Mitte des Signalbandes ist,
a x der Winkel in x-Richtung von dem Referenzpunkt zu der Mitte der Zielszene ist,
B x die Bandbreite der räumlichen Frequenz in der x-Richtung der Szene ist,
β x der Winkel in x-Richtung ist, der durch die interessierende Zielszene begrenzt wird.
Eine ähnliche Bedingung existiert in der y-Richtung, mit
der Ausnahme, daß es in diesem Fall keinen verschobenen Träger
gibt:
wobei:
B y die Bandbreite der Raumfrequenz in y-Richtung der Szene ist, und
β y der Winkel in y-Richtung ist, der durch die interessierende Zielszene begrenzt wird.
B y die Bandbreite der Raumfrequenz in y-Richtung der Szene ist, und
β y der Winkel in y-Richtung ist, der durch die interessierende Zielszene begrenzt wird.
Gemäß der Darstellung in den Fig. 4 und 6 umfaßt das grundlegende
Spektrum, das von Interesse ist, die gewünschte Komponente
in dem oberen Band, ein unerwünschtes Basisbandspektrum
und ein unerwünschtes konjugiertes Spektrum in dem unteren
Band. Dieses grundlegende Spektrum wiederholt sich ad infinitum
mit der räumlichen Abtastfrequenz, wie dargestellt. Die
Beziehungen zwischen der Mittenfrequenz, der Bandbreite und
der Abtastfrequenz diktieren die Abstände zwischen den
gewünschten und unerwünschten Teilen dieses Spektrums.
In Abhängigkeit von der relativen Größe des Referenzbündel-
und des Signalobjektlichts in der Kameraempfangsöffnung gibt
es zwei gesonderte Kriterien für das Wählen dieser Beziehungen.
In dem typischen Fall kann das Referenzbündellicht in bezug
auf das Licht, das von dem Objekt kommt, beliebig groß ge
macht werden. Unter diesen Bedingungen kann das Glied P s (m,n)
in der Gleichung (15) im Vergleich zu den anderen beiden
Gliedern vernachlässigbar gemacht werden. Das entspricht einem
vernachlässigbaren Glied der Ordnung Null in dem Basisbandteil
des Spektrums.
In diesem Fall können das gewünschte Spektrum und seine uner
wünschte Konjugierte maximal getrennt werden, indem die Mitten
frequenz auf ein Viertel der Abtastfrequenz gelegt wird.
k 0x = π/2d x (21)
Diese Beschränkung, die durch die Gleichung (21) gegeben ist,
führt dazu, daß die Mitten des gewünschten Spektrums und
seiner unerwünschten Konjugierten in dem gesamten abgetasteten
Spektrum um π/d x gleichmäßig getrennt sind. Das minimiert
die Anforderungen an das anschließende Filter, welches das
erwünschte Spektrum isolieren muß.
Das Glied nullter Ordnung resultiert aus der Faltung des ge
wünschten Spektrums mit sich selbst. Es hat somit eine gesamte
zweiseitige Breite, die gleich dem Doppelten der Signal
bandbreite ist. Die tatsächliche Überlappung des gewünschten
Spektrums mit diesem unerwünschten Glied nullter Ordnung kann
somit vermieden werden, indem das Band des gewünschten Signals
so begrenzt wird, daß es ein Viertel der Abtastfrequenz
nicht übersteigt.
B x < π/2d x (22)
Unter diesen Bedingungen ist ein Schutzband, das wenigstens
gleich dem Signalband ist, zwischen dem Signalspektrum und
seiner unerwünschten Konjugierten vorhanden. Es besteht zwar
keine Überlappung mit dem unerwünschten Basisbandspektrum, es
besteht jedoch keine Erlaubnis für ein Schutzband zwischen
ihm und dem Signal.
Ein alternativer und beträchtlich weniger wahrscheinlicher
Betriebszustand beinhaltet einen sehr starken Lichtpegel von
dem Objekt her, so daß das Referenzbündel nicht dominant ge
macht werden kann, ohne die Kameradetektoren zu sättigen.
Unter diesen Bedingungen wäre das Basisbandglied nicht ver
nachlässigbar, und die Mittenfrequenz sollte dann so gewählt
werden, daß das gewünschte Spektrum in der Mitte zwischen den
Rändern der beiden unerwünschten Spektren liegt, um das Filtern
zu erleichtern. Diese Lösung wird nicht vollständig erläutert
werden.
Da keine Filterung in der y-Richtung erforderlich ist, ist kein
nennenswertes Schutzband zwischen den sich in dieser Richtung
wiederholenden Spektren erforderlich. Die einzige nennenswerte
Beschränkung ist, daß keine Überlappung vorkommt. Das führt zu
der folgenden Limitierung.
B y < 2π/d y (23)
Somit diktiert die räumliche Abtastfrequenz die maximale Winkel
ausdehnung der Szene, die ohne Überlappung von unerwünschten
Störgliedern, die in dem Kameraausgangssignal vorhanden
sind, zugelassen werden kann.
Es kann jedoch eine geeignete Vergrößerungsoptik benutzt wer
den, um die räumliche Abtastfrequenz, die an der Kamerastirn
seite vorhanden ist, auf jede erforderliche Abtastfrequenz
zu skalieren, die notwendig ist, um den tatsächlichen Winkel
zuzulassen, der durch die räumliche Szene begrenzt wird.
Wenn die Winkelausdehnung der Szene in der vertikalen (y) und
in der horizontalen (x) Richtung dieselbe ist und ihren maximal
zulässigen Wert hat, ist die Abtastfrequenz, die in der
horizontalen Richtung erforderlich ist, viermal so hoch wie
die der vertikalen Richtung.
B x = B y (24a)
d y = 4 d x (24b)
Die anschließende Verarbeitung des Kameraausgangssignals kann
direkt realisiert werden, entweder ohne es erst durch das
FIR-Filter hindurchzuleiten oder mit angepaßter Filterung
der Szene. Bei diesen Realisierungen müssen jedoch sämtliche
räumlichen Abtastproben aus der Kamera verarbeitet werden. Da
die Szene nur eine räumliche Bandbreite in der x-Richtung hat,
die ein Viertel der verfügbaren Bandbreite einnimmt, beträgt
die Abtastfrequenz, die notwendig ist, um die Szene zu be
schreiben, nur ein Viertel der in dem Kameraausgangssignal
verfügbaren.
Da die gewünschte Szene komplex ist, sind die erforderlichen
Abtastproben ebenfalls komplex. Das Kameraausgangssignal be
steht jedoch aus reellen Abtastproben, für die die Abtast
frequenz auf ein Viertel der ursprünglichen Frequenz redu
ziert werden könnte, wenn keine komplexen Werte vorhanden
wären. Bei komplexen Werten kann die tatsächliche Gesamtdaten
rate aus der Kamera reduziert werden, aber nur um den Faktor
zwei. Diese Reduktion der Datenrate ist der Hauptgrund für
die Realisierung des FIR-Filters und gestattet der anschließenden
Datenverarbeitungssoftware, z. B. für Abbildung, Korrelation,
usw., mit der reduzierten Datenrate zu arbeiten.
Der erste Schritt beim Reduzieren der Datenrate aus der Kamera
besteht darin, deren Ausgangssignal zu filtern, so daß
gerade das gewünschte Spektrum in dem oberen Band durchge
lassen wird, während die unteren und mittleren Bänder unter
drückt werden. Daher sollte das ideale Filter eine Übertra
gungsfunktion haben, die über diesem oberen Band eins und an
sonsten Null ist. (Keine Filterung ist in der y-Richtung
erforderlich.)
Nach der Filterung ist der letzte Schritt beim Reduzieren der
Datenrate aus der Kamera die Dezimierung um vier. Prinzipiell
besteht das aus dem Wiederabtasten des Filterausgangssignals
mit einer Frequenz, die ein Viertel der ursprünglichen Frequenz
ist. Praktisch bedeutet es, daß nur jedes vierte Aus
gangssignal des FIR-Filters ausgewertet wird. Der Effekt
dieser Dezimierung besteht darin, daß das Spektrum mit der
reduzierten Abtastfrequenz wiederholt wird, wobei das sich
ergebende Hereinfalten ein Duplikat des gewünschten
Signalspektrums in der Mitte des Basisbandes plaziert (das
von -π/4d x bis +π/4d y reicht). Realistische FIR-Filter zum
Approximieren des idealen Filters werden nun erläutert.
Der ideale Filterfrequenzgang, der so nahe wie praktisch möglich
zu synthetisieren ist, sollte einen skalierten Bereich
des grundlegenden Spektrums von Interesse wählen, wie es in
Fig. 6 gezeigt ist. Obgleich die Eingangsdaten zweidimensional
sind, ist das gewünschte Filter eindimensional. Es arbeitet
für alle aufeinanderfolgenden Kameraabtastzeilen in der
x-Richtung unabhängig.
Auf der in der Fig. gezeigten horizontalen Achse ist die
räumliche Winkelgeschwindigkeit aufgetragen, wobei die Einheit
Radian pro Längeneinheit ist.
Für kontinuierliche Eingangsfunktionen werden lineare Filter
traditionell mit Hilfe der komplexen Variablen s synthetisiert.
Die Orte der Pole und Nullstellen der Filterübertragungs
funktion in dieser komplexen s-Ebene diktieren eindeutig
den Filterfrequenzgang, unabhängig von den Realisierungseinzel
heiten des Filters. Die reale und die imaginäre Achse
dieser s-Ebene sind für die räumliche Winkelfrequenz, die
oben erläutert worden ist, folgendermaßen gegeben.
s = σ + j · k · sin {R x } (25)
Durch das Befassen mit diskreten abgetasteten Daten statt mit
kontinuierlichen Eingangssignalen wird der verlangte Frequenz
gang längs der imaginären Frequenzachse der s-Ebene periodisch
und erstreckt sich ins Unendliche. Zur Berücksichtigung
dieser Situation wird üblicherweise die folgende Transformation
aus der s-Ebene in eine komplexe z-Ebene benutzt.
z = e sx (26a)
z = e s ·X · e j·X·k·sin { R } (26b)
Somit wird die imaginäre Achse der s-Ebene (entsprechend
σ=0) auf einen Einheitskreis in der z-Ebene (nicht zu ver
wechseln mit der räumlichen Koordinate z, dem Abstand von der
Sensorebene) abgebildet. Der Ursprung in der s-Ebene wird zu
sammen mit sämtlichen Wiederholungen bei Vielfachen der Abtast
frequenz auf den Punkt z gleich eins in der z-Ebene ab
gebildet. Der gesamte linke Teil der s-Ebene (σ<0) wird in
den Bereich innerhalb des Einheitskreises in der z-Ebene ab
gebildet, wogegen der gesamte rechte Teil der s-Ebene (σ<0)
in den Bereich außerhalb des Einheitskreises in der z-Ebene
abgebildet wird.
Daher sind die verschiedenen Zonen der räumlichen Frequenz,
die auf den horizontalen Achsen in Fig. 6 gezeigt sind, auf
Bogensegmenten des Einheitskreises in der z-Ebene in Fig. 5
gezeigt. Die Filtersynthese besteht unter Verwendung dieser
Lösung aus dem Anordnen von Polen und Nullstellen in dieser
z-Ebene derart, daß der Frequenzgang so nahe wie möglich bei
eins über möglichst viel von dem gewünschten Signalbogen und
so nahe wie möglich bei Null über dem übrigen Bogen ist.
Lineare Abtastdatenfilter bestehen hauptsächlich aus dem
Addieren einer Anzahl von bewerteten Abtastproben, um ein
einzelnes Ausgangssignal zu bilden. Die Bewertungen allgemein
sind komplex, wobei komplexe Eingangs- und Ausgangssignale
möglich sind. Eine Vielfalt von Konfigurationen kann realisiert
werden, und zwar bei Bedarf unter Verwendung von Rück
kopplung.
Die Anzahl von Abfühl- oder Aufnahmestellen auf einer einzelnen
horizontalen Abtastzeile der Kamera kann relativ klein
sein. Das kann dazu führen, daß Randeffekte am Beginn und am
Ende einer Abtastzeile bedeutsam werden, wenn zu viele Ab
tastproben benutzt werden, um ein einzelnes Ausgangssignal zu
erzielen. Es ist daher erwünscht, die Anzahl der Abtastproben,
die für jedes Ausgangssignal verarbeitet werden, zu minimieren.
Das FIR-Filter ist für diesen Zweck ideal. Es besteht einfach
aus einer bewerteten Summe einer endlichen Anzahl von be
nachbarten Abtastproben, wie es in Fig. 7B gezeigt ist. Es
gibt insgesamt M+1 Filtereingangsabtastproben, die von P(m)
bis P(m-M) reichen, wie es in der Fig. gezeigt ist. Die Ab
tastproben sind durch das Abtastintervall d X wie angegeben
räumlich getrennt.
Dieses Filter hat das folgende Ausgangssignal, das sich aus
seiner Definition in der Fig. ergibt.
wobei:
F(m) das Filterausgangssignal für den Positionsindex m ist.
F(m) das Filterausgangssignal für den Positionsindex m ist.
Es kann gezeigt werden, daß die z-Transformierte eines ver
schobenen Parameters auf folgende Weise in Beziehung zu der
des unverschobenen Parameters steht.
P Z (z) bezeichnet die z-Transformierte der Sequenz p(m). Dann
wird z -u P Z (z) die z-Transformierte der verschobenen Sequenz
P(m-u).
Wenn das benutzt wird, um die z-Transformierte von Gleichung (27)
zu bilden, so führt das zu folgendem.
Die Filterübertragungsfunktion ist folgendermaßen als das
Verhältnis des Ausgangssignals zum Eingangssignal definiert.
Das Kombinieren der Gleichungen (28) und (29) und Faktorzerlegung
führen zu folgendem.
Die Summation besteht aus einem Polynom M ter Ordnung, dessen
Koeffizienten die komplexen Bewertungsfaktoren w u sind. Im
allgemeinen hat dieses Polynom M Wurzeln und kann durch Faktor
zerlegung in eine Form gebracht werden, die diese Wurzeln
enthält, was zu folgendem führt.
wobei:
Z u die Wurzel des Filterpolynoms ist.
Z u die Wurzel des Filterpolynoms ist.
Der gewünschte Frequenzgang, der in der H-Parameter-Übertragungs
funktion angegeben ist, lautet folgendermaßen:
Die Gleichung (30) ist der Frequenzgang des in Fig. 7B ge
zeigten und durch Gleichung (27) definierten Filters. Er ist
gegeben durch die Nullstellen des Filterpolynoms.
Der Effekt der mehreren Pole im Ursprung ist einfach eine
lineare Phasenverschiebung entsprechend der festen Pipeline
verzögerung, die zum Füllen des Filters notwendig ist. Die
Verzögerung verändert nicht die Form der Größeneigenschaften
oder die Frequenzdispersion des Filters.
Die ursprüngliche Sensorkonfiguration hat, wie weiter oben
erläutert, einen großen Gleichstromimpuls im Ursprung. Hin
sichtlich des mit abgetasteten Daten arbeitenden FIR-Filters,
das im vorhergehenden Abschnitt erläutert worden ist, kann
das beseitigt werden durch eine Nullstelle bei z=1.
Dieses Filter und sein Frequenzgang werden aus den Gleichungen
(30) und (32) folgendermaßen direkt erhalten.
H₀(z) = 1 - z -1 (33a)
H₀ (Ω) = e-j· Ω · [ej· Ω -1] (33b)
wobei:
H₀ der Frequenzgang des Filters mit einer einzelnen Null stelle bei Z gleich eins ist.
H₀ der Frequenzgang des Filters mit einer einzelnen Null stelle bei Z gleich eins ist.
Die Gleichung (33a) gibt an, daß die Realisierung dieses
Filters einfach die Differenz von benachbarten Abtastproben
ist, was exakt das System ist, das in der Kamera realisiert
worden ist, wie es oben erläutert worden ist. Die Gleichung
(33c) zeigt, daß der Frequenzgang dazu neigt, das unerwünschte
Basisbandgebiet des Spektrums stark zu dämpfen, ohne eine
starke Dämpfung in dem gewünschten Gebiet des interessierenden
Signalspektrums hervorzurufen.
Daher ist der erste Schritt beim Filtern des Sensorausgangs
signals eine einzelne Nullstelle bei z gleich eins, wie es in
Fig. 10A gezeigt ist. Dieses Filter ist in der Kamera reali
siert.
Ein zusätzlicher Filtereffekt, der an der Kamera auftritt, ist
der, der auf die endliche Fläche der Aufnahmestellen zurück
zuführen ist. Aus den Gleichungen (15d) und (15e) ist zu er
kennen, daß dieses Filter in der x-Richtung eine Sinc-Funktion
mit dem Argument (w k sin R x )/(2π). Dieses Argument
wird unter Verwendung der Gleichung (32b) ausgedrückt als
(Ω w)/(d X 2π). Diese Sinc-Funktion hat ihre größte Auswirkung,
wenn w so groß wie möglich wird. (Das heißt, bei w gleich
Null ist die Sinc-Funktion für alle Ω gleich Eins und hat
keine Auswirkung.) In dem Grenzfall ist die maximale Sensor
breite, die w realisieren kann, d X der Mittenabstand (vgl.
Fig. 1C). Daher hat in diesem Grenzfall das Sinc-Funktion-
Filter aufgrund der endlichen Sensorfläche ein Argument
Ω/(2π).
Das Verknüpfen dieses Sinc-Funktion-Frequenzganges aufgrund
der endlichen Fläche mit dem durch die Gleichung (33c) ge
gebenen Frequenzgang aufgrund der Differenzbildung in der
Kamera ergibt den folgenden Gesamtfrequenzgang für die gesamte
Kamerafilterung.
wobei:
H c (Ω) der Gesamtfrequenzgang der Filterung in der Kamera ist, der den Effekt der Sensoren endlicher Fläche und die Unterdrückung der Gleichstromvorspannung auf grund der Differenzbildung unter benachbarten Sensor ausgangssignalen beinhaltet.
H c (Ω) der Gesamtfrequenzgang der Filterung in der Kamera ist, der den Effekt der Sensoren endlicher Fläche und die Unterdrückung der Gleichstromvorspannung auf grund der Differenzbildung unter benachbarten Sensor ausgangssignalen beinhaltet.
Die Größe dieses Frequenzganges ist in Fig. 10B aufgetragen.
Die allgemeine Filterübertragungsfunktion ist durch die Gleichung
(31) und (32) gegeben.
Die Größe des Frequenzganges in dB wird daraus folgendermaßen
gewonnen:
Die Hauptaufgabe des externen Filters besteht darin, das uner
wünschte konjugierte Spektrum zu dämpfen, wie es in der Dar
stellung der komplexen z-Ebene in Fig. 5 vorgeschlagen ist.
Das einfachste derartige Filter hat eine einzelne Nullstelle,
die in der Mitte des Spektrums bei z gleich -j liegt. Ein
solches Filter würde einen nichtsymmetrischen Frequenzgang
über dem interessierenden Objekt haben und den Rand des Objekts,
der näher bei dem Referenzpunkt ist, mehr dämpfen als
den entgegengesetzten Rand der Szene.
Dieser Effekt kann gemildert werden, indem eine zusätzliche
Nullstelle bei z=-1 plaziert wird, um die Nullstelle bei
z=+1 auszugleichen. Das ergibt ein symmetrisches Durch
laßband, welches das interessierende Objekt enthält.
Bei der Filterauslegung, die nun weiter erläutert wird, wird
angenommen, daß das interessierende Objekt auf ein Viertel
des verfügbaren Winkelabstands beschränkt ist, der eindeutig
abgetastet werden kann, wie es in den Fig. 5 und 6 gezeigt
ist, und daß das Referenzbündellicht das Licht von dem Ge
samtobjekt her um ein ausreichendes Ausmaß dominiert, so daß
die Effekte des Basisbandlichtes für jeden vorgesehenen Ver
wendungszweck dieses Systems vernachlässigbar sind.
Unter diesen Bedingungen enthalten die Raumfrequenzbänder
von Ω, die von -π bis -3π/4, von -π/4 bis +π/4 und von
3π/4 bis π reichen, keine Energie. Daher ist der Filterfre
quenzgang in diesen Bändern ohne Bedeutung. Daher sind Null
stellen nützlicher, wenn sie in dem interessierenden Sperrband
plaziert werden, das von Ω gleich -π/4 bis -3π/4 reicht.
Unter Verwendung dieser Richtlinien ist die einfache Reali
sierung von mehreren Nullstellen bei z gleich -j ein sehr
effektiver Entwurf. Die Fig. 11 und 12 zeigen einen solchen
Entwurf, bei dem die spektrale Faltungsfrequenz aus der Dezi
mierung um zwei resultiert.
Wenn mit den Hypothesen gearbeitet wird, daß es keine nennens
werte Energie in dem zentralen Band oder in dem Randband
gibt, ist der Frequenzgang, der in Fig. 13 gezeigt ist, dem
von Fig. 12 über den interessierenden Gebieten äquivalent.
Durch das Dezimieren dieses Filters um zwei (Gesamtdezimierung
um vier gegenüber der ursprünglichen Abtastfrequenz)
faltet der Frequenzgang von Fig. 13 das gewünschte Band in
das zentrale Basisbandgebiet hinein, was das gewünschte End
ergebnis erbringt. Das ist in Fig. 14 gezeigt.
Der horizontale Maßstab von Fig. 14 ist gegenüber dem von Fig.
13 erweitert, und die Winkelordinate ist wie angegeben umbe
nannt worden. Die neue Ordinate ist in der Mitte der Szene
Null.
Die ursprüngliche Abtastfrequenz wird gleich dem Vierfachen
der Frequenz gewählt, die die Winkelausdehnung der inte
ressierenden Szene erfordert. Der Referenzpunkt wird in nominell
demselben Bereich wie der der interessierenden Zielszene und
unter einem Winkel gegen den Mittelpunkt der Szene plaziert,
der gleich der Winkelausdehnung der Szene ist. Die Referenz
bündelintensität wird so gewählt, daß sie die Gesamtintensität
von der Gesamtszene her in jedem Punkt in der Empfangsöffnung
um mehrere Größenordnungen dominiert. Unter diesen Bedingungen
wird das externe FIR-Filter so ausgelegt, daß es eine einzelne
Nullstelle bei z gleich -1 und mehrere Nullstellen bei z
gleich -j hat.
Der Gesamtfrequenzgang dieses Systems einschließlich des
Effekts der Differenzbildung in der Kamera und der endlichen
Fläche der Sensoren ist daher in Fig. 14 gezeigt. Er besteht
aus zwei Komponenten. Die gewünschte Komponente ist über dem
interessierenden Band relativ flach und hat eine monotone
Schattierung mit weniger als zehn dB Dämpfung an den äußeren
Bandrändern. Die unerwünschte Komponente aufgrund des Umfaltens
des unterdrückten konjugierten Spektrums hat den Frequenz
gang Null in der Bandmitte und nimmt zu den Bandrändern
hin monoton zu.
Fig. 14 enthält ein Diagramm der Größe des Frequenzganges
des Systems zusammen mit einem Diagramm des maximalen Größen
fehlers in dem Systemausgangssignal. Fig. 15 enthält ein
Diagramm der Größe des maximalen Phasenfehlers in dem System
ausgangssignal. Diese Diagramme fassen die Systemleistung
unter den oben erläuterten Betriebsbedingungen zusammen.
Das FIR-Filter, das die bevorzugte Leistung für die Objekte
nach der Erfindung hat, hat das in Fig. 11 gezeigte Null
stellenmuster. Wie oben erläutert, ist die Nullstelle bei z
gleich Eins auf die Verarbeitung innerhalb der Kamera zurück
zuführen, und das externe Filter liefert die Nullstellen bei
Z=-1 und mehrere Nullstellen Z=-j.
Die folgenden Bewertungs- oder Gewichtungsfaktoren führen zu
den Gesamtsystemfrequenzgängen, die in Fig. 14 gezeigt sind.
Sie entsprechen dem externen Teil des FIR-Filters, der in
Fig. 7B gezeigt ist. Diese Bewertungsfaktoren sind nicht die
einzigen, da viele andere Bewertungsfaktorensätze dasselbe
Pol-Nullstellen-Muster in der Z-Ebene ergeben können. Das
Multiplizieren dieser Bewertungsfaktoren mit einer willkür
lichen komplexen Konstante (A+jB) ergibt dieselbe Filter
funktion, mit Ausnahme einer inkonsequentiellen Amplitudenänderung
und Phasenverschiebung.
N = 1
W(N,n)
W(1,0) = 0,177-0,177j
W(1,1) = 0,354
W(1,2) = 0,177+0,177j
W(N,n)
W(1,0) = 0,177-0,177j
W(1,1) = 0,354
W(1,2) = 0,177+0,177j
N = 2
W(N,n)
W(2,0) = -0,125j
W(2,1) = 0,25-0,125j
W(2,2) = 0,25+125j
W(2,3) = 0,125j
W(N,n)
W(2,0) = -0,125j
W(2,1) = 0,25-0,125j
W(2,2) = 0,25+125j
W(2,3) = 0,125j
N = 3
W(N,n)
W(3,0) = -0,044-0,044j
W(3,1) = 0,088-0,177j
W(3,2) = 0,265
W(3,3) = 0,088+0,177j
W(3,4) = -0,044+0,044j
W(N,n)
W(3,0) = -0,044-0,044j
W(3,1) = 0,088-0,177j
W(3,2) = 0,265
W(3,3) = 0,088+0,177j
W(3,4) = -0,044+0,044j
N = 4
W(N,n)
W(4,0) = -0,031
W(4,1) = -0,031-0,125j
W(4,2) = 0,188-0,125j
W(4,3) = 0,188+0,125j
W(4,4) = -0,031+0,125j
W(4,5) = -0,031
W(N,n)
W(4,0) = -0,031
W(4,1) = -0,031-0,125j
W(4,2) = 0,188-0,125j
W(4,3) = 0,188+0,125j
W(4,4) = -0,031+0,125j
W(4,5) = -0,031
In Verbindung mit Gleichung (13) ist erläutert worden, daß
das FIR-Filter eine unperfekte Rekonstruktion des Objektfeldes
erzeugen kann, bis seine Phase korrigiert wird, indem
eine zusätzliche Phasenverschiebung subtrahiert wird, welche
den Wert k r R (p, p R ) hat.
Eine solche Phasenkorrektur ist jedoch genau das, was sich
ergibt, wenn eine Negativlinse an der Empfangsöffnung
plaziert wird, die eine Brennweite hat, welche gleich dem
Bereich von dem Referenzpunkt bis zu der Öffnung ist. Wenn
die Abbildung mit Computersoftware realisiert wird, ist das
Äquivalent einer zusätzlichen Linse erforderlich, um die Ab
bildung auszuführen. Das Einzellinsenäquivalent der Abbildungs
linse und der Phasenkorrekturlinse kann benutzt werden,
um beide Funktionen in einer Einzelimplementierung zu erfüllen.
Ein alternativer Weg der Betrachtung der Sache besteht darin,
die unerwünschte Phasenkomponente, die durch die Gleichung
(13) gegeben ist, als äquivalent zu dem zu betrachten, was
durch eine Positivlinse an der Empfangsöffnung verursacht
wird. Diese hypothetische Positivlinse hat eine Brennweite,
die gleich dem Bereich von dem Referenzpunkt bis zu der
Empfangsöffnung ist. Daher befindet sich die Szene in der
Brennpunktebene der Linse, so daß ein virtuelles Bild der
Szene im Unendlichen gebildet wird. Der Referenzpunkt er
scheint ebenfalls im Unendlichen zu liegen, so daß alle Wellen
felder nominell kollimiert sind, was zu den gleichmäßigen
geraden Linienstreifen führt, die erzeugt werden.
Unter diesem Gesichtspunkt ist klar, daß das unkorrigierte
Hologramm dem Betrachten der äquivalenten Szene durch eine
geeignete Positivlinse entspricht. Die Auswirkung dieser
hypothetischen Positivlinse kann durch das Software-Äquivalent
der geeigneten Negativlinse an der Empfangsöffnung be
seitigt werden. Alternativ kann die Negativlinse weggelassen
werden, und irgendein anschließendes Softwareabbildungslinsen
äquivalent kann entworfen werden, indem angenommen wird,
daß die ursprüngliche Szene durch eine Positivlinse betrachtet
wurde.
Zusammenfassend sei festgehalten, daß anschließendes Filtern
durch ein FIR-Filter, welches sich an die Kamera anschließt,
benötigt wird, um die unerwünschten Komponenten zu unterdrücken
und das gewünschte Glied zu ergeben. Das gewünschte
Glied ist die komplexe Amplitudenverteilung, die sich aus dem
Betrachten der Szene durch eine hypothetische Positivlinse an
der Empfangsöffnung ergeben würde. Die Brennweite dieser
hypothetischen Linse ist so, daß ein virtuelles Bild des
Referenzpunktes im Unendlichen erscheint. Keine derartige Linse
ist wirklich vorhanden. Ihr scheinbarer Effekt ist das Ergebnis
des Plazierens des Referenzpunktes in nominell derselben
Entfernung von der Empfangsöffnung wie der Entfernung zu dem
Objekt. Diese Wahl der Referenzpunktposition hat den weiter
oben angegebenen bedeutsamen Vorteil der Verbesserung der
Effizienz der Abtastung, die durch die Fotosensoren ausge
führt wird. Dieser Vorteil wiegt gewöhnlich eine andere Wahl
auf, wie beispielsweise das Plazieren des Referenzbündels im
Unendlichen.
Die bevorzugte Konfiguration der Sensoren, die in Fig. 1C ge
zeigt ist, ist diejenige, in welcher die einzelnen Aufnahme
gebiete 4 Einheiten in der Y-Abmessung mal 1 in der X-Ab
messung betragen, wobei die Sensoren in ungefähr Lambda/4-Inter
vallen längs der X-Abmessung mit den Raumfrequenzen
der Tupfenstreifen angeordnet sind. Das Schlankheitsverhältnis
bewirkt, daß eine gleiche räumliche Auflösung sowohl in der
X- als auch in der Y-Abmessung erzielt wird, wobei das Gebiet,
das sich vier Sensoren teilen, die zum Abtasten eines einzelnen
Tupfens benutzt werden, zweckmäßig quadratisch ist. Man
kann eine größere Anzahl von Sensoren (z. B. 5 oder 7) für
eine größere Genauigkeit bei der Größen- und der Phasen
bestimmung benutzen, wie weiter oben erläutert, wobei es in
diesem Fall im allgemeinen zweckmäßig ist, dasselbe Schlank
heitsverhältnis für die einzelnen Aufnahme- oder Abfühlgebiete
beizubehalten.
Das FIR-Filter kann auch auf vielfältigste Weise ausgeführt
werden, was weitgehend von den Systemerfordernissen abhängig
ist. Die Lösung, bei der komplexe Bewertungs- oder Gewichtungs
faktoren benutzt werden, die zugeordnet werden, um eine
Nullstelle n ter Ordnung (wobei "n" 1 bis 4 ist) bei Z=-j
auf der negativen imaginären Achse herzustellen, soll demgemäß
als exemplarisch verstanden werden. Man könnte andere,
gleichmäßigere Verteilungen der "Nullstellen" zur Elimination
der unerwünschten Glieder benutzen.
Das Blockschaltbild der elektronischen holographischen Vor
richtung kann die in Fig. 1A dargestellte Form haben, in welcher
das endgültige Ausgangssignal ein Bild ist. Die notwendige
Vorrichtung enthält (üblicherweise einen A/D-Wandler 24)
ein FIR-Filter 25 und einen Dezimierungsblock 26, an den sich
ein Fresnel/Fourier-Transformator 27 anschließt, der ein Bild
rekonstruiert, das direkt zum Anzeigen durch eine Anzeigeein
richtung 28 geeignet ist. Die Verarbeitungskapazität, die von
dem F/F-Transformator 27 verlangt wird, ist hoch, insbesondere
bei Matrizen mit größerer Anzahl von Elementen. In vielen
Fällen braucht die Abbildung nicht erforderlich zu sein, und
das Prozessorausgangssignal kann direkt an dem Ausgang vom
FIR-Filter-Dezimierungsblock 25-26 abgenommen werden, an dem
die Störglieder entfernt worden sind und nur das gewünschte
positive Glied der räumlichen Frequenz vorhanden ist. In
einigen Fällen, in denen nicht mit Abbildung gearbeitet wird,
kann das Ausgangssignal der Kamera ohne Umwandlung in Digital
format und ohne FIR-Filterung benutzt werden. Zum Beispiel
würde man für die Zwecke der Interferometrie, der signalan
gepaßten Filterung oder der Korrelation noch die Differenz
bildung benötigen, vorzugsweise in der Sensorebene, um das
große Spektralglied gleichmäßigen Wertes zu reduzieren oder
zu eliminieren.
Claims (31)
1. Vorrichtung zum Aufnehmen des Hologramms eines dreidimen
sionalen Objektfeldes mit mehreren Auflösungselementen,
gekennzeichnet durch:
- A. eine Einrichtung (10, 11, 12, 17, 18, 19, 20) zum Erzeugen
eines optischen Beleuchtungsbündels und eines optischen
Referenzbündels, die gegenseitig kohärent sind,
- 1) wobei das Beleuchtungsbündel das Objektfeld (13) be
leuchtet, damit das Licht, das von dem Objektfeld (13)
reflektiert wird, auf ein begrenztes ebenes Aufnahme
gebiet (16) auftrifft, um ein Muster von Tupfen zu
bilden,
ein X,Y,Z-Koordinatensystem, das einen Ursprung in dem Mittelpunkt (22) des Aufnahmegebietes (16) hat, wobei dessen Z-Achse durch den Mittelpunkt (21) des Objekt feldes (13) geht und wobei die X- und die Y-Achse durch den Ursprung (22) gehen und in dem Aufnahmegebiet (16) liegen; - 2) wobei das Referenzbündel das Aufnahmegebiet (16) von
einer virtuellen Punktquelle (23) aus beleuchtet, die
in einer virtuellen Position ist, welche auf eine Seite
des Objektfeldes (13) verschoben ist,
wobei der Ursprung (22), der Mittelpunkt (21) des Objektfeldes (13) und die virtuelle Position des Referenz punktes (23) eine Ebene festlegen, welche das Auf nahmegebiet (16) in einer Linie schneidet, die die X-Achse definiert, wobei eine dazu rechtwinkelige Linie die Y-Achse definiert,
wobei die Anordnung eine lineare Überlagerung von sinusförmigen Streifen auf dem Tupfenmuster in dem Auf nahmegebiet (16) erzeugt, wobei die Streifen in sämt lichen Tupfen im wesentlichen parallel zu der Y-Achse und in der Phase und in der Amplitude unabhängig sind,
wobei die Referenzquellenposition und der Mittelpunkt (21) des Objektfeldes (13) einen Winkelabstand haben, gemessen in dem Ursprung (22), der im Mittel wenigstens ein dunkles Gebiet und ein helles Gebiet pro Tupfen erzeugt; und
- 1) wobei das Beleuchtungsbündel das Objektfeld (13) be
leuchtet, damit das Licht, das von dem Objektfeld (13)
reflektiert wird, auf ein begrenztes ebenes Aufnahme
gebiet (16) auftrifft, um ein Muster von Tupfen zu
bilden,
- B. eine Kamera (15) mit
- 1) einer Blendenöffnung (14), welche die Begrenzung des Aufnahmegebiets (16) bildet, wobei die Blendenöffnung die Auflösung von separaten Elementen des Objektfeldes (13) in der Kamera (15) gestattet, und
- 2) einer Matrix von optischen Detektoren, die periodisch abgetastet werden und als einer quadratischen Funktion folgende Vorrichtungen auf das einfallende Licht an sprechen, um Kreuzproduktglieder zu erzeugen, wenn sie durch mehrere Quellen getroffen werden, wobei die optischen Detektoren in dem Aufnahmegebiet (16) und in Zeilen und Spalten angeordnet sind, wobei die Zeilen parallel zu der X-Achse und die Spalten parallel zu der Y-Achse sind,
- 3) einer Einrichtung zum Abbildung der Tupfen auf die Detektoren mit ausreichender Vergrößerung, so daß im Mittel eine volle Welle (ein dunkles und ein helles Gebiet) eines gestreiften Tupfens auf mehrere Detektoren in einer Zeile und wenigstens einen Detektor in einer Spalte auftrifft, wobei die Anzahl der Detektoren ausreicht, um unzweideutig die Amplitude und die räumliche Phase des Streifens zu bestimmen, und
- 4) Einrichtungen (24-28) zum Verarbeiten der abgetasteten Ausgangssignale der Detektoren, um ein elektrisches Signal zu gewinnen, welches die räumlichen Phasen und Amplituden der Tupfen zum Aufnehmen des Hologramms darstellt.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß das beleuchtete Objektfeld (13) und die Referenzquelle
(23) ein räumliches Spektrum über dem begrenzten ebenen Ge
biet (16) erzeugen, das auf vier räumlich überlagerte Glieder
in den abgetasteten Detektorausgangssignalen führt, wobei die
Glieder umfassen
ein Spektralglied gleichmäßigen Wertes aufgrund der Beleuchtung durch die Referenzquelle (23),
ein Spektralglied des Tupfenmusters aufgrund des beleuchteten Objektfeldes (13),
ein unerwünschtes negatives Raumfrequenzspektralglied, das dem konjugierten Glied des Kreuzprodukts aufgrund von Licht aus dem beleuchteten Objektfeld (13) und der Referenzquelle (23) entspricht,
und ein gewünschtes positives Raumfrequenzspektralglied, das dem direkten Glied des Kreuzprodukts aufgrund von Licht aus dem beleuchteten Objektfeld (13) und der Referenzquelle (23) entspricht,
wobei der virtuelle Referenzpunkt (23) gegenüber der Achse um einen Winkel (R₀) verschoben ist, der größer als der Winkel ist, der durch das Objektfeld (13) in dem Ursprung begrenzt wird, damit die vier Glieder, obgleich sie über der Öffnung (14) räumlich überlagert sind, in dem Raumfrequenzspektral gebiet in gegenseitig gesonderten Positionen verteilt sind.
ein Spektralglied gleichmäßigen Wertes aufgrund der Beleuchtung durch die Referenzquelle (23),
ein Spektralglied des Tupfenmusters aufgrund des beleuchteten Objektfeldes (13),
ein unerwünschtes negatives Raumfrequenzspektralglied, das dem konjugierten Glied des Kreuzprodukts aufgrund von Licht aus dem beleuchteten Objektfeld (13) und der Referenzquelle (23) entspricht,
und ein gewünschtes positives Raumfrequenzspektralglied, das dem direkten Glied des Kreuzprodukts aufgrund von Licht aus dem beleuchteten Objektfeld (13) und der Referenzquelle (23) entspricht,
wobei der virtuelle Referenzpunkt (23) gegenüber der Achse um einen Winkel (R₀) verschoben ist, der größer als der Winkel ist, der durch das Objektfeld (13) in dem Ursprung begrenzt wird, damit die vier Glieder, obgleich sie über der Öffnung (14) räumlich überlagert sind, in dem Raumfrequenzspektral gebiet in gegenseitig gesonderten Positionen verteilt sind.
3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß der virtuelle Referenzpunkt (23) und der Mittelpunkt (21)
des Objektfeldes (13) auf im wesentlichen derselben Z-Koordi
nate angeordnet sind, damit die Streifen in sämtlichen Tupfen
im wesentlichen gleiche Raumfrequenzen haben, und
daß die Detektoren zur effizienten Phasen- und Amplituden
messung in gleichen Intervallen längs der Zeilen angeordnet
sind.
4. Vorrichtung nach Anspruch 2 oder 3, dadurch gekennzeichnet,
daß eine Einrichtung (25) vorgesehen ist zum Isolieren des
gewünschten positiven Raumfrequenzkreuzproduktspektralglieds
von den anderen Gliedern in den abgetasteten Detektorausgangs
signalen.
5. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet,
daß die Einrichtung (25) zum Isolieren des gewünschten posi
tiven Raumfrequenzkreuzproduktspektralglieds eine Einrichtung
enthält zum subtraktiven Kombinieren der abgetasteten Aus
gangssignale von aufeinanderfolgenden Detektoren in jeder
Zeile, um eine (n-1)-fache Schar von Ausgangsdifferenzen
(P₁-P₀; P₂-P₁; P₃-P₂; . . .; P n -P n-1) zu gewinnen, wobei P das
Signal aus einem Fotodetektor bezeichnet und wobei der Index
dessen Position in einer Zeile von n Fotodetektoren
bezeichnet,
wobei die subtraktive Kombination als ein räumlich selektives FIR (Finite Impulse Response oder begrenztes Ansprechen auf einen Impuls)-Filter (25) wirkt, um das Spektralglied gleich förmigen Wertes und einen beträchtlichen Teil des Spektral glieds des Tupfenmusters aus dem Kameraausgangssignal zu eliminieren.
wobei die subtraktive Kombination als ein räumlich selektives FIR (Finite Impulse Response oder begrenztes Ansprechen auf einen Impuls)-Filter (25) wirkt, um das Spektralglied gleich förmigen Wertes und einen beträchtlichen Teil des Spektral glieds des Tupfenmusters aus dem Kameraausgangssignal zu eliminieren.
6. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet,
daß die subtraktive Kombination der abgetasteten Detektoraus
gangssignale erzielt wird durch Verbindungen, die mit den
Fotodetektoren in der Sensorebene (16) monolithisch
integriert sind.
7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet,
daß die Einrichtung (25) zum Isolieren des gewünschten posi
tiven Raumfrequenzkreuzproduktspektralglieds eine Einrichtung
(19) aufweist, um die Intensität des Referenzbündels in
Relation zu den Intensität der Beleuchtung, die von dem Objekt
feld (13) über das Aufnahmegebiet (16) reflektiert wird,
hoch einzustellen und das Spektralglied des Tupfenmusters in
Relation zu dem gewünschten positiven Raumfrequenzkreuzprodukt
spektralglieds vernachlässigbar zu machen.
8. Vorrichtung nach Anspruch 7, gekennzeichnet durch
ein FIR-Filter (25), an das die Sequenz von Ausgangsdifferenzen
in den abgetasteten Detektorausgangssignalen angelegt
wird, um das unerwünschte negative Raumfrequenzkreuzprodukt
spektralglied zu beseitigen.
9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet,
daß jeder optische Detektor längs einer Zeile (d. h. der X-Ko
ordinate) einen Abstand von π/2 Radian der Raumfrequenz der
Streifen hat, wobei jede Gruppe von vier optischen Detektoren
innerhalb der Matrix einen im wesentlichen quadratischen
Bereich einnimmt.
10. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet,
daß das FIR-Filter (25) enthält:
ein Netzwerk, das eine M-fache Anzahl von in Reihe geschalteten Knotenpunkten hat, wobei M eine Ziffer ist, die einen Wert von 3 bis 6 hat, an das aufeinanderfolgende Sätze von M Ausgangsdifferenzen in den abgetasteten Detektorausgangs signalen sequentiell angelegt werden,
M komplexe Multiplizierer, die jeweils mit einem Knotenpunkt verbunden sind, zur Multiplikation der Ausgangsdifferenz, die an dem Knotenpunkt vorhanden ist, mit einem festen kom plexen multiplikativen Bewertungsfaktor, wobei die Bewertungs faktoren so gewählt werden, daß das gewünschte positive Raumfrequenzkreuzproduktspektralglied ausgewählt und das un erwünschte negative Raumfrequenzkreuzproduktspektralglied unterdrückt wird, und
einen Summierer, der mit den Ausgängen der Multiplizierer verbunden ist, zum Bilden einer einzelnen Ausgangssignalab tastprobe für jeden Satz von m Ausgangsdifferenzen.
ein Netzwerk, das eine M-fache Anzahl von in Reihe geschalteten Knotenpunkten hat, wobei M eine Ziffer ist, die einen Wert von 3 bis 6 hat, an das aufeinanderfolgende Sätze von M Ausgangsdifferenzen in den abgetasteten Detektorausgangs signalen sequentiell angelegt werden,
M komplexe Multiplizierer, die jeweils mit einem Knotenpunkt verbunden sind, zur Multiplikation der Ausgangsdifferenz, die an dem Knotenpunkt vorhanden ist, mit einem festen kom plexen multiplikativen Bewertungsfaktor, wobei die Bewertungs faktoren so gewählt werden, daß das gewünschte positive Raumfrequenzkreuzproduktspektralglied ausgewählt und das un erwünschte negative Raumfrequenzkreuzproduktspektralglied unterdrückt wird, und
einen Summierer, der mit den Ausgängen der Multiplizierer verbunden ist, zum Bilden einer einzelnen Ausgangssignalab tastprobe für jeden Satz von m Ausgangsdifferenzen.
11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet,
daß Analog/Digital-Wandlereinrichtungen (24) vorgesehen sind
zum Umwandeln der abgetasteten Detektorausgangssignale, die
an das FIR-Filter (25) angelegt werden, in eine Digitalform.
12. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet,
daß das FIR-Filter (25) drei Knotenpunkte hat, an die die
Ausgangssignalabtastprobendifferenzen aus aufeinanderfolgend
ausgewählten Sätzen von vier benachbarten Detektoren ange
legt werden, und drei komplexe Multiplizierer.
13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet,
daß in einer komplexen Z-Ebene-Darstellung des Filters (25)
die komplexen Bewertungsfaktoren so zugeordnet werden, daß
eine Nullstelle n ter Ordnung bei Z=-j auf der negativen
imaginären Achse, wobei gilt n=1 bis 4, und eine Nullstelle
bei Z=-1 erzeugt wird, und
daß eine Nullstelle bei Z=+1 auf der positiven reellen Achse durch die substraktiven Kombinationen erzielt wird.
daß eine Nullstelle bei Z=+1 auf der positiven reellen Achse durch die substraktiven Kombinationen erzielt wird.
14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet,
daß die Ausgangssignale des FIR-Filters einer Dezimierung um
den Faktor 4 unterzogen werden, um die Datenrate zu reduzieren.
15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet,
daß die komplexen Bewertungsfaktoren für eine Nullstelle
erster Ordnung auf der negativen imaginären Achse proportional
sind zu:
W₁ = 0,177-0,177j
W₂ = 0,354
W₃ = 0,177+0,177j.
W₁ = 0,177-0,177j
W₂ = 0,354
W₃ = 0,177+0,177j.
16. Vorrichtung nach einem der Ansprüche 7 bis 11, dadurch
gekennzeichnet,
daß das FIR-Filter (25) vier Knotenpunkte hat, an die Differenzen
aus fünf benachbarten Detektoren angelegt werden, und
vier komplexe Multiplizierer.
17. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet,
daß in einer komplexen Z-Ebene-Darstellung des Filters (25)
die komplexen Bewertungsfaktoren so zugeordnet werden, daß
eine Nullstelle bei Z=+1 auf der positiven reellen Achse,
eine Nullstelle bei Z=-1 auf der negativen reellen Achse
und eine Nullstelle zweiter Ordnung bei Z=-j auf der nega
tiven imaginären Achse erzeugt wird.
18. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet,
daß die komplexen Bewertungsfaktoren für eine Nullstelle
zweiter Ordnung auf der negativen imaginären Achse proportional
sind zu:
W₁ = -0,125j
W₂ = 0,25-0,125j
W₃ = 0,25+0,125j
W₄ = 0,125j.
W₁ = -0,125j
W₂ = 0,25-0,125j
W₃ = 0,25+0,125j
W₄ = 0,125j.
19. Vorrichtung nach einem der Ansprüche 7 bis 11, dadurch
gekennzeichnet, daß das FIR-Filter (25) fünf Knotenpunkte
hat, an die Differenzen aus sechs benachbarten Detektoren an
gelegt werden, und fünf komplexe Multiplizierer.
20. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet,
daß in einer komplexen Z-Ebene-Darstellung des Filters (25)
die komplexen Bewertungsfaktoren so zugeordnet werden, daß
eine Nullstelle bei Z=+1 auf der positven reellen Achse,
eine Nullstelle bei Z=-1 auf der negativen reellen Achse
und eine Nullstelle dritter Ordnung bei Z=-j auf der nega
tiven imaginären Achse erzeugt wird.
21. Vorrichtung nach Anspruch 15, dadurch gekennzeichnet,
daß die komplexen Bewertungsfaktoren für eine Nullstelle
dritter Ordnung auf der negativen imaginären Achse proportional
sind zu:
W₁ = -0,044-0,044j
W₂ = 0,088-0,177j
W₃ = 0,265
W₄ = 0,088+0,177j
W₅ = -0,044+0,044j.
W₁ = -0,044-0,044j
W₂ = 0,088-0,177j
W₃ = 0,265
W₄ = 0,088+0,177j
W₅ = -0,044+0,044j.
22. Vorrichtung nach einem der Ansprüche 7 bis 11, dadurch
gekennzeichnet,
daß das FIR-Filter (25) sechs Knotenpunkte hat, an die Differenzen
aus sieben benachbarten Detektoren angelegt werden,
und sechs komplexe Multiplizierer.
23. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet,
daß in einer komplexen Z-Ebene-Darstellung des Filters (25)
die komplexen Bewertungsfaktoren so zugeordnet werden, daß
eine Nullstelle bei Z=+1 auf der positiven reellen Achse,
eine Nullstelle bei Z=-1 auf der negativen reellen Achse
und eine Nullstelle vierter Ordnung bei Z=-j auf der nega
tiven imaginären Achse erzeugt wird.
24. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet,
daß die komplexen Bewertungsfaktoren für eine Nullstelle
vierter Ordnung auf der negativen imaginären Achse proportional
sind zu:
W₁ = -0,031
W₂ = -0,031-0,125j
W₃ = 0,188-0,125j
W₄ = 0,188+0,125j
W₅ = -0,031+0,125j
W₆ = -0,031.
W₁ = -0,031
W₂ = -0,031-0,125j
W₃ = 0,188-0,125j
W₄ = 0,188+0,125j
W₅ = -0,031+0,125j
W₆ = -0,031.
25. Elektronische holographische Vorrichtung, gekennzeichnet
durch:
- A. eine Einrichtung (10, 11, 12, 17, 18, 19, 20) zum Erzeugen
eines optischen Beleuchtungs- und eines optischen Referenz
bündels, die zueinander kohärent sind,
- 1) wobei das Beleuchtungsbündel ein Objektfeld (13) be leuchtet, damit von dem Objektfeld (13) reflektiertes Licht auf ein begrenztes ebenes Aufnahmegebiet (16) auf trifft und ein Muster von Tupfen bildet,
- 2) wobei das Referenzbündel das Aufnahmegebiet (16) von einer virtuellen Position (23) aus beleuchtet, die auf eine Seite des Objektfeldes (13) verschoben ist,
- wobei die Anordnung eine lineare Überlagerung von sinusförmigen
Streifen auf dem Muster von Tupfen, die auf das Aufnahme
gebiet (16) auftreffen, erzeugt, wobei die Streifen in sämt
lichen Tupfen im wesentlichen parallel und phasen- und ampli
tudenunabhängig sind,
wobei die Referenzquellenposition und der Mittelpunkt (21) des Objektfeldes (13) einen Winkelabstand haben, gemessen ab dem Mittelpunkt des Aufnahmegebiets (16), der im Mittel wenigstens ein dunkles Gebiet und ein helles Gebiet pro Tupfen erzeugt; und - B. eine Kamera (15) mit
- 1) einer Öffnung (14), welche die Begrenzung des Aufnahme gebiets (16) bildet, wobei die Öffnung die Auflösung von separaten Elementen des Objektfeldes (13) in der Kamera (15) gestattet, und
- 2) einer Matrix von optischen Detektoren, deren Ausgangs signale periodisch abgetastet werden und die als einem quadratischen Gesetz folgende Vorrichtungen auf das einfallende Licht ansprechen, um Kreuzproduktglieder zu erzeugen, wenn sie aus mehreren Quellen getroffen werden, wobei die optischen Detektoren in dem Aufnahmegebiet (16) und in Zeilen und Spalten angeordnet sind, wobei die Zeilen zu den Streifen rechtwinkelig sind und wobei die Spalten zu den Streifen parallel sind,
- 3) einer Einrichtung zum Abbilden der Tupfen auf die Detektoren mit ausreichender Vergrößerung, so daß im Mittel eine volle Welle (ein dunkles und ein helles Gebiet) eines gestreiften Tupfens auf mehrere Detektoren in einer Zeile auftrifft, wobei die Anzahl der Detektoren ausreichend groß ist, damit die Amplitude und die räumliche Phase des Streifens unzweideutig bestimmt werden kann, und
- 4) Einrichtungen (24-28) zum Verarbeiten der abgetasteten Ausgangssignale der Detektoren, um ein elektrisches Signal zu gewinnen, das die räumlichen Phasen und Amplituden der das Hologramm darstellenden Tupfen darstellt.
26. Vorrichtung nach Anspruch 25, dadurch gekennzeichnet,
daß das beleuchtete Objektfeld (13) und die Referenzquelle
(23) ein räumliches Spektrum über dem Aufnahmegebiet (16) her
stellen, das auf vier räumlich überlagerte Glieder in den ab
getasteten Detektorausgangssignalen führt, wobei die Glieder
umfassen:
ein Spektralglied gleichförmigen Wertes aufgrund der Beleuchtung durch die Referenzquelle (23),
ein Spektralglied des Tupfenmusters aufgrund des beleuchteten Objektfeldes (13),
ein unerwünschtes negatives Raumfrequenzspektralglied, das dem konjugierten Glied des Kreuzprodukts entspricht, aufgrund von Licht aus dem beleuchteten Objektfeld (13) und der Referenz quelle (23), und
ein gewünschtes positives Raumfrequenzspektralglied, das dem direkten Glied des Kreuzprodukts aufgrund von Licht aus dem beleuchteten Objektfeld (13) und der Referenzquelle (23) entspricht,
wobei die Position des virtuellen Referenzpunktes (23) gegen über der Mitte (21) des Objektfeldes (13) unter einem Winkel (R₀) in der Mitte des Aufnahmegebietes (16) verschoben ist, der größer als der Winkel ist, der durch das Objektfeld (13) begrenzt wird, um zu bewirken, daß die vier Glieder, obgleich sie über der Öffnung räumlich überlagert sind, in dem Raum frequenzspektralgebiet in gegenseitig gesonderten Positionen verteilt sind.
ein Spektralglied gleichförmigen Wertes aufgrund der Beleuchtung durch die Referenzquelle (23),
ein Spektralglied des Tupfenmusters aufgrund des beleuchteten Objektfeldes (13),
ein unerwünschtes negatives Raumfrequenzspektralglied, das dem konjugierten Glied des Kreuzprodukts entspricht, aufgrund von Licht aus dem beleuchteten Objektfeld (13) und der Referenz quelle (23), und
ein gewünschtes positives Raumfrequenzspektralglied, das dem direkten Glied des Kreuzprodukts aufgrund von Licht aus dem beleuchteten Objektfeld (13) und der Referenzquelle (23) entspricht,
wobei die Position des virtuellen Referenzpunktes (23) gegen über der Mitte (21) des Objektfeldes (13) unter einem Winkel (R₀) in der Mitte des Aufnahmegebietes (16) verschoben ist, der größer als der Winkel ist, der durch das Objektfeld (13) begrenzt wird, um zu bewirken, daß die vier Glieder, obgleich sie über der Öffnung räumlich überlagert sind, in dem Raum frequenzspektralgebiet in gegenseitig gesonderten Positionen verteilt sind.
27. Vorrichtung nach Anspruch 26, dadurch gekennzeichnet,
daß die virtuelle Referenzquelle (23) eine virtuelle Punkt
quelle ist, wobei der Mittelpunkt (21) des Objektfeldes (13)
und der virtuelle Referenzpunkt in im wesentlichen demselben
Abstand von der Ebene des begrenzten ebenen Gebietes angeordnet
sind und bewirken, daß die Streifen in sämtlichen Tupfen
im wesentlichen gleiche Raumfrequenzen haben, und
daß die Detektoren zur effizienten Phasen- und Amplituden
messung in gleichen Intervallen längs der Zeilen angeordnet
sind.
28. Vorrichtung nach Anspruch 27, dadurch gekennzeichnet,
daß eine Einrichtung (25) vorgesehen ist zum Isolieren des
gewünschten positiven Raumfrequenzkreuzproduktspektralglieds
von den anderen Gliedern in den abgetasteten Detektorausgangs
signalen.
29. Vorrichtung nach Anspruch 28, dadurch gekennzeichnet,
daß die Einrichtung zum Isolieren des gewünschten positiven
Raumfrequenzkreuzproduktspektralglieds eine Einrichtung auf
weist zum substraktiven Kombinieren der abgetasteten Aus
gangssignale von aufeinanderfolgenden Detektoren in jeder
Zeile, um einen (n-1)-fachen Satz von Ausgangsdifferenzen
(P₁-P₀; P₂-P₁; P₃-P₂; . . .; P N -P N-1) zu gewinnen, wobei P das
Signal aus einem Fotodetektor bezeichnet und wobei der Index
dessen Position in einer Zeile von n Fotodetektoren bezeichnet,
wobei die subtraktive Kombination als ein räumlich selektives
FIR-Filter (25) wirkt, um das Spektralglied gleichförmigen
Wertes und einen wesentlichen Teil des Spektralglieds des
Tupfenmusters aus dem Kameraausgangssignal zu eliminieren.
30. Vorrichtung nach Anspruch 29, dadurch gekennzeichnet,
daß die Einrichtung (25) zum Isolieren des gewünschten
positiven Raumfrequenzkreuzproduktspektralglieds eine Ein
richtung aufweist zum Einstellen der Intensität des Referenz
bündels auf einen hohen Wert in Relation zu der Intensität
der Beleuchtung, die von dem Objektfeld (13) über dem Auf
nahmegebiet (16) reflektiert wird, um das Spektralglied des
Tupfenmusters klein zu machen in Relation zu dem gewünschten
positiven Raumfrequenzkreuzproduktspektralglied.
31. Vorrichtung nach Anspruch 30, gekennzeichnet durch:
ein FIR-Filter (25), an das die Sequenz von Ausgangsdiffe
renzen in den abgetasteten Detektorausgangssignalen angelegt
wird, um das unerwünschte negative Raumfrequenzkreuzprodukt
spektralglied zu beseitigen.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US07/338,881 US4974920A (en) | 1989-04-17 | 1989-04-17 | Electronic holographic apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE4011465A1 true DE4011465A1 (de) | 1990-10-18 |
Family
ID=23326543
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE4011465A Withdrawn DE4011465A1 (de) | 1989-04-17 | 1990-04-09 | Elektronische holographievorrichtung |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US4974920A (de) |
| JP (1) | JP3359918B2 (de) |
| CA (1) | CA2012242A1 (de) |
| DE (1) | DE4011465A1 (de) |
| FR (1) | FR2645976B1 (de) |
| GB (1) | GB2232845B (de) |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5381249A (en) * | 1985-10-17 | 1995-01-10 | Burney; Michael | Holographic display transmitting device |
| US5047845A (en) * | 1990-10-09 | 1991-09-10 | General Electric Company | Charge-transfer-device planar array for detecting coherent-light phase |
| DE4224352A1 (de) * | 1992-07-23 | 1994-01-27 | Forschungsgesellschaft Fuer Dr | Verfahren zur Ansteuerung eines Aufzeichnungsgerätes mit Bilddaten eines Halbtonbildes |
| US5337180A (en) * | 1992-07-29 | 1994-08-09 | The United States Of America As Represented By The Secretary Of The Air Force | Optical signal dependent noise reduction by variable spatial thresholding of the fourier transform |
| US6249349B1 (en) * | 1996-09-27 | 2001-06-19 | Vincent Lauer | Microscope generating a three-dimensional representation of an object |
| US6918538B2 (en) * | 2002-12-18 | 2005-07-19 | Symbol Technologies, Inc. | Image scanning device having a system for determining distance to a target |
| JP2015505984A (ja) * | 2011-12-02 | 2015-02-26 | シー・エス・アイ・アールCsir | ホログラム処理方法およびシステム |
| KR102577707B1 (ko) * | 2018-04-30 | 2023-09-14 | 한국전자통신연구원 | 진폭 변조 홀로그램을 위한 홀로그램 인코딩 및 홀로그램 화질 평가 장치 및 그 방법 |
| CN110163198B (zh) * | 2018-09-27 | 2022-03-08 | 腾讯科技(深圳)有限公司 | 一种表格识别重建方法、装置和存储介质 |
| CN112504165A (zh) * | 2020-12-30 | 2021-03-16 | 南京理工大学智能计算成像研究院有限公司 | 一种基于双边滤波优化的复合立体相位展开方法 |
Family Cites Families (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US3529083A (en) * | 1967-02-14 | 1970-09-15 | Holotron Corp | System for producing holographic information |
| US3548093A (en) * | 1967-12-19 | 1970-12-15 | Winston E Kock | Hologram television system and method |
| US3649754A (en) * | 1970-04-20 | 1972-03-14 | Stanford Research Inst | Real time interferometry utilizing a television system |
| US3735036A (en) * | 1970-10-26 | 1973-05-22 | Express I M Co | Real time interferometry contour mapping system |
| US3828126A (en) * | 1973-04-13 | 1974-08-06 | American Express Invest | Real time interferometry |
| DE2441377A1 (de) * | 1973-09-04 | 1975-03-13 | Hauser Raimund | Einrichtung zur durchfuehrung eines holographisch-interferometrischen oder moiremetrischen verfahrens |
| US4011442A (en) * | 1975-12-22 | 1977-03-08 | General Electric Company | Apparatus for sensing optical signals |
| US4097749A (en) * | 1977-01-06 | 1978-06-27 | The United States Of America As Represented By The Secretary Of The Navy | Fourier power spectra of optical images using CCD's |
| US4084257A (en) * | 1977-05-19 | 1978-04-11 | General Electric Company | Signal processing apparatus |
| US4359758A (en) * | 1979-04-05 | 1982-11-16 | George Teacherson | Holographic television |
| US4241421A (en) * | 1979-07-26 | 1980-12-23 | General Electric Company | Solid state imaging apparatus |
| US4376950A (en) | 1980-09-29 | 1983-03-15 | Ampex Corporation | Three-dimensional television system using holographic techniques |
| US4484219A (en) * | 1982-06-16 | 1984-11-20 | The Holotronics Corporation | Electronically generated holography |
| DE3541891A1 (de) * | 1985-11-27 | 1987-06-04 | Kambiz Kachanian | Verfahren zur erfassung, speicherung und wiedergabe von geometrischen daten von objekten, insbesondere von kiefermodellen und eine vorrichtung zur durchfuehrung des verfahrens |
| FR2593288B1 (fr) * | 1986-01-20 | 1989-09-01 | Aerospatiale | Dispositif de controle non-destructif d'une piece par holographie optique |
-
1989
- 1989-04-17 US US07/338,881 patent/US4974920A/en not_active Expired - Lifetime
-
1990
- 1990-03-15 CA CA002012242A patent/CA2012242A1/en not_active Abandoned
- 1990-04-06 FR FR9004460A patent/FR2645976B1/fr not_active Expired - Lifetime
- 1990-04-09 DE DE4011465A patent/DE4011465A1/de not_active Withdrawn
- 1990-04-10 JP JP09326490A patent/JP3359918B2/ja not_active Expired - Fee Related
- 1990-04-12 GB GB9008446A patent/GB2232845B/en not_active Expired - Lifetime
Also Published As
| Publication number | Publication date |
|---|---|
| US4974920A (en) | 1990-12-04 |
| FR2645976B1 (fr) | 1994-05-20 |
| GB2232845B (en) | 1993-09-22 |
| JPH02294680A (ja) | 1990-12-05 |
| GB9008446D0 (en) | 1990-06-13 |
| GB2232845A (en) | 1990-12-19 |
| CA2012242A1 (en) | 1990-10-17 |
| JP3359918B2 (ja) | 2002-12-24 |
| FR2645976A1 (fr) | 1990-10-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE3905619C2 (de) | Bildeingabe-/Ausgabevorrichtung | |
| DE69812937T2 (de) | Direkt-digitale holographie, holographische interferometrie und holovision | |
| DE69215760T2 (de) | Kreuzkorrelationsausrichtsystem für einen Bildsensor | |
| DE3738667C2 (de) | ||
| DE2201830C3 (de) | ||
| DE3306709C2 (de) | ||
| DE112009001652T5 (de) | Mehrkanal-Erfassung | |
| DE69326508T2 (de) | Stereoskopische Anzeigevorrichtung und -verfahren | |
| DE4124223C2 (de) | Verfahren zur Auswertung von Interferogrammen und Interferometer | |
| DE69328055T2 (de) | Stereoskopische Anzeigevorrichtung und -verfahren | |
| DE2935265A1 (de) | Ausrichtvorrichtung | |
| EP0062083B1 (de) | Einrichtung zur Bestimmung des Polarisationszustandes eines Lichtwellenfeldes und Verwendungen der Einrichtung zu interferometrischen und holographischen Messungen | |
| DE4011465A1 (de) | Elektronische holographievorrichtung | |
| DE2305200C3 (de) | ||
| DE102020211380A1 (de) | Verfahren zum superauflösenden Auswerten von strukturiert beleuchteten Mikroskopbildern und Mikroskop mit strukturierter Beleuchtung | |
| DE69737779T2 (de) | Holographisches Abbildungs- und Anzeigegerät und Verfahren | |
| EP0147481A1 (de) | Weisslicht-Interferometer | |
| DE1940361A1 (de) | Verfahren und Einrichtung zur Erzeugung eines Beugungsmusters sowie zur Herstellung eines Rasters aus gleichen Bildern | |
| EP0866943B1 (de) | Verfahren und vorrichtung zur hochauflösenden bestimmung von abständen im fokussierten bild eines linsen-pupillen-systems | |
| DE1572678C3 (de) | Verfahren zum Erzeugen von Ultraschall-Hologrammen und Apparat zu dessen Durchführung | |
| EP0007627B1 (de) | Optisches Empfangssystem | |
| DE1805286A1 (de) | Optischer Korrelator | |
| DE2707325C2 (de) | Vorrichtung zum Aufzeichnen und zum Rekonstruieren eines Hologramms | |
| DE2541924A1 (de) | Verfahren zum verbessern des wirkungsgrades bei der rekonstruktion eines fokussierbildhologrammes | |
| DE69617109T2 (de) | Verfahren und Vorrichtung für die optische Behandlung von zweidimensionalen Bildern, um das Geschwindigkeitsfeld zu gewinnen |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8128 | New person/name/address of the agent |
Representative=s name: VOIGT, R., DIPL.-ING., PAT.-ANW., 6232 BAD SODEN |
|
| 8110 | Request for examination paragraph 44 | ||
| 8139 | Disposal/non-payment of the annual fee |