[go: up one dir, main page]

DE4011465A1 - Elektronische holographievorrichtung - Google Patents

Elektronische holographievorrichtung

Info

Publication number
DE4011465A1
DE4011465A1 DE4011465A DE4011465A DE4011465A1 DE 4011465 A1 DE4011465 A1 DE 4011465A1 DE 4011465 A DE4011465 A DE 4011465A DE 4011465 A DE4011465 A DE 4011465A DE 4011465 A1 DE4011465 A1 DE 4011465A1
Authority
DE
Germany
Prior art keywords
object field
detectors
complex
spectral element
zero
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE4011465A
Other languages
English (en)
Inventor
Joseph Lawrence Chovan
William Arthur Penn
Jerome Johnson Tiemann
William Ernest Engeler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE4011465A1 publication Critical patent/DE4011465A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Holo Graphy (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

Die Erfindung bezieht sich auf die Holographie und betrifft insbesondere eine elektronische holographische Vorrichtung, deren elektrisches Ausgangssignal die Größe und die Phase von kohärentem Licht darstellt, das von einem dreidimensionalen Objekt reflektiert und über der Öffnung der Vorrichtung verteilt wird. Diese Information gestattet, nachdem sie auf­ genommen und geeignet verarbeitet worden ist, die Wiederer­ zeugung des optischen Wellenfeldes und daher die Rekonstruktion des Objektfeldes, welches dieses Wellenfeld erzeugt hat, für Zwecke wie Abbildung, Interferometrie, signalangepaßte Filterung oder Korrelation.
Die Holographie ist eine gut etablierte Technologie, die auf verschiedenen Gebieten Anwendung findet. Ein Hologramm ist im wesentlichen eine Aufzeichnung, welche die Größe und die Phase von Licht einer einzelnen Wellenlänge als Funktion der Position in einer Empfangsöffnung enthält. Dem Beobachter gibt ein Hologramm eines dreidimensionalen Objekts, wenn es geeignet angezeigt wird, einen Eindruck der Tiefeneigenschaft des Objekts. Das steht im Gegensatz zu der flachen, zwei­ dimensionalen Rekonstruktion eines dreidimensionalen Objekts, die durch die traditionelle Fotographie erzielt wird.
Die Suche nach einer dreidimensionalen Rekonstruktion führte zu den Stereopticon- oder Doppelprojektionsdias am Anfang des 20. Jahrhunderts, wo zwei Bilder durch zwei nebeneinander angeordnete Kameras (oder durch eine einzelne Kamera mit zwei Objektiven) und zwei gesonderte Filme, die gleichzeitig belichtet wurden, erzielt wurden. Die belichteten Filme wurden verarbeitet, um ein Paar Drucke zu gewinnen, die zum Be­ trachten in einem in der Hand gehaltenen Betrachter herge­ richtet wurden, der gestattet, mit einem Auge ein Bild und mit dem anderen dessen Gegenstück zu betrachten, wobei der Betrachter einen dreidimensionalen Eindruck empfing. Es ist klar, daß bei den Doppelprojektionsdias etwas unterschiedliche Bilder entsprechend zwei gesonderten Betrachtungspunkten den Augen dargeboten wurden.
Die Beleuchtung für die frühe Doppelprojektion war breit­ bandiges weißes Licht, das Verfahren konnte aber weiterhin praktisch angewandt werden, als der Farbfilm eingeführt wurde und zwei Vollfarbbilder zum Erzeugen eines dreidimensionalen Eindrucks benutzt wurden.
Die dreidimensionale Wahrnehmung wurde zunächst hervorgerufen, ohne daß zwei Vollfarbbilder hergestellt wurden, sondern viel­ mehr durch Herstellen eines rot hervorhebenden Bildes und eines blau-grün hervorhebenden Bildes für die gesonderten Augen. Dieses Verfahren wurde in Kinos benutzt, wo den Be­ trachtern eine Brille ausgehändigt wurde, die jeweils eine Linse hatten, welche das rot hervorhebende Bild durchließ, wogegen die andere Linse das blau-grüne Bild durchließ. Das gestattete dem Betrachter, zwei auf einer einzigen Leinwand überlagerte Bilder zu betrachten. Es zeigte sich, daß die Augen durch verschiedene Strategien dazu verleitet werden konnten, Tiefe wahrzunehmen.
Der Wissenschaftler jedoch, der die Wellennatur des Lichtes kennt, wünschte immer, die Größe und die Phase von Licht einer einzigen Wellenlänge, das von einem dreidimensionalen Objekt ausgeht und eine Öffnung erreicht, festzuhalten und diese Größen- und Phaseninformation dieses Lichtes zu benutzen, die Originalwellenfelder auf eine Weise zu rekonstruieren, die der Identität mit dem ursprünglichen dreidimensionalen Objekt nahekommt. Wenn das möglich wäre, könnte der Betrachter mit beiden offenen Augen ohne Filter oder anderes Zubehör die Rekonstruktion betrachten, während er seinen Kopf etwas von einer Seite zur anderen bewegt, und er würde ein etwas anderes Bild sehen, wenn er sich bewegt, und dazu ver­ leitet werden, anzunehmen, vor ihm befinde sich ein dreidi­ mensionales Objekt. In der Praxis bedeutete das, daß ein holo­ graphisches Bild unter Verwendung von Licht einer einzigen Wellenlänge in den Raum vor dem Betrachter aus einer ebenen Wellenfeldaufzeichnung projiziert werden könnte, um ein drei­ dimensionales Objekt zu rekonstruieren, und daß der Betrachter denken würde, bei der ebenen Tafel, von der das Licht in seine Augen gesandt oder reflektiert wurde, handele es sich um ein Fenster, welches das dreidimensionale Objekt enthält. Der mit beiden Augen ausgeführte dreidimensionale Wahrnehmungs­ test eines Hologramms ist ein ungefähres Maß für die richtige Konstruktion eines Hologramms.
Es ist jedoch klar, daß durch die Verwendung der Information für interferometrische und andere Zwecke diese Wiedergewin­ nung der ursprünglichen Wellenfelder durch Wiedergewinnung der Größe und der Phase über einer Öffnung in der Tat erreich­ bar ist und mit extremer fraktioneller optischer Wellenlänge­ genauigkeit erfolgen kann. Im Prinzip kann ein Hologramm erzielt werden, indem die gewünschte Szene mit Licht einer einzelnen Wellenlänge, d. h. mit kohärentem Licht beleuchtet wird. Das Licht, das von einem Objektfeld gestreut wird, hat eine besondere Größen- und Phasenverteilung (über einer Empfangsöffnung). Diese Verteilung steht in eindeutiger Be­ ziehung zu den optischen Details des Objektfeldes. Das Holo­ gramm ist eine geeignet codierte Aufzeichnung dieser Größen- und Phaseninformation als Funktion der Position in der Empfangs­ öffnung. Das Hologramm gestattet die Rekonstruktion des optischen Wellenfeldes, das von dem Objektfeld zurück­ gestreut wird, betrachtet innerhalb der Empfangsöffnung. Richtig rekonstruierte Wellenfelder werden sich dann der Kongruenz mit dem ursprünglichen kohärenten Licht nähern, das von dem Objektfeld zerstreut wird.
Mit der heutigen Technologie werden Hologramme üblicherweise auf fotographischem Film oder einem äquivalenten Speichermedium aufgezeichnet. Die anschließende Verarbeitung zur Re­ konstruktion des Bildes muß dann mit Laserbeleuchtung, beu­ gungsbegrenzten Linsen, usw. in einem zweiten, gesonderten Schritt optisch erfolgen. Die praktische Durchführung des aus zwei Schritten bestehenden Verfahrens am Anfang der 50er Jahre wird Professor Dennis Gabor in England zugeschrieben (Van Nostrand's Scientific Encyclopedia, 1968, D. van Nostrand Company, Inc.).
Das Verfahren, das üblicherweise praktisch angewandt wird, verlangt, daß der Film belichtet, entwickelt und dann in einer optischen Rekonstruktionsvorrichtung dargeboten wird. Andere holographische Anordnungen sind bereits vorgeschlagen worden, beispielsweise solche für interferometrische Bewegungsstudien, wobei ein schwingendes Teil in einem aktiven Fernsehkamera­ system betrachtet wird und die Streifenbilder in einem konti­ nuierlichen Verfahren untersucht werden, um kleine Verschie­ bungen zu bestimmen.
Gegenwärtig ist eine Allzweckvorrichtung zum Erzeugen eines elektrischen holographischen Bildes eines Objektfeldes, das direkt angezeigt oder verarbeitet werden kann, nicht verfüg­ bar. Der elektrische Ausgang einer solchen Vorrichtung würde vorzugsweise eine elektrische Darstellung des Hologramms liefern, wobei die elektrische Darstellung dann aufgezeichnet, gefiltert, angezeigt und/oder aktualisiert werden kann, und zwar mit einer Geschwindigkeit, die zum Aufnehmen von statischen oder dynamischen Objektfeldern in einem kontinu­ ierlichen Verfahren geeignet ist.
Ein erwarteter Vorteil einer solchen elektronischen Vorrich­ tung zum Aufnehmen eines Objektfeldes in Echtzeit wäre die Schaffung einer Schnittstelle zwischen einem kohärenten opti­ schen Wellenfeld und einem digitalen Datenverarbeitungssystem.
In einer solchen Vorrichtung könnte Softwareverarbeitung be­ nutzt werden, um solche Funktionen wie Abbildung, Interfero­ metrie, signalangepaßte Filterung, Korrelation, usw. auszu­ führen. Daher würde teuere beugungsbegrenzte optische Hard­ ware weitgehend unnötig und durch Software ersetzt werden. Darüber hinaus könnte das Verfahren direkt und kontinuierlich sein.
Aufgabe der Erfindung ist es, eine neue elektronische All­ zweckvorrichtung zum Aufnehmen von holographischen Daten zu schaffen.
Weiter soll durch die Erfindung eine elektronische hologra­ phische Allzweckvorrichtung zum Aufnehmen von holographischen Daten zur Verwendung bei der Abbildung, Interferometrie, signal­ angepaßten Filterung oder Korrelation geschaffen werden.
Ferner soll durch die Erfindung eine neue holographische Vorrichtung geschaffen werden, die holographische Daten auf­ nimmt, welche ein detailliertes dreidimensionales Objekt be­ schreiben, das mit kohärentem Licht beleuchtet wird, und das optische Signal in ein elektrisches Signal umwandelt, welches die komplexe Größen- und Phaseninformation der holographischen Daten darstellt, die zur Abbildung geeignet ist.
Außerdem soll durch die Erfindung eine neue elektronische Holographievorrichtung zum Aufnehmen von statischen oder dynamischen Objektfeldern geschaffen werden.
Weiter soll durch die Erfindung eine neue elektronische Holographievorrichtung zum Gewinnen von holographischen Daten in elektrischer Form geschaffen werden, die gestattet, die Daten auf direkte und kontinuierliche Weise zu verarbeiten.
Diese und weitere Ziele der Erfindung werden in einer neuen elektronischen Holographievorrichtung erreicht, welche eine Einrichtung zum Herstellen von gegenseitig kohärenten opti­ schen Beleuchtungs- und Referenzbündeln und eine Kamera ent­ hält.
Das Beleuchtungsbündel beleuchtet das Objektfeld, um das von dem Objektfeld reflektierte Licht zu veranlassen, in die Kamerablendenöffnung einzutreten und ein Muster von Tupfen zu bilden, die spezifische Merkmale von Licht sind, das von diffusen Objekten unter kohärenter Beleuchtung zerstreut wird. Daher sind "Tupfen" die auflösbaren Merkmale eines kohärenten Wellenfeldes. Das Referenzbündel beleuchtet die Blendenöffnung von einer virtuellen Position aus, die auf eine Seite des Objektfeldes verschoben ist, so daß eine lineare Über­ lagerung von sinusförmigen Streifen auf dem Tupfenmuster er­ zeugt wird. Die Anordnung erzeugt Streifen, welche im wesent­ lichen parallel und nach Phase und Amplitude unabhängig sind. Darüber hinaus werden die Referenzquellenposition und das Zentrum des Objektfeldes so eingestellt, daß sie einen Winkel­ abstand, gemessen an der Kamerablendenöffnung haben, der im Mittel wenigstens ein dunkles Gebiet und ein helles Gebiet pro Tupfen erzeugt, was ein wesentliches Erfordernis für das Bestimmen der Phase und der Größe des Tupfens ist.
Die Blendenöffnung der Kamera wird ausreichend groß gemacht, um die Auflösung von gesonderten Elementen des Objektfeldes zu gestatten, und optische Detektoren sind in einer Matrix in Zeilen und Spalten angeordnet, wobei die Zeilen rechtwinkelig zu den Streifen und die Spalten parallel zu den Streifen sind. Die Ausgangssignale der Detektoren werden periodisch abgetastet, die als einer quadratischen Funktion folgende Vorrichtungen auf das einfallende Licht ansprechen, um Vektor- oder Kreuzproduktglieder zu erzeugen, wenn sie durch die beiden Quellen getroffen werden.
Die Tupfen werden mit ausreichender Vergrößerung abgebildet, so daß im Mittel eine volle Welle (ein dunkles und ein helles Gebiet) eines Tupfens auf eine ausreichende Anzahl von Detek­ toren in einer Zeile trifft, um eindeutig die Größe und die räumliche Phase des Streifens zu bestimmen. Üblicherweise verlangt das vier Detektoren.
Es wird somit ein elektrisches Signal in den abgetasteten Ausgangssignalen der Detektoren gewonnen, das die räumliche Phase und die Amplitude jedes Tupfens im Mittel darstellt. Wenn dieses elektrische Signal verarbeitet wird, um Fremd­ glieder zu eliminieren, können die ursprünglichen Wellenfelder wiedergewonnen werden, d. h., das Hologramm kann wieder­ gewonnen werden, und die Szene kann auf eine Weise rekon­ struiert werden, welche die Fresnel/Fourier-Transformations­ operation approximiert, die durch eine Linse vorgenommen wird, ohne aber eine Linse zu erfordern, wenn die richtige Wellenfeldverarbeitung angewandt wird.
Bei diesem Verfahren erzeugen das beleuchtete Objektfeld und die Referenz ein räumliches Spektrum über der Kamerablenden­ öffnung, das auf vier räumlich überlagerte Glieder führt, welche in den abgetasteten Detektorausgangssignalen erschei­ nen. Diese Glieder umfassen ein Spektralglied gleichförmigen Wertes aufgrund der Beleuchtung durch das Referenzbündel, ein Spektralglied, welches das Tupfenmuster aufgrund des beleuchteten Objektfeldes darstellt, ein unerwünschtes negatives Raumfrequenzspektralglied, das dem konjugierten Glied des Kreuzprodukts aufgrund von Licht aus dem beleuchteten Objektfeld und der Referenz entspricht, und ein gewünschtes positives Raumfrequenzspektralglied, das dem direkten Kreuzproduktglied aufgrund von Licht aus dem beleuchteten Objektfeld und der Referenz entspricht.
Gemäß der Erfindung ist die Position des virtuellen Referenz­ punktes gegenüber dem Zentrum des Objektfeldes unter einem an der Kamera gemessenen Winkel verschoben, der größer als der Winkel ist, der durch das Objektfeld begrenzt wird. Diese physikalische Anordnung bewirkt, daß die vier Glieder, ob­ gleich sie über der Blendenöffnung räumlich überlagert sind, in dem Raumfrequenzspektralgebiet in gegenseitig ge­ sonderten Positionen verteilt sind. Kurz gesagt, sie sind in einem Zustand, aufgrund dessen sie durch ein geeignetes Filter, das auf einen Impuls begrenzt anspricht, ein sogenanntes FIR (Finite Impulse Response)-Filter, welches in der Lage ist, die Glieder durch ihre räumliche Frequenzen zu trennen, getrennt werden können.
Gemäß einem weiteren Aspekt der Erfindung ist die Referenz eine virtuelle Punktquelle, wobei das Zentrum des Objektfeldes und der virtuelle Referenzpunkt in im wesentlichen dem­ selben Abstand von der Sensorebene angeordnet sind, um zu bewirken, daß die Streifen in sämtlichen Tupfen im wesentlichen die gleichen räumlichen Frequenzen haben, und die Detektoren sind zur wirksamen Phasen- und Amplitudenmessung in gleichen Abständen längs der Zeilen angeordnet.
Gemäß einem weiteren Aspekt der Erfindung werden die abge­ tasteten Ausgangssignale von n aufeinanderfolgenden Detek­ toren in jeder Zeile substraktiv verknüpft, um einen (n-1) fachen Satz von Ausgangssignaldifferenzen zu gewinnen. Die Differenzbildung dient dazu, das Spektralglied gleichförmigen Wertes und einen wesentlichen Teil des Spektralglieds des Tupfenmusters an sich aus dem Kameraausgangssignal zu elimi­ nieren. Das Spektralglied des Tupfenmusters wird weiter redu­ ziert, indem die Intensität des Referenzbündels in Relation zu der Intensität der von dem Objektfeld zu dem begrenzten planaren Gebiet reflektierten Beleuchtung groß gemacht wird.
Die beiden vorgenannten Maßnahmen können als ein Teil des FIR-Filters betrachtet werden, und zwar als Teil von dessen Funktion, das gewünschte Kreuzproduktglied, das die hologra­ phische Information enthält, zu isolieren, oder als Maßnahme zum Vereinfachen der schließlichen Aufgabe eines schließ­ lichen FIR-Filters, die darin besteht, die beiden Kreuzpro­ duktglieder zu trennen, um das gewünschte Kreuzproduktglied zu isolieren.
Schließlich ist ein herkömmliches FIR-Filter, dem die Sequenz von Ausgangssignaldifferenzen in abgetasteten Detektoraus­ gangssignalen zugeführt wird, dafür vorgesehen, das uner­ wünschte Kreuzproduktspektralglied negativer Frequenz zu unterdrücken, um das gewünschte Kreuzproduktspektralglied positiver Frequenz zu gewinnen.
Ausführungsbeispiele der Erfindung werden im folgenden unter Bezugnahme auf die Zeichnungen näher beschrieben. Es zeigen
Fig. 1A in perspektivischer Darstellung eine Vor­ richtung zum Aufzeichnen des Hologramms eines Objektfeldes unter Verwendung einer Ladungsverschiebungsvorrichtung (Charge Transfer Device oder CTD);
Fig. 1B eine künstlerische Darstellung des gerasterten Tupfenmusters, das gebildet wird, wenn Licht aus dem kohärent beleuchteten Objekt­ feld und Licht von einem zweiten Ort aus derselben kohärenten Quelle die Sensorebene der CTD beleuchten und interferieren;
Fig. 1C das Muster von Sensoren, welche die Sensor­ ebene bilden, auf der sich das gerastete Tupfenmuster bildet;
Fig. 2 die Intensitätsverteilung über der Öffnung der Sensorebene und, zu Analysezwecken, eine elementare Anordnung, in welcher ein einzelner Punkt aus dem Objektfeld und eine einzelne Punktreferenzquelle einen Beobachtungs­ punkt in der Sensorebene beleuchten;
Fig. 3 das räumliche Spektrum der Intensitäts­ verteilung in der Sensorebene aufgrund von sämtlichen Punkten in dem Objektfeld unter den Bedingungen der in Fig. 1A dargestellten Beleuchtung, wobei insbesondere die räum­ lichen Frequenzspektren in der X-Richtung dieser Verteilung dargestellt sind;
Fig. 4 eine Darstellung des Winkelantennen­ bewertungsmusters, das den X- und Y-Verteilungen der räumlichen Frequenzspektren längs der X- und Y-Achse aufgrund des endlichen Flächen­ inhalts der Sensoren aufgeprägt wird;
Fig. 5 eine komplexe "Z-Ebene"-Darstellung der Abtastdaten des räumlichen Frequenzspektrums in der X-Richtung, die zur Erläuterung der Forderung an das Filter, das gewünschte komplexe Spektrum des Sensorfeldes auszu­ wählen und unerwünschte Spektren zu unter­ drücken, brauchbar ist;
Fig. 6 das wiederholte zweidimensionale Winkel­ spektrum aufgrund des Abtastens der Aus­ gangssignale von aufeinanderfolgenden Sensoren, das zur Erläuterung des Filterer­ fordernisses brauchbar ist;
Fig. 7A eine Ersatzschaltungsdarstellung der "Differenz­ bildung", die mit den Ausgangssignalen der einzelnen Sensoren in der Sensorebene vorgenommen wird und mathematisch ein Teil eines FIR-Filters ist;
Fig. 7B eine Ersatzschaltungsdarstellung des FIR- Filters, das erforderlich ist, um das gewünschte komplexe Spektrum auszuwählen und die unerwünschten Spektren zu unterdrücken, wobei die Darstellung die Option der Differenz­ bildung in der Sensorebene und das externe FIR-Filter oder allein das externe FIR- Filter zeigt;
Fig. 8A ein Schaltbild eines CID-Sensors, der zur Verwendung als CTD in der Kamera geeignet und insbesondere zur Bildung von Differenzen zwischen aufeinanderfolgenden Sensoren in der X-Abmessungen geeignet ist;
Fig. 8B und deren Transposition die Schaltungs­ einzelheiten des Vertikalwahlabtasters bzw. des Vertikalklemmabtasters;
Fig. 8C die Schaltungseinzelheiten des Horizontal­ abtasters;
Fig. 9A und 9B zwei Stufen des Ausleseprozesses, während welchem die Differenzbildung in dem CID- Sensor nach den Fig. 8A, 8B und 8C stattfindet;
Fig. 10A und 10B die Filterwirkung der Differenzbildung, wobei Fig. 10A die Z-Ebene-Nullage auf dem Einheitskreis und auf der positiven reellen Achse von Differenzbildungsprodukten zeigt und wobei Fig. 10B die Kerbdifferenz­ bildungsprodukte in dem Kamerafrequenzgang bei Gleichstrom und niedrigen Raumfrequenzen verknüpft mit der Filterwirkung der Sensoren endlichen Flächeninhalts zeigt;
Fig. 11 die Z-Ebene-Nullagen für ein zusätzliches externes FIR-Filter gemäß einer exemplarischen Ausführungsform, in welcher eine bis vier aufeinanderfolgende Nullen auf dem Einheitskreis in der negativen imaginären Achse hinzugefügt werden, zusammen mit einer einzelnen Null auf dem Einheitskreis in der negativen realen Achse;
Fig. 12 den Gesamtfrequenzgang aufgrund der gewünschten und unerwünschten Signalspektren des Gesamt­ systems, das ein zusätzliches externes FIR-Filter aufweist, welches die Z-Ebene- Nullagen nach Fig. 11 hat und eine Dezimierung um zwei vornimmt;
Fig. 13 den Gesamtfrequenzgang derselben exemplarischen Ausführungsform unter der Annahme einer vernachlässigbaren Energie in dem zentralen Basisband;
Fig. 14 den Gesamtfrequenzgang einer exemplarischen Ausführungsform, die die Z-Ebene-Nullagen nach Fig. 11 hat und eine zusätzliche Dezi­ mierung um zwei vornimmt (also um vier ins­ gesamt); und
Fig. 15 ein Diagramm des maximalen Phasenfehlers über der räumlichen Winkelfrequenz der exemplarischen Ausführungsform, deren Systemfrequenzgang in Fig. 14 gekenn­ zeichnet ist.
In Fig. 1A ist eine perspektivische Ansicht einer Vorrichtung zum Aufzeichnen des Hologramms eines Objektfeldes dargestellt. Die Vorrichtung zeichnet holographische Information des Objektfeldes über einer Blendenöffnung auf, die eine ausrei­ chende Größe hat, um einzelne Elemente des Objektfeldes aufzu­ lösen. Die holographische Aufzeichnung kann für mehrere Zwecke benutzt werden, zu welchen das Aufnehmen von Verschie­ bungen oder die Rekonstruktion des Objektfeldes, wie darge­ stellt, gehören.
Die Vorrichtung weist Einrichtungen auf zum Erzeugen von gegenseitig kohärenten optischen Beleuchtungs- und Referenz­ bündeln und eine Ladungsverschiebungsvorrichtungs(CTD)-Kamera, die eine Blendenöffnung hat, welche auf das Objektfeld gerichtet ist, das Referenzbündel empfängt und in bezug auf die Bündel und das Objektfeld geeignet ausgerichtet ist, um holographische Daten aufzuzeichnen. Die Kamera, die ohne ein herkömmliches Fokussierobjektiv arbeitet, tastet die Beleuch­ tung ab, welche auf Fotodetektoren auftrifft, die in der Sensor­ ebene angeordnet sind. Die Beleuchtung, die auf die Sensor­ ebene auftrifft, kann als eine Fresnel/Fourier-Transfor­ mation des an dem beleuchteten Objekt reflektierten Lichtes gekennzeichnet werden.
Die elektrischen Signale, die aus den Fotodetektoren gewonnen werden, werden in dem A/D-Wandler 24 in ein Digitalformat um­ gewandelt und dann an ein FIR-Filter 25 angelegt, um uner­ wünschte Beleuchtungsglieder zu beseitigen und die gewünschte Phasen- und Amplitudeninformation zu gewinnen, die zum Kenn­ zeichnen des Hologramms erforderlich ist. Ein wichtiges Merkmal der Vorrichtung ist das Bilden von Differenzen zwischen den Ausgangssignalen von benachbarten Fotodetektoren. Das kann physikalisch zwar Teil der Schaltungsanordnung in der Sensorebene sein, mathematisch wird es jedoch als ein Teil des FIR-Filters aufgefaßt. Die Dezimierung der Daten um 2 oder 4 (d. h., jede zweite oder vierte Abtastprobe der ge­ filterten Daten zu nehmen) vereinfacht normalerweise die spä­ tere Datenverarbeitung und ist durch den Block 26 dargestellt. Eine zusätzliche Matrixverarbeitung der gefilterten Daten kann durch einen Fresnel/Fourier-Transformator 27 erfolgen, um das Objektfeld für eine Anzeigeeinrichtung 28 zu rekonstruieren.
Gemäß der Darstellung in Fig. 1A stammen das Beleuchtungs- und das Referenzbündel aus einem einzigen Laser 10, wobei der Strahl aus dem Laser auf einen Strahlteiler 11 trifft, der einen Teil der Laserenergie auf eine gesonderte Bahn für das Referenzbündel ablenkt. Der Teil des Laserstrahls, der nicht abgelenkt wird, wird der Beleuchtungsbündeloptik 12 zugeführt, in welcher der Laserstrahl aufgeweitet wird, um das Objektfeld 13 zu beleuchten. Somit tritt kohärentes Licht, das an dem Objektfeld reflektiert wird, in die Blendenöffnung 14 der CTD-Kamera 15 ein und erzeugt ein Tupfenmuster über der Sensorebene 16 der Kamera. Der Teil der Laserenergie, der an dem Strahlteiler 11 abgelenkt wird, durchquert die Zeit­ verzögerungsoptik 17, einen Spiegel 18, eine Referenzbündel­ formoptik 19 und einen Spiegel 20. Der Spiegel 20 projiziert das Referenzbündel zurück durch die Öffnung 14 auf die Sensor­ ebene 16 der Kamera. Die Beleuchtungsbündelformoptik 12 hat die Funktion, denjenigen Teil des Objektfeldes zu be­ leuchten, der durch die Kamera betrachtet wird. Die Referenz­ bündelformoptik 19 hat die Funktion, die Sensorebene zu be­ leuchten, was eine Maßnahme zum Erzielen der Phaseninformation für das Hologramm darstellt. Die Optik 19 ist, was noch näher erläutert werden wird, so ausgelegt, daß sie die virtu­ elle Quelle des Referenzbündels in derselben Entfernung (Z- Koordinate) von der Sensorebene wie das Zentrum des Objekt­ feldes plaziert.
In der Darstellung in Fig. 1A gehen die Strahlengänge sowohl des Beleuchtungs- als auch des Referenzbündels von dem Laser 10 aus und endigen beide auf der Sensorebene der Kamera. Wenn die Weglängen der beiden Bündel ausreichend gleichge­ macht werden, werden beide Bündel die Sensorebene im Mittel zur selben Zeit erreichen, und jede Laserinstabilität wird minimiert werden, wodurch die fraktionelle optische Wellen­ längengenauigkeit in der holographischen Information, die in der Sensorebene abgelesen wird, bewahrt wird. Die Zeitverzö­ gerungsoptik 17 bildet die Einrichtung zum Gleichmachen der Weglängen der beiden Bündel. Differenzen in den Weglängen der beiden Bündel von dem Laser 10 bis zu der Sensorebene 16 werden immer vorhanden sein, wenn das Objektfeld eine ausge­ dehnte Tiefe (in Richtung der Z-Achse) hat. Größere Differenzen zwischen den beiden Weglängen können aber toleriert werden, wenn die Kohärenzlänge des Lasers vergrößert wird. Je stabiler der Laser ist, umso größer sind deshalb die tolerier­ baren Differenzen in den Weglängen und umso größer ist die Schärfentiefe, bevor eine Instabilität in den Messungen bedeutsam wird.
Das Referenzbündel bildet die Einrichtung zum Gewinnen der Phaseninformation für das Hologramm. Wenn das Referenzbündel auf das Tupfenmuster auftrifft, das bereits auf der Sensor­ ebene der Kamera aufgrund des Beleuchtungsbündels vorhanden ist, wird ein räumlich periodisches Interferenzmuster, das als ein "gerastertes Tupfenmuster" bezeichnet werden kann, erzeugt. Das Interferenzmuster mit seinen aufeinanderfolgenden hellen und dunklen Gebieten gestattet geeignet angeordneten Sensoren, welche nur die Intensität des Lichtes abfühlen, sowohl dessen Amplitude als auch dessen Phase zu bestimmen.
Die Phase wird selbstverständlich in bezug auf die Phase des Referenzbündels gemessen. Die Analyse zeigt, daß, wenn eine ausreichende räumliche Abtastung jedes Tupfens im Mittel ge­ wonnen wird, die Amplituden- und Phaseninformation jedes Tupfens (im Mittel) und allgemein eine ausreichende Menge an Information des komplexen Wellenfeldes an den Sensor zum Aufzeichnen des Hologramms zur späteren Rekonstruktion des Objektfeldes gewonnen werden kann.
Die CTD-Kamera kann zwar mehrere Formen annehmen, wesentlich ist jedoch für eine wirksame Signalvorverstärkung und für die FIR-Filterung des Fotodetektorausgangssignals, daß die Kamera eine Einrichtung bildet zum Gewinnen von Signaldifferenzen zwischen aufeinanderfolgenden Fotodetektoren längs gemeinsamer Zeilen.
Eine geeignete Kamera für diesen Zweck ist eine Ladungs­ injektionsvorrichtung (CID), die eine Matrix von üblicherweise 256 × 256 Fotodetektorstellen hat, welche zeilenweise ausge­ lesen werden, wie es in den Fig. 8A, 8B und 8C gezeigt ist. Die Einzelheiten der Kamera und die Einrichtung, durch welche die Differenzen gebildet werden, werden im folgenden erläutert.
Die Aufzeichnung von holographischer Information gewinnt stark an Genauigkeit der Amplituden- und Phasenmessung und an Gesamtempfindlichkeit, wenn die räumlichen Beziehungen, die in Fig. 1A dargestellt sind, aufrechterhalten werden. Die Beleuchtung, die Quelle des Referenzbündels und die Lage des Objektfeldes bilden ein Dreikoordinatensystem, mit dem die Winkelöffnung und die Sensorebene der Kamera für optimale Phasen- und Amplitudentreue und für maximale Empfindlichkeit ausgerichtet werden müssen. Die richtige Positionierung der Referenzquelle, des Objektfeldes und der Kamera legt die Position, die Orientierung und die Raum- oder räumliche Frequenz der Streifen fest und macht in der bevorzugten Anordnung die räumliche Frequenz der Streifen über der Blendenöffnung der Kamera im wesentlichen konstant. Die richtige Orientierung der Sensor­ ebene der Kamera in Relation zu den Streifen und die richtige Vergrößerung der Streifen in Relation zu dem Intervall zwischen den Sensoren in der Sensorebene erleichtern die Genauigkeit beim Aufzeichnen der holographischen Information weiter. Das wird nun im einzelnen erläutert.
Gemäß Fig. 1A ist die Kamera im Idealfall so positioniert, daß die Mitte 21 des Objekts auf einer Linie liegt, die recht­ winkelig zu der Sensorebene ist, welche von dem Mittelpunkt 22 ihrer Öffnung aus errichtet worden ist. Der Ursprung eines dreiachsigen Koordinatensystems ist daher der Mittelpunkt der Sensorebene, wobei die Z-Achse die Linie ist, die zu der Sensor­ ebene rechtwinkelig ist und durch die Mitte 21 des Objekts geht. Die X- und die Y-Achse liegen in der Sensorebene, aber ihre Orientierung bleibt unbestimmt, bis die Position des Referenzbündels festgelegt ist.
Die Referenzbündelformoptik 19 wird so justiert, daß die Position der virtuellen Quelle des Referenzbündels in dem Punkt 23 plaziert wird. Die virtuelle Quelle 23 des Referenz­ bündels ist in bezug auf das Objektfeld klein und kann als eine Punktquelle behandelt werden. Die Interferenzstreifen, die durch die Referenzbeleuchtung erzeugt werden, und das beleuchtete Objektfeld sind im Mittel zu der durch die Punkte 21, 22 und 23 definierten Ebene rechtwinkelig. Andererseits wird nur Licht, das längs der Schnittlinie der Ebene 21, 22, 23 mit dem Objektfeld ausgeht, Streifen erzeugen, die zu dieser Ebene exakt rechtwinkelig sind. Exaktheit ist nicht erforderlich, um genaue Ergebnisse über einem vernünftigen Sichtfeld zu erzielen. Zum Abtasten der räumlichen Frequenz der Streifen, die von allen Punkten des Objektfeldes aus erzeugt werden, sollten daher die Fotodetektoren in Zeilen angeordnet sein, welche zu der Ebene (21, 22, 23) parallel sind.
Der Schnitt dieser Ebene (21, 22, 23) mit der Sensorebene definiert somit die X-Achse und infolgedessen die Position der Y-Achse, die als zur X-Achse rechtwinkelig definiert worden ist. Die Spalten von Sensoren sind zu der Y-Achse parallel. Die Zeilen von Sensoren, die benutzt werden, um die räumliche Phase der Streifen zu bestimmen, sind somit zu der X-Achse parallel.
Weiter ist gemäß der Erfindung die virtuelle Referenzquelle in derselben Z-Koordinatenentfernung von dem Ursprung wie der Mittelpunkt 21 des Objektfeldes 13 angeordnet. Das hat den Vorteil, daß die Parallaxe von unterschiedlichen Blick­ punkten innerhalb der Empfangsblendenöffnung her bezüglich desselben Objektpunktes reduziert wird und daß der Streifen­ abstand gleichmäßiger gemacht wird. Bei Gleichmäßigkeit des Streifenabstands wird die Konstanz der räumlichen Abtast­ frequenz wirksamer.
Weiter hängt das räumliche Winkelspektrum von dem Winkel R zwischen dem Ursprung 23 des Referenzbündels und den Auflösungs­ punkten in dem Objektfeld 13 ab. Wenn das Objektfeld 13 in dem Fernfeld der Empfangsöffnung ist, ist der Winkel zwischen einem bestimmten Punkt in dem Objektfeld und der Normalen zu der Ebene der Empfangsöffnung (d. h. der Z-Achse) für alle Blickpunkte innerhalb der Empfangsöffnung derselbe. Unter diesen Bedingungen ist ein kollimiertes Referenzbündel, das aus dem Fernfeld zu kommen scheint, erwünscht. Wenn je­ doch das Objektfeld 13 in dem Nahfeld der Empfangsöffnung ist, was üblicherweise der Fall ist, erscheint ein fester Punkt in dem Objektfeld 13 unter verschiedenen Winkeln wie von verschiedenen Punkten innerhalb der Öffnung aus betrach­ tet. Unter diesen Bedingungen führt die Überlagerung eines kollimierten Referenzbündels unter einem festen Winkel zu einem Interferenzmuster, deren Streifenabstand sich mit der Position in der Öffnung beträchtlich ändert. Eine große Ver­ änderung im Streifenabstand führt zu einer ineffizienten Ab­ tastung des Musters. Der Zustand kann gemildert werden, indem der Punkt 23 des Referenzbündels in nominell demselben Z- Koordinatenabstand wie der Mittelpunkt 21 des Objektfeldes 13 plaziert wird. Unter diesen Bedingungen gibt es keine Parallaxe zwischen den Punkten in dem Objektfeld 13 und dem Referenz­ punkt 23. Das führt dazu, daß der Winkel zwischen dem Referenz­ punkt und jedem festen Punkt in dem Objektfeld 13 für alle Blickpunkte innerhalb der Empfangsöffnung nominell der­ selbe ist und daß Gleichmäßigkeit im Streifenabstand und Effizienz bei der Abtastung dieser Streifen mit einer konstanten räumlichen Abtastfrequenz gegeben sind.
Fig. 1B ist eine künstlerische Darstellung eines Teils des Streifenmusters, das auf der Sensorebene der Kamera 15 erscheint. Das Streifenmuster ist in demselben Maßstab und mit derselben Ausrichtung gezeigt wie das in Fig. 1C gezeigte Sensormuster.
In der Darstellung in Fig. 1B ist ein kleiner Teil des gesamten gerasterten Tupfenmusters gezeigt, und die Darstellung in schwarz und weiß ist eine grobe Annäherung an die allmählicheren Abstufungen in hell und dunkel, welche tatsächlich auf­ treten. Unter Annahme der Verwendung einer herkömmlichen Kamera zeigt die Darstellung nur etwa 0,2% des nutzbaren Tupfenmusters und der Sensorebene. Die Streifenbildung oder Rasterung der Tupfen ist auf die Interferenz zwischen mono­ chromatischem Licht aus dem Objektfeld 13 mit monochromatischem Licht aus der Referenzquelle 23 zurückzuführen. Die beiden Quellen sind, wie bereits beschrieben, gegenseitig kohärent, und solange die Elemente in dem Objektfeld 13 stationär sind, bleibt das Muster ebenfalls im wesentlichen stationär, wobei eine gewisse Störung dadurch verursacht wird, daß die Bündel durch Luft hindurchgehen, die sich bewegt, oder durch kleine Vibrationen der Elemente des optischen Systems.
Die Orientierung und der Abstand der Streifen werden durch die Positionierung der Punkte 21, 22 und 23 festgelegt. Somit ist jeder Streifen zu der Y-Achse parallel, und aufeinander­ folgende Streifen des Abtasttupfens haben längs der X-Achse gegenseitigen Abstand. Ein dunkles Gebiet und ein helles Gebiet ist eine volle Welle (2π Radian) der räumlichen Fre­ quenz des Tupfens, und ein Tupfen mittlerer Größe wird so gewählt, daß er wenigstens eine volle Welle von Streifen hat, so daß es möglich ist, die räumliche Phase des Tupfens zu erfassen. Die Anzahl von Streifen pro Tupfen wird durch die Winkelverschiebung R₀ der virtuellen Referenzquelle 23 gegenüber der Z-Achse gesteuert.
Die holographische Information aus einem Tupfen wird in ihrer Helligkeit und in ihrer augenblicklichen räumlichen Phase festgehalten. Gemäß der Darstellung in Fig. 1B unter­ scheidet sich die räumliche Phase jedes Tupfens von der seines Nachbarn auf anscheinend ziemlich willkürliche Weise.
Das Sensormuster, das in einem üblichen Fall viermal so fein wie das Streifenmuster ist, bildet die Einrichtung zum Abtasten des gerasterten Tupfens derart, daß sowohl die Phase als auch die Amplitude jedes Tupfens (im Mittel) wiedergewonnen werden und somit die zum Konstruieren eines Hologramms notwendige Information erzielt wird.
Die Beleuchtung erzeugt sowohl erwünschte als auch uner­ wünschte Glieder, auf welche die Sensoren ansprechen, während der Abtastprozeß seine eigenen Artefakte erzeugt. Die erwünschten und die unerwünschten Glieder sowie ein Teil der Artefakte, welche durch den Abtastprozeß hervorgerufen werden, werden in den Fig. 3, 4 und 6 behandelt.
Fig. 5 ist eine komplexe Z-Ebene-Darstellung der Filter­ leistung, die erforderlich ist, um das erwünschte Spektralglied auszuwählen und die unerwünschten Spektralglieder zu unter­ drücken. Die Auswahl der brauchbaren Glieder erfolgt durch Differenzbildung, die unter den Fotodetektorausgangssignalen vorgenommen wird, durch Einstellen der Referenzbündelinten­ sität in Relation zu der Objektfeldintensität und durch FIR- Filterung, was im folgenden noch näher erläutert wird.
Fig. 3 zeigt das in der X-Richtung gemessene Raumfrequenz­ spektrum der Intensitätsverteilung (quadrierte Größe der Lichtamplitude) in der gezeigten Empfangsöffnung. Die längs der horizontalen Achse gemessenen Einheiten sind Radian pro Längeneinheit. Der Parameter k ist gleich 2π dividiert durch die optische Wellenlänge. Der Winkel R X ist der im Ursprung 22 (in Fig. 1A) zwischen einem gewählten einzelnen Punkt 27 in dem Objektfeld und dem Bündelreferenzpunkt 23 gemessene Zentrumswinkel. (Somit ist zu erkennen, daß die Winkelposition eines einzelnen Punktes in dem Objektfeld 13 direkt in eine entsprechende einzelne Raumfrequenz­ komponente abgebildet wird.)
Das Raumfrequenzspektrum in der X-Richtung der Inten­ sitätsverteilung in der Empfangsöffnung nach Fig. 1A ist in Fig. 3 dargestellt. Das Raumfrequenzspektrum repräsentiert eine räumliche Fourier/Fresnel-Integration der Verteilung der optischen Leistung, die auf die Sensorflächenelemente über der Öffnung auftrifft.
Als ein erster Schritt zum Analysieren dieses Spektrums kann die optische Leistung pro Flächeneinheit in der Position p in der Ebene der Empfangsöffnung I(p) betrachtet werden. Sie kann folgendermaßen ausgedrückt werden:
I(p) = I R + (|S(p)|)² + I n (p) + I p (p) (1)
wobei
I R die im wesentlichen konstante Intensität über der Öffnungs­ ebene aufgrund des Referenzbündels ist;
(|S(p)|) die Größe des gesamten optischen Objektlichtes in dem Punkt p in der Empfangsöffnung aufgrund des gesamten beleuchteten Objektfeldes ist;
I n (p) die unerwünschte Komponente (negativer Frequenz) der Gesamtintensitätsverteilung entsprechend der Konjugierten des Lichtes aus dem Objektfeld ist, d. h. das Produkt der Konjugierten der komplexen Amplitude des Lichtes aus dem beleuchteten Objektfeld und der komplexen Amplitude des Lichtes aus der Referenzquelle; und
I p (p) die erwünschte Komponente (positiver Frequenz) der Gesamtintensitätsverteilung ist, die dem Licht aus dem Objekt­ feld entspricht, d. h. das Produkt der komplexen Amplitude des Lichtes aus dem beleuchteten Objektfeld und der Konjugierten der komplexen Amplitude des Lichtes aus der Referenzquelle.
Die vier Glieder des Ausdrucks (1) bilden, wenn sie durch einen räumlichen Fourier/Fresnel-Transformator über der Öffnung integriert werden, vier entsprechende räumliche Spektral­ glieder. Wenn die Kamera 15, die Beleuchtungsgeometrie und das Objektfeld 13 geeignet angeordnet sind, sind die sich ergebenden Spektralglieder in gegenseitig getrennten Positionen über dem Raumfrequenzspektrum verteilt, das in Fig. 3 dargestellt ist.
Die mathematische Basis für die Glieder des Ausdrucks (1) kann am besten erläutert werden, indem auf eine Analyse der Intensitätsverteilung über der Öffnung der Sensorebene unter Verwendung des elementaren Beispiels von zwei punktgroßen Lichtquellen, die in Fig. 2 dargestellt sind, zurückgegriffen wird. Hier wird angenommen, daß ein Referenzbündel vorhanden ist, welches Licht aus einem willkürlich angeordneten Referenz­ punkt abstrahlt, und daß ein nahegelegenes Objektfeld vorhanden ist, das aus einem einzelnen Punkt besteht, der reflektiertes Licht abstrahlt. Eine mathematische Beschreibung des sich ergebenden Interferenzmusters über einer ent­ fernten Sensorebene innerhalb der Empfangsblendenöffnung der Kamera ist Gegenstand der folgenden Erläuterung.
Das Beispiel nach Fig. 2 mit den beiden Punktquellen basiert auf dem bereits beschriebenen dreiachsigen rechtwinkeligen Koordinatensystem. Die drei interessierenden Punkte sind die Orte der Punktquellen (bezeichnet als Referenzpunktquelle und als Objektfeldpunktquelle) und ein Beobachtungspunkt in der Empfangsöffnung. Die Vektoren werden so definiert, wie sie die Punkte gemäß der Darstellung in Fig. 2 miteinander ver­ binden. Es gelten folgende Definitionen.
(X R , Y R , Z R ) sind die Koordinaten der Referenzbündelpunkt­ quelle,
(X S , Y S , Z S ) sind die Koordinaten der Objektfeldpunktquelle,
(x, y, 0) sind die Koordinaten des Beobachtungspunktes in der Empfangsöffnung,
R ist der Abstandsvektor von dem Referenzpunkt zu dem Beobachtungspunkt,
S ist der Abstandsvektor von dem Objektfeldpunkt zu dem Beobachtungspunkt,
V R , V S sind die Größen der Abstandsvektoren.
Es werden sphärische Wellen betrachtet, die von jedem Punkt abgestrahlt werden. Diese Wellen können folgendermaßen beschrieben werden. Die komplexe Amplitude einer Welle, die von dem Referenzpunkt in einem Bereich R von einem Beobachtungs­ punkt auf dem Sensor ausgeht ist:
wobei:
A R /r die Größe der komplexen Amplitude einer Welle ab dem Referenzpunkt in dem Bereich r von einem Beobachtungspunkt auf dem Sensor ist (wobei die quadrierte Größe gleich der optischen Leistung pro Flächeneinheit in dem Bereich r ab dem Referenzpunkt ist). Φ R ist die Phase der Referenzwelle in dem Quellenpunkt (d. h. bei r=0). Die komplexe Amplitude einer Welle ab dem Objektfeldpunkt in einem Bereich r ab einem Beob­ achtungspunkt auf dem Sensor ist:
wobei:
A S /r die Größe der komplexen Amplitude einer Welle ab einem Objektfeldpunkt in dem Bereich r ab einem Beobachtungspunkt auf dem Sensor ist (wobei die quadrierte Größe gleich der optischen Leistung pro Flächeneinheit in dem Bereich r ab dem Referenzpunkt ist). Φ S ist die Phase des Objektpunktes an seiner Quelle (d. h. bei r=0).
Die komplexe Gesamtamplitude in einem gewählten Beobachtungs­ punkt ist die Überlagerung dieser beiden Komponenten, wobei die geeigneten Werte für die Vektorgrößen für r nach Bedarf benutzt werden.
Die Intensität I für das Beispiel mit zwei Punktquellen variiert mit der Position (x, y) des Beobachtungspunktes in der Empfangsöffnung. Der Ausdruck für die Intensität I, der unter Verwendung von gewissen vereinfachenden Annahmen gewonnen werden kann (z. B., daß der Abstand zwischen den beiden Punkt­ quellen in Relation zu ihren Abständen von dem Beobachtungs­ punkt klein ist), kann folgende Form annehmen:
wobei:
wobei:
Somit ist zu erkennen, daß sich die Intensität in der Empfangs­ öffnung sinusförmig mit der Position um einen Vorspannungs­ wert verändert. Die räumlichen Frequenzen in den x- und y-Richtungen dieser Veränderung hängen, wie ersichtlich, von dem Winkel zwischen den Referenz- und Objektpunkten ab, und zwar von dem Beobachtungspunkt in der Empfangsöffnung aus gesehen. Das Plazieren des Referenzpunktes in demselben Be­ reich wie der Objektpunkt eliminiert die Parallaxe zwischen diesen Punkten, was dazu führt, daß dieser Winkel und die entsprechende räumliche Frequenz über der Empfangsöffnung konstant sind.
Die räumliche Phase dieser sinusförmigen Variation hängt er­ sichtlich von der Phasendifferenz zwischen den Objekt- und Referenzpunkten sowie von deren Positionen ab. Diese sind durch Φ S , Φ R bzw. V S , V R angegeben.
Das Vorspannungsglied (I R + I S ) in der Gleichung (2a) enthält keine brauchbare Information und sollte durch Differenzbildung in der Kamera eliminiert werden, was im folgenden näher erläutert ist.
Die Position des Objektpunktes relativ zu dem Referenzpunkt kann aus den räumlichen Frequenzen unter Verwendung der Glei­ chungen (2a) bis (2e) eindeutig bestimmt werden.
Die Position des sinusförmigen Musters kann aus den Sensor­ daten ermittelt und benutzt werden, um die Phase der Objekt­ punkte in Relation zu dem Referenzpunkt zu bestimmen. Das entspricht der Größe, die in Gleichung (2a) mit Φ S - Φ R + k (V S - V R ) angegeben ist.
Die Amplitude A S des Objektpunktes kann aus der Gleichung (2c) bestimmt werden, wenn die Intensität I S und der Bereich V S bekannt sind. Der Bereich ist aus der Objektrekonstruktion bekannt. Die Intensität wird aus der Amplitude der sinusförmigen Variation bestimmt, wie es in Gleichung (2a) zu erkennen ist. Es wird angenommen, daß die Referenzintensität I R bekannt ist.
Zusammenfassend ist festzustellen, daß, wenn die Position, die Amplitude und die Phase des Referenzbündelpunktes bekannt sind und die Beziehung des Ausdrucks (2a) bis (2e) benutzt wird, die unbekannte Position, Amplitude und Phase des nahe­ gelegenen Objektpunktes aus den Einzelheiten des Intensitäts­ musters bestimmt werden kann, das aus der Überlagerung von Licht von dem Referenzpunkt und einem unbekannten Objektpunkt in einer Empfangsöffnung resultiert. Die vorstehende Analyse basiert auf einem Zweipunktbeispiel.
Das Objektfeld nimmt jedoch ein ausgedehntes, aber endliches Volumen im Raum statt den soeben betrachteten einzelnen Punkt ein. Der Referenzpunkt unterscheidet sich von den Punkten in dem Objektfeld dadurch, daß er sich außerhalb der Objektfeldgrenzen befindet und daß er aus Gründen, die noch erläutert werden, heller gemacht wird als das Objektfeld. Das heißt, die Intensität in jedem Punkt in der Empfangsöffnung aufgrund des Referenzbündels ist größer als die Intensität in diesem Punkt aufgrund des Lichtes, das von dem gesamten Objektfeld ausgeht.
Die folgende Gleichung (3) gibt die komplexen Amplituden S(p) in einem Punkt p in der Empfangsöffnung aufgrund des gesamten ausgedehnten Objektfeldes an. Der Gesamtvektor des elektrischen Feldes in irgendeinem Punkt in dieser Öffnung ist die Überlagerung der Felder aufgrund der Schar von Quellen in dem Objektfeld, und seine komplexe Amplitude lautet wie folgt:
wobei:
p ein Punkt in der Empfangsöffnung ist,
p S ein lichtabstrahlender Punkt in dem Objektfeld ist (das viele derartige Punkte enthält),
S(p) die komplexe Gesamtamplitude (nach Größe und Phase) des E-Vektors in dem Punkt p in der Empfangsöffnung ist,
|A(p S )|, Φ (p S ) die Größe bzw. Phase der Lichtquelle in dem Punkt p S in dem Objektfeld sind,
r S (p, p S ) die Größe des Abstands von dem Punkt p S in dem Objektfeld zu dem Punkt p in der Empfangsöffnung ist, und dV ein Volumeninkrement ist, das Quellenpunkte des Objektfeldes enthält.
In allen Fällen, die gegenwärtig von Interesse sind, ist es die komplexe Verteilung (p) die zur Messung in der Empfangs­ öffnung verfügbar ist. Die entsprechende Quellenverteilung an dem Objekt, die durch die Größe A(p S ) und die Phase Φ(p S ) beschrieben wird, wird als das "äquivalente Objekt" definiert.
Das tatsächliche Objekt besteht üblicherweise aus physikalischen, reflektierenden Facetten, die durch kohärente Laser­ strahlung beleuchtet sind. Diese Facetten können diskrete streuende Partikel wie in einem Nebel oder Aerosol sein oder es kann sich um große Objekte mit durchgehenden reflektierenden Oberflächen handeln.
Die komplexe Lichtverteilung über der Empfangsöffnung muß geeignet verarbeitet werden, um die Wahrnehmung eines äqui­ valenten Objekts zu rekonstruieren. Optisch wird das üblicher­ weise durch eine Linse oder ein Objektiv gemacht. Im vor­ liegenden Fall wird für diesen Zweck eine Bündelformtechnik benutzt.
Wenn die komplexe Amplitude S(p) aus Gleichung (3) genommen wird, das Referenzbündellicht addiert wird und die Summe mit der komplexen Konjugierten multipliziert wird, ergibt sich die folgende Gesamtintensität I(p).
wobei:
I(p) die gesamte optische Intensität in dem Punkt p in der Empfangsöffnung ist,
I R die Intensität aufgrund des Referenzbündels ist, die mit der Position in der Empfangsöffnung gleichmäßig ist,
|S(p)| die Größe des gesamten optischen Amplitudensignals in dem Punkt p in der Empfangsöffnung aufgrund des gesamten Objektfeldes ist,
Φ Sp (p) die Gesamtphase von Licht in dem Punkt p in der Empfangsöffnung aufgrund des gesamten Objektfeldes ist (d. h. Φ Sp (p) = Φ S - k r S (p, p S )), und
Φ Rp (p) die Phase von Licht in dem Punkt p in der Empfangs­ öffnung aufgrund des Referenzbündels ist (d. h. Φ Rp (p) = Φ R - k r R (p, p R )),
worin gilt, r R (p, p R ) = Größe der Strecke von dem Referenz­ punkt zu dem Punkt p in der Betrachteröffnung.
Die Natur des Intensitätsmusters, das durch Gleichung (4) ge­ geben ist, kann abgeschätzt werden, indem es hinsichtlich der Zweipunktverteilung betrachtet wird, die durch die Gleichung (2a) bis (2e) gegeben ist. In sämtlichen Fällen ist die ge­ samte komplexe Amplitude die lineare Überlagerung der komplexen Amplituden aufgrund jedes Punktes einschließlich des Referenz­ punktes. Wenn mit der komplexen Konjugierten multipliziert wird, um die Intensität zu erzielen, ergeben sich sämt­ liche möglichen Kombinationen von Punktpaaren. Jedes Punkt­ paar kann gemäß der Gleichung (2a) bis (2e) beschrieben werden. Die Summe des Effekts von sämtlichen möglichen Punktpaar­ kombinationen ist das Gesamtergebnis und durch Gleichung (4) angegeben.
Die Punktpaarkombinationen können als einer von drei Typen betrachtet werden, entsprechend den drei Gliedern der Gleichung (4). Diese Typen sind:
  • - Referenzpunkt und Referenzpunkt
  • - Objektpunkt und Objektpunkt
  • - Referenzpunkt und Objektpunkt.
Der Referenzpunkt mal seiner komplexen Konjugierten ergibt das Glied I R , welches das große gleichförmige Vorspannungs­ glied ist, das in den beiden Gleichungen (2a) und (4) vorhanden ist.
Ein Objektpunkt mal der Konjugierten irgend eines anderen Objektpunktes (einschließlich seiner selbst) trägt zu der quadrierten Größe von S p bei, welche das zweite Glied der Gleichung (4) ist. Die Form jeder derartigen Paarkombination gleicht der durch die Gleichung (2a) bis (2e) beschriebenen, mit der Ausnahme, daß die Indizes R und S, die benutzt werden, um in der Gleichung (2a) bis (2e) den Referenzpunkt bzw. den Objektpunkt zu bezeichnen, durch m und n ersetzt werden, um Punkte m und n in dem Objektfeld zu bezeichnen.
Die höchsten räumlichen Frequenzen k x und k y , die für Glieder dieses Typs vorhanden sein können, werden durch die maximale Winkelausdehnung der Szene in der x- bzw. y-Richtung begrenzt (vgl. die Gleichungen (2d) und (2e)).
Diese maximale Frequenz diktiert ihrerseits eine minimale räumliche Größe eines Merkmals, das in der Empfangsöffnung aufgrund dieses zweiten Glieds vorhanden sein kann. Das ist im wesentlichen die minimale Tupfengröße, die vorhanden sein kann. Diese Tupfenverteilung ist durch die quadrierte Größe von S p gegeben. Das ist die Intensitätsverteilung, die in der Empfangsöffnung vorhanden wäre, wenn kein Referenzbündel vorhanden wäre. Da keine Phaseninformation in diesem Glied vorhanden ist, ist es nicht von Interesse und wird in der Kamera 15 unterdrückt, was weiter unten beschrieben wird.
Die letzten beiden Glieder, zu denen das interessierende gehört, resultieren aus dem Produkt von Licht aus dem Objekt­ feld mit der Konjugierten des Lichtes von dem Referenzpunkt plus der Konjugierten dieses Produkts. Die Summe davon wird direkt durch das Cosinus-Glied in Gleichung (2a) beschrieben. Die Summe aller dieser Cosinus-Glieder für alle Punkte in dem Objektfeld ergibt das Cosinus-Glied von Gleichung (4).
Der Referenzpunkt soll dieselbe y-Koordinate wie der Mittel­ punkt 21 des Objektfeldes 13 haben, wobei die x-Koordinate von dem Mittelpunkt des Objektfeldes in ausreichendem Maße nach außerhalb der Grenzen des Objektfeldes verschoben ist.
Unter diesen Bedingungen ist das räumliche Frequenzspektrum in der y-Richtung für das Cosinus-Glied in Gleichung (4) dasselbe wie für das Tupfenmuster, das durch die quadrierte Größe von S p gegeben ist.
In der x-Richtung wird jedoch die Mittenfrequenz des Spektrums durch den Winkel zwischen dem Referenzpunkt und dem Mittelpunkt 21 des Objektfeldes (13) diktiert (genaugenommen durch die Differenz zwischen dem Sinus des Referenzwinkels und dem Sinus des Objektwinkels gemäß den Gleichungen (2d) und (2e)). Dieses Spektrum breitet sich über eine Bandbreite aus, die durch die Winkelgröße des Objektfeldes in der x- Richtung diktiert wird, welche dieselbe Bandbreite wie die des Tupfenspektrums in der x-Richtung ist.
Das Gesamtintensitätsmuster, das durch Gleichung (4) gegeben ist, ist eine reelle Funktion. Somit hat ihr Raumfrequenz­ spektrum positive und negative Frequenzkomponenten, die komplexe Konjugierte voneinander sind.
Fig. 3 zeigt schematisch ein solches Raumfrequenz­ spektrum in der x-Richtung. Die Komponente, die in dieser Fig. schraffiert dargestellt ist, ist die interessierende Komponente. Die anderen gezeigten Komponenten sind das Er­ gebnis des nichtlinearen Quadriervorganges, der ausgeführt wird, um die Amplitude in die Intensität umzuwandeln.
Die gewünschte Komponente von Gleichung (4) wird erzielt, indem die Cosinusfunktion als die Summe von zwei komplexen Exponentialgliedern ausgedrückt und einfach das positive Exponentialglied genommen wird.
wobei:
I p (p) die gewünschte Komponente (positiver Frequenz) der Ge­ samtintensität ist, die dem Objektfeld entspricht.
wobei:
I n (p) die unerwünschte Komponente (negativer Frequenz) der Gesamtintensität ist, die der Konjugierten des Objektfeldes entspricht.
Das Verknüpfen der Definitionen der Gleichungen (5) und (6) mit Gleichung (4) ergibt die Gesamtintensitätsverteilung, die im Ausdruck (1) angegeben ist.
Es ist nun zu erkennen, daß diese vier Glieder additive Bei­ träge zu der Intensitätsfunktion repräsentieren, welche die optische Intensität beschreibt, die auf die Kamerablendenöffnung 16 gelangt. Diese vier Beiträge sind einander räumlich überlagert, wobei jeder von ihnen die gesamte Kamerablenden­ öffnung bedeckt. Diese Glieder können durch räumliche Filte­ rung getrennt werden, was der Verarbeitung durch eine räumliche Fourier/Fresnel-Transformation äquivalent ist.
Die Fourier-Operation ist linear, so daß die Fourier-Trans­ formation der Gesamtfunktion Glied für Glied ausgeführt wer­ den kann, was vier Fourier-Transformationsglieder ergibt, mit einer Eine-zu-Eins-Entsprechung zu den ursprünglichen vier Gliedern. Nach dem Transformieren sind diese Glieder nicht länger überlagert, sondern befinden sich in unterschiedlichen Positionen in dem Objekt- oder Raumspektralbereich, wie es in Fig. 3 gezeigt ist.
Somit kann das interessierende Glied Fourier/Fresnel-trans­ formiert werden, um eine mathematische Beschreibung des "äquivalenten Objekts" (schraffiertes Gebiet in Fig. 3) zu erzeugen. Der mathematische Algorithmus, durch den das er­ reicht wird, ist in den folgenden Formeln angegeben:
wobei r S = Größe des Punktabstands zwischen p und p s
<V S < = Mittelwert von V S
Unter Verwendung der Gleichung (5) zur Substitution ergibt sich:
Das ist im wesentlichen eine mathematische Beschreibung des Algorithmus, durch den das Objekt aus den Kameradaten rekon­ struiert wird. Das setzt voraus, daß die kohärente Beschrei­ bung des optischen Wellenfeldes, das von dem Objekt stammt, genau wiedergewonnen worden ist durch Isolieren (durch räum­ liche Filterung) des geeigneten (I p ) der vier Intensitäts­ glieder, die durch die Kamera direkt abgefühlt werden, gemäß der obigen Erläuterung, und daß dann aus diesem Wellenfeld­ profil die bekannte Geometrie des Referenzbündels entfernt wird. Das führt zu der Wellenfeld-Funktion, welche das Licht von dem Objekt in der Kameraebene beschreibt. Das äquivalente Objekt kann daraus in jeder Ebene am Ort des Objekts durch die geeignete Fresnel-Transformation wieder­ gewonnen werden.
Es ist ein wesentlicher Gesichtspunkt dieser Lehre, daß die äußerst optimierte FIR-Filterung den wirksamsten Weg zum Isolieren des gewünschten Glieds und zum gleichzeitigen Er­ zielen einer hohen Phasengenauigkeit darstellt. Diese Aus­ legungen gestatten die Verwendung von Daten, welche benach­ barte Differenzen darstellen, die auf derselben Kameramatrix gebildet werden, welche die optische Vorspannung eliminiert und eine gute Aufnahme selbst dann gestattet, wenn das Referenz­ bündel viel intensiver als das von dem Objekt kommende Licht ist. Darüber hinaus ergibt das eine wirksamere Daten­ übertragung aus der Kamera, da I- und Q-Abtastproben, die nur das gewünschte Glied darstellen, aus der Kamera durch das FIR-Filter geleitet werden können, wodurch die erforderliche Datenfrequenz für eine bestimmte Teilbildzeit reduziert werden kann.
Im Falle eines einzelnen Objektpunktes kann dieser Punkt durch einfache Formeln lokalisiert werden, statt daß es not­ wendig ist, sich mit der Komplexität einer vollständigen Fresnel-Transformation zu befassen. Die optische Phase im Falle des einzelnen Punktobjekts, die dem gewünschten Glied I p zugeordnet ist, kann folgendermaßen ausgedrückt werden:
Φ = k (V S - V R ) + Φ S - Φ R (9)
wobei V S , V R = Schrägabstand zum Objekt- bzw. virtuellen Referenz­ punkt ab dem Beobachtungspunkt:
p = x, y
und Φ S , Φ R = optische Reflexionsphase des Objekt- bzw. Referenz­ punkts.
In vielen Fällen ist Φ zeitlich moduliert (z. B. sinusförmig durch ein schwingendes Ziel), und zwar entweder durch eine Modulation des optischen Index in dem dazwischen gelegenen Medium oder durch eine Bewegung des Zielpunktes.
Durch geeignete Differentiation der obigen Formel nach x und y können die folgenden Relationen zwischen der Geometrie der Objekt-Referenz-Konfiguration und den aufeinanderfolgenden Differentialquotienten gezeigt werden:
Die Differentialquotienten dΦ/dx, d²Φ/dx² und die ent­ sprechenden Differentialquotienten nach y können aus den Phasen­ daten ermittelt werden, die das FIR-Filter liefert. Diese Differentialquotienten werden unter Verwendung eines globalen Interpolationsalgorithmus berechnet, der die meisten oder sämtliche Daten an der Kamerablendenöffnung benutzt, was so­ mit ein hohes Ausmaß an räumlichen Integrationsgewinn zum Ver­ bessern des Rauschabstands ergibt. Somit sind alle Elemente auf der rechten Seite der Gleichung (10) bekannt, und V S kann berechnet werden. Wenn das gemacht worden ist, sind sämtliche Elemente auf den rechten Seiten der Gleichungen (11) und (12) bekannt, und X S , Y S können berechnet werden, was zur voll­ ständigen Lokalisierung des Objektpunktes führt.
Aus den Gleichungen (10)-(12) ist zu erkennen, daß die Winkel­ position (in der x- und y-Richtung) des Objekts von dem Beobachtungspunkt in der Blendenöffnung der Kamera aus pro­ portional zu der ersten Ableitung der Phase ist, welche die räumliche Frequenz in x oder y ist. Die Schrägdistanz V S ist ungefähr proportional zu dem Kehrwert der zweiten Ableitung der Phase.
Gemäß Gleichung (5) hat das gewünschte Glied I p (p) einen Amplitudenskalenfaktor, der gleich der Quadratwurzel der Referenz­ bündelintensität ist. Das Erhöhen der Referenzbündel­ intensität erhöht entsprechend die Amplitude des gewünschten Glieds über jedes elektronische Rauschen in der Umgebung.
Darüber hinaus zeigt Gleichung (5) das Vorhandensein einer zusätzlichen Phase von Φ Rp subtrahiert von der Signalphase. Diese Phase rührt von dem Referenzbündel her und hat folgende Form
Φ Rp (p) = Φ R - k r R (p, p R ) (13)
wobei:
r(p, p R die radiale Strecke von dem Referenzpunkt zu dem Punkt p in der Empfangsöffnung (wie oben definiert) ist und Φ R die Referenzbündelphase in dem Referenzpunkt (wie oben definiert) ist.
Die Lehre aus Gleichung (5) ist, daß die Phase des gewünschten Signals korrigiert werden muß durch Subtrahieren einer zusätzlichen Phasenverschiebung von k r R (p, p R ), um ein Ergebnis zu erzielen, das mit dem identisch ist, das aufgrund des Objektfeldes allein ohne irgendwelche holographischen Messungen vorhanden sein würde. Gemäß der unten folgenden Er­ läuterung kann die Korrektur dieser Phase durch anschließende Softwareverarbeitung erzielt werden.
Die Gleichung (1) liefert die optische Leistung pro Flächen­ einheit in der Position p in der Ebene der Empfangsöffnung. Diese Öffnung enthält diskrete Aufnahmebereiche gemäß der Dar­ stellung in Fig. 1C, welche die Gesamtleistung über einer bestimmten Fläche integrieren, um eine einzelne reale Zahl zu erhalten, welche der gemessene Abtastwert für diese Position ist.
Die folgenden Parameter, die in Fig. 1C dargestellt sind, werden zum Definieren der Sensorgeometrie benutzt.
w ist die Breite jeder Sensorfläche in x-Richtung,
h ist die Höhe jeder Sensorfläche in y-Richtung,
d x ist der Abstand in x-Richtung zwischen den Sensor­ mittelpunkten,
d y ist der Abstand in y-Richtung zwischen den Sensor­ mittelpunkten,
m, n sind die ganzzahligen Indizes, die dem Sensor m in x-Richtung und dem Sensor n in y-Richtung entsprechen,
(m d x , n d y ) sind die x,y-Koordinaten des Mittelpunkts des Sensorelements m bzw. n.
Mit diesen Definitionen ist die Gesamtleistung, die durch das Element m, n der Kamera abgefühlt wird, durch folgende Gleichung gegeben:
wobei:
P(m,n) die gesamte optische Leistung ist, die durch das Element m, n in der Kameramatrix abgefühlt wird, und
I(x,y) die Intensität I(p) in dem Punkt x, y (d. h. in dem Punkt p) in der Empfangsöffnung ist, welche durch Gleichung (1) gegeben ist.
Durch Einsetzen der Gleichung (3) in die Gleichungen (5) und (6) und durch Verknüpfen mit der Gleichung (1) wird die In­ tensität in dem Punkt x, y in der Empfangsöffnung ausgedrückt durch die Amplitudenverteilung A(p S ) des Objekts. Diese Ver­ knüpfung enthält ein Volumenintegral über dem Objekt aus der Gleichung (3).
Durch das Einsetzen dieses sich ergebenden Intensitätsmusters in die Gleichung (14) ergibt sich das Gesamtausgangssignal des Sensors m, n in der Kameramatrix. Dieses enthält ein Flächen­ integral in x, y über der Sensorfläche sowie ein Volumen­ integral über dem Objekt.
Die Reihenfolge der Integration ist umgekehrt, die Flächen­ integration wird zuerst ausgeführt.
Bei der Ausführung dieser Flächenintegration wird die Größe |S(p)| der Lichtverteilung über der Fläche eines einzelnen Sensors als konstant und gleich seinem Wert in dem Mittel­ punkt des Sensors angenommen. Diese Approximation ist ge­ rechtfertigt, da der Mittenabstand x, y der Abfühlbereiche klein genug sein muß, um die räumliche Abtastung darin zu er­ füllen (d. h. wenigstens zwei räumliche Abtastproben pro Tupfen). Das ist dargestellt durch die relativen Größen des Rastertupfenmusters, das in Fig. 1B dargestellt ist, und die Sensorgröße, die in Fig. 1C dargestellt ist.
Innerhalb der Grenzen dieser Approximation wird folgendes Ergebnis erzielt:
P(m,n) = P₀ + P S (m,n) + P n (m,n) + P p (m,n) (15a)
P₀ = h · w · I R (15b)
P S (m,n) = h · w · [|S[m · d X · n · d Y ]|] ² (15c)
P n (m,n) = {P p (m,n)}* = komplexe Konjugierte von P p (m,n) (15f)
wobei:
A(P S ) = komplexe Amplitude des Punkts P S im Objektfeld,
Φ(m,n,P S ) = Phasenverschiebung des Lichts bei der Ausbreitung von dem Punkt P S im Objektfeld zu dem Detektor m, n,
Φ R (m,n) = Phasenverschiebung des Lichts bei der Ausbreitung von dem virtuellen Referenzpunkt zu dem Detektor m, n,
k x k y = Raumfrequenzkoordinaten bezogen auf den Winkel zwischen dem Objektpunkt und dem Referenz­ punkt, wie in Gleichung (2) angegeben.
Die Gleichung (15) faßt die Auswirkung der endlichen Fläche jedes Detektors zusammen. Die gemessene Leistung wird mit der Fläche w h jedes Detektors bewertet. Die endlichen Größen w und h in den beiden Richtungen führen zu Winkelantennen­ diagrammen, die durch die beiden Sinc-Funktionen des Winkels ge­ geben sind, wie es in Fig. 4 gezeigt ist. Das übrige Phasen­ glied ist einfach die Gesamtphase in dem Mittelpunkt des gegebenen Detektors m, n.
Fig. 4 zeigt die Auswirkung des Winkelbeugungsmusters auf das Objektfeld. Aus dieser Fig. ist zu erkennen, daß die Winkel­ ausdehnung des Objektfeldes und des Referenzpunktes klein genug sein muß, damit die Sinc-Funktionen die interessierende Szene innerhalb ihrer Hauptkeulen enthalten, wie dargestellt. Unter diesen Bedingungen sind die Auswirkungen der Sensoren endlicher Fläche und ihrer entsprechenden Antennendiagramme gering und können im allgemeinen vernachlässigt werden.
Diese Abtastproben endlicher Fläche werden als Approximationen für Abtastproben in Punkten mit der Fläche Null in der Mitte jeder Sensorzelle genommen. Wenn diese Abtastproben so interpretiert werden, wiederholen sich die Spektren mit den Abtastfrequenzen ad infinitum sowohl in der x- als auch in der y-Richtung. Dieser Effekt ist in Fig. 6 skizziert. Die Spektren der Punktabtastproben werden durch die Sinc-Funktion- Beugungsmuster wie oben erläutert modifiziert, um die end­ lichen Flächen der Detektoren zu berücksichtigen.
In der Praxis können die Abfühlbereiche im wesentlichen an­ einanderstoßend gemacht werden, so daß die Breiten w und h im wesentlichen gleich den Mittenabständen d X bzw. d Y sind.
d X = w (16a)
d Y = h (16b)
Unter diesen Bedingungen entsprechen die ersten Nullen in den Sinc-Diagrammen bei k sin R x =2π/w und k sin R y =2π/h den Abtastfrequenzen, wo sich die Nullordnungen bei 2π/d X bzw. 2f/d Y wiederholen. Das ist nominell die Situation, die in den Fig. 4 und 6 gezeigt ist.
Zusammenfassend läßt sich feststellen, daß die Fläche jeder Abtastzelle im Vergleich zu der Größe eines Tupfens klein sein muß, d. h. kleiner als ¼. Unter diesen Bedingungen be­ steht die Hauptauswirkung der endlichen, von Null verschiedenen Größe der Abfühlfläche darin, daß dem Objektfeld die ge­ ringfügige Amplitudenbewertung gegeben wird. Die resultierende Messung, die an jeder Abfühlstelle gemacht wird, wird als eine Approximation einer räumlichen Punktabtastprobe betrachtet, die zu dem üblichen wiederholten Spektrum aufgrund der periodischen Abtastung führt, wie es in Fig. 6 gezeigt ist.
Die gesamte optische Leistung, die durch jede Sensorzelle in der Kamera erfaßt wird, ist durch die Gleichung (15) gegeben. Gemäß obiger Erläuterung ist P o das dominante Glied in diesem Ausdruck, wogegen P p das viel kleinere Glied von Interesse ist.
Um zu verhindern, daß der nutzbare Dynamikbereich des Kamera­ ausgangssignals durch das große unerwünschte Vorspannungs­ glied verbraucht wird, wird dieses Glied unterdrückt, indem die Differenzen zwischen benachbarten Zellen in der x-Richtung gebildet werden und diese Differenz abgegeben wird.
C(m,n) = P(m + 1, n) - P(m,n) (17)
wobei:
C(m,n) = Kameraausgangssignalabtastprobe m in x-Richtung und n in y-Richtung.
Unter Verwend 41029 00070 552 001000280000000200012000285914091800040 0002004011465 00004 40910ung der Nomenklatur Gleichung (15) werden die folgenden Definitionen gemacht und mit den Gleichungen (15) und (17) verknüpft.
C S (m,n) = P S (m + 1, n) - P S (m,n) (18a)
C n (m,n) = P n (m + 1, n) - P n (m,n) (18b)
C p (m,n) = P p (m + 1, n) - P p (m,n) (18c)
C(m,n) = C S (m,n) + C n (m,n) + C p (m,n) (18d)
Das große Gleichstromvorspannungsglied P o erscheint in den obigen Gleichungen nicht, die das Kameraausgangssignal angeben. Somit wird der Dynamikbereich durch aussagekräftige Daten ausgenutzt.
In dem Bereich der räumlichen Frequenz, der durch die Fig. 3, 4 und 6 dargestellt ist, wird durch diesen Differenzbildungs­ prozeß der Gleichstromimpuls der Ordnung Null im Ursprung effektiv beseitigt. Die interessierende Information wird auf die schraffierten Bereiche in den Fig. beschränkt. Das entspricht P p in Gleichung (15).
Es ist zu erkennen, daß jeder gewünschte Ausdruck P p (m,n) innerhalb eines Glieds, das in m (d. h. in der x-Richtung) konstant ist, aus einer geeigneten Linearkombination der ver­ schiedenen Ausgangssignale C (m,n) erzielt werden kann. Somit ist keine bedeutsame Information von Interesse bei dieser Differenzbildungsoperation verlorengegangen.
Die Fig. 8A, 8B und 8C zeigen eine Anordnung zur "Differenz­ bildung" in der Kamera. Das kann als die erste Stufe eines FIR-Filters aufgefaßt werden, das mit den abgetasteten Daten arbeitet.
Die CTD-Kamera kann mehrere Formen annehmen, wesentlich ist sowohl für eine effiziente Signalvorverstärkung als auch für die FIR-Filterung, daß die Kamera Einrichtungen aufweist zum Erzielen von N Signaldifferenzen zwischen aufeinanderfolgenden Fotodetektoren in einer Zelle von (N+1) Fotodetektoren (d. h. P₁-P₀, P₂-P₁, P₃-P₂, . . ., P N -P N-1) wobei P i das Ausgangssignal eines Fotodetektors ist und wobei der Index "i" seine Position in der Zeile bezeichnet.
Eine geeignete Kamera für diesen Zweck ist eine Ladungs­ injektionsvorrichtung (Charge Injection Device oder CID), die eine Matrix von üblicherweise 256 × 256 Fotodetektorstellen hat, die ausgelesen werden können, wie es in den Fig. 8A, 8B und 8C dargestellt ist.
Fig. 8A zeigt die Matrix in ihrer Gesamtheit, wobei Fig. 8B die Einzelheit der internen Torsteuerung an den unteren beiden Ausgangsanschlüssen R 2, R 4 des Vertikalwahlabtasters zeigt, und, wenn Fig. 8B transponiert wird (von rechts nach links), liefert sie die Einzelheit für die interne Torsteuerung an den unteren beiden Ausgangsanschlüssen R 2, R 4 des Vertikalwahlabtasters. Fig. 8C zeigt die Einzelheit, die für die ersten drei Anschlüsse am linken Ende des Horizontalab­ tasters gilt. Diese Anordnung zeigt eine herkömmliche CID mit Zeilenauslesung, wie sie ausführlicher in den US-Patentschriften 40 11 441, 40 84 257 und 42 41 421 beschrieben ist. Diese Patentschriften, auf die bezüglich weiterer Einzelheiten ver­ wiesen wird, veranschaulichen die Zeilenausleseoperation und das Bilden von Differenzen auf eine für die vorliegende Aus­ führungsform geeignete Weise. Die Fig. 9A und 9B zeigen drei Pixel oder Bildelemente der Matrix während des Auslesens, wo­ bei Fig. 9B das Auslesen zu einer späteren Zeit zeigt. Jedes Pixel der CID enthält zwei Speicherwannen, von denen die eine einer Zeilenleitung und die andere einer Spaltenleitung zuge­ ordnet ist. Das Auslesen erfolgt längs Zeilenleitungen, welche mit Anschlüssen VEE und VEO verbunden sind, die zu gerad­ zahligen und ungeradzahligen Zeilenverstärkern (nicht darge­ stellt) führen. Die Ladungsverschiebung zwischen Zeilen- und Spaltenspeicherwannen erfolgt, wenn Potentiale zum Zusammen­ brechenlassen der Wannen an die Spalten angelegt werden, welche durch den Horizontalabtaster, der in Fig. 8A gezeigt ist, abgetastet werden. Während des Abtastens der Matrix sammelt sich im Anschluß an die Injektion der zuvor ausgelesenen Ladung in das Substrat neue Ladung an und wird in den Spaltenwannen gespeichert.
Das Auslesen, welches Differenzen erzeugt, erfolgt in einem im wesentlichen aus drei Schritten bestehenden Verfahren, das am besten unter Bezugnahme auf die Fig. 9A und 9B verständlich wird. Die Spaltenwanne ist so ausgelegt, daß sie das doppelte Speichervermögen der Zeilenwanne hat, um sicherzustellen, daß sich die Spaltenwanne zuerst füllt und daß die Zeilenwanne leer bleibt. Diese ist in dem Zustand "0" vor dem Auslesen. In Fig. 9A sind das (i+1)te und das (i+2)te Pixel in dem Zustand "0", wogegen in Fig. 9B nur das i+2te Pixel (allein) in dem Zustand "0" ist. Das Zeilenauslesen erfolgt in einem sich wiederholenden, aus zwei Schritten bestehenden Verfahren. In dem Zustand eins wird ein Potential an den i ten Spaltenbus angelegt, welches die i ten Spaltenwannen zusammenbrechen läßt, was bewirkt, daß die fotoinduzierte Ladung in die Zeilenwanne des i ten Pixel verschoben wird, wie es in Fig. 9A gezeigt ist. In diesem Zeitpunkt kann, wenn das i te Pixel das erste Element in der Zeile ist, ein Verschiebungsstrom in dem Zeilenverstärker allein aufgrund der fotoinduzierten Ladung in dieser Spalte abgefühlt werden. Dieses Ausgangssignal, von dem keine Differenz gebildet wird, kann in dem Kamera­ ausgangssignal außer Betracht gelassen werden.
Fig. 9B zeigt den nächsten Zeitpunkt, in welchem das i te Pixel nun in den zweiten Zustand eintritt. In dem zweiten Zustand werden die (i+1)ten Spaltenwannen zum Zusammenbrechen ge­ bracht, während die i ten Spaltenwannen wiederhergestellt wer­ den. Das hat zur Folge, daß die fotoinduzierte Ladung des i ten Pixel aus der Zeilenwanne zurück in die Spaltenwanne be­ wegt wird, während sich die fotoinduzierte Ladung des (i+1)ten Pixel aus der Spaltenwanne in die Zeilenwanne bewegt. Die Ge­ samtverschiebungsladung an dem Eingang des Zeilenverstärkers ist die fotoinduzierte Ladung des zweiten Pixel minus derje­ nigen des ersten Pixel, d. h. (P i - P i-1). In einem Zeitpunkt später als dem in Fig. 9B dargestellten werden die (i+2)ten Spaltenwannen zum Zusammenbrechen gebracht, während die (i+1)ten Spaltenwannen wiederhergestellt werden, und der Ge­ samtverschiebungsstrom an dem Zeilenvorverstärker ist die fotoinduzierte Ladung des (i+2)ten Pixel minus der des (i+1)ten Pixel usw., da sich der Prozeß längs der Zeilen­ leitung wiederholt.
Das Kameraausgangssignal kann verarbeitet werden, um ein Spektrum zu erhalten, das dem in Fig. 6 dargestellten gleicht, mit der Ausnahme, daß die Gleichstromimpulse im Ursprung be­ seitigt worden sind. Das interessierende Signalspektrum kann durch seine räumliche Mittenfrequenz und seine Bandbreite folgendermaßen beschrieben werden:
k 0x = k · sin {α x } (19a)
wobei:
k 0x die räumliche Trägerfrequenz in x-Richtung in der Mitte des Signalbandes ist,
a x der Winkel in x-Richtung von dem Referenzpunkt zu der Mitte der Zielszene ist,
B x die Bandbreite der räumlichen Frequenz in der x-Richtung der Szene ist,
β x der Winkel in x-Richtung ist, der durch die interessierende Zielszene begrenzt wird.
Eine ähnliche Bedingung existiert in der y-Richtung, mit der Ausnahme, daß es in diesem Fall keinen verschobenen Träger gibt:
wobei:
B y die Bandbreite der Raumfrequenz in y-Richtung der Szene ist, und
β y der Winkel in y-Richtung ist, der durch die interessierende Zielszene begrenzt wird.
Gemäß der Darstellung in den Fig. 4 und 6 umfaßt das grundlegende Spektrum, das von Interesse ist, die gewünschte Komponente in dem oberen Band, ein unerwünschtes Basisbandspektrum und ein unerwünschtes konjugiertes Spektrum in dem unteren Band. Dieses grundlegende Spektrum wiederholt sich ad infinitum mit der räumlichen Abtastfrequenz, wie dargestellt. Die Beziehungen zwischen der Mittenfrequenz, der Bandbreite und der Abtastfrequenz diktieren die Abstände zwischen den gewünschten und unerwünschten Teilen dieses Spektrums.
In Abhängigkeit von der relativen Größe des Referenzbündel- und des Signalobjektlichts in der Kameraempfangsöffnung gibt es zwei gesonderte Kriterien für das Wählen dieser Beziehungen.
In dem typischen Fall kann das Referenzbündellicht in bezug auf das Licht, das von dem Objekt kommt, beliebig groß ge­ macht werden. Unter diesen Bedingungen kann das Glied P s (m,n) in der Gleichung (15) im Vergleich zu den anderen beiden Gliedern vernachlässigbar gemacht werden. Das entspricht einem vernachlässigbaren Glied der Ordnung Null in dem Basisbandteil des Spektrums.
In diesem Fall können das gewünschte Spektrum und seine uner­ wünschte Konjugierte maximal getrennt werden, indem die Mitten­ frequenz auf ein Viertel der Abtastfrequenz gelegt wird.
k 0x = π/2d x (21)
Diese Beschränkung, die durch die Gleichung (21) gegeben ist, führt dazu, daß die Mitten des gewünschten Spektrums und seiner unerwünschten Konjugierten in dem gesamten abgetasteten Spektrum um π/d x gleichmäßig getrennt sind. Das minimiert die Anforderungen an das anschließende Filter, welches das erwünschte Spektrum isolieren muß.
Das Glied nullter Ordnung resultiert aus der Faltung des ge­ wünschten Spektrums mit sich selbst. Es hat somit eine gesamte zweiseitige Breite, die gleich dem Doppelten der Signal­ bandbreite ist. Die tatsächliche Überlappung des gewünschten Spektrums mit diesem unerwünschten Glied nullter Ordnung kann somit vermieden werden, indem das Band des gewünschten Signals so begrenzt wird, daß es ein Viertel der Abtastfrequenz nicht übersteigt.
B x < π/2d x (22)
Unter diesen Bedingungen ist ein Schutzband, das wenigstens gleich dem Signalband ist, zwischen dem Signalspektrum und seiner unerwünschten Konjugierten vorhanden. Es besteht zwar keine Überlappung mit dem unerwünschten Basisbandspektrum, es besteht jedoch keine Erlaubnis für ein Schutzband zwischen ihm und dem Signal.
Ein alternativer und beträchtlich weniger wahrscheinlicher Betriebszustand beinhaltet einen sehr starken Lichtpegel von dem Objekt her, so daß das Referenzbündel nicht dominant ge­ macht werden kann, ohne die Kameradetektoren zu sättigen. Unter diesen Bedingungen wäre das Basisbandglied nicht ver­ nachlässigbar, und die Mittenfrequenz sollte dann so gewählt werden, daß das gewünschte Spektrum in der Mitte zwischen den Rändern der beiden unerwünschten Spektren liegt, um das Filtern zu erleichtern. Diese Lösung wird nicht vollständig erläutert werden.
Da keine Filterung in der y-Richtung erforderlich ist, ist kein nennenswertes Schutzband zwischen den sich in dieser Richtung wiederholenden Spektren erforderlich. Die einzige nennenswerte Beschränkung ist, daß keine Überlappung vorkommt. Das führt zu der folgenden Limitierung.
B y < 2π/d y (23)
Somit diktiert die räumliche Abtastfrequenz die maximale Winkel­ ausdehnung der Szene, die ohne Überlappung von unerwünschten Störgliedern, die in dem Kameraausgangssignal vorhanden sind, zugelassen werden kann.
Es kann jedoch eine geeignete Vergrößerungsoptik benutzt wer­ den, um die räumliche Abtastfrequenz, die an der Kamerastirn­ seite vorhanden ist, auf jede erforderliche Abtastfrequenz zu skalieren, die notwendig ist, um den tatsächlichen Winkel zuzulassen, der durch die räumliche Szene begrenzt wird.
Wenn die Winkelausdehnung der Szene in der vertikalen (y) und in der horizontalen (x) Richtung dieselbe ist und ihren maximal zulässigen Wert hat, ist die Abtastfrequenz, die in der horizontalen Richtung erforderlich ist, viermal so hoch wie die der vertikalen Richtung.
B x = B y (24a)
d y = 4 d x (24b)
Die anschließende Verarbeitung des Kameraausgangssignals kann direkt realisiert werden, entweder ohne es erst durch das FIR-Filter hindurchzuleiten oder mit angepaßter Filterung der Szene. Bei diesen Realisierungen müssen jedoch sämtliche räumlichen Abtastproben aus der Kamera verarbeitet werden. Da die Szene nur eine räumliche Bandbreite in der x-Richtung hat, die ein Viertel der verfügbaren Bandbreite einnimmt, beträgt die Abtastfrequenz, die notwendig ist, um die Szene zu be­ schreiben, nur ein Viertel der in dem Kameraausgangssignal verfügbaren.
Da die gewünschte Szene komplex ist, sind die erforderlichen Abtastproben ebenfalls komplex. Das Kameraausgangssignal be­ steht jedoch aus reellen Abtastproben, für die die Abtast­ frequenz auf ein Viertel der ursprünglichen Frequenz redu­ ziert werden könnte, wenn keine komplexen Werte vorhanden wären. Bei komplexen Werten kann die tatsächliche Gesamtdaten­ rate aus der Kamera reduziert werden, aber nur um den Faktor zwei. Diese Reduktion der Datenrate ist der Hauptgrund für die Realisierung des FIR-Filters und gestattet der anschließenden Datenverarbeitungssoftware, z. B. für Abbildung, Korrelation, usw., mit der reduzierten Datenrate zu arbeiten.
Der erste Schritt beim Reduzieren der Datenrate aus der Kamera besteht darin, deren Ausgangssignal zu filtern, so daß gerade das gewünschte Spektrum in dem oberen Band durchge­ lassen wird, während die unteren und mittleren Bänder unter­ drückt werden. Daher sollte das ideale Filter eine Übertra­ gungsfunktion haben, die über diesem oberen Band eins und an­ sonsten Null ist. (Keine Filterung ist in der y-Richtung erforderlich.)
Nach der Filterung ist der letzte Schritt beim Reduzieren der Datenrate aus der Kamera die Dezimierung um vier. Prinzipiell besteht das aus dem Wiederabtasten des Filterausgangssignals mit einer Frequenz, die ein Viertel der ursprünglichen Frequenz ist. Praktisch bedeutet es, daß nur jedes vierte Aus­ gangssignal des FIR-Filters ausgewertet wird. Der Effekt dieser Dezimierung besteht darin, daß das Spektrum mit der reduzierten Abtastfrequenz wiederholt wird, wobei das sich ergebende Hereinfalten ein Duplikat des gewünschten Signalspektrums in der Mitte des Basisbandes plaziert (das von -π/4d x bis +π/4d y reicht). Realistische FIR-Filter zum Approximieren des idealen Filters werden nun erläutert.
Der ideale Filterfrequenzgang, der so nahe wie praktisch möglich zu synthetisieren ist, sollte einen skalierten Bereich des grundlegenden Spektrums von Interesse wählen, wie es in Fig. 6 gezeigt ist. Obgleich die Eingangsdaten zweidimensional sind, ist das gewünschte Filter eindimensional. Es arbeitet für alle aufeinanderfolgenden Kameraabtastzeilen in der x-Richtung unabhängig.
Auf der in der Fig. gezeigten horizontalen Achse ist die räumliche Winkelgeschwindigkeit aufgetragen, wobei die Einheit Radian pro Längeneinheit ist.
Für kontinuierliche Eingangsfunktionen werden lineare Filter traditionell mit Hilfe der komplexen Variablen s synthetisiert. Die Orte der Pole und Nullstellen der Filterübertragungs­ funktion in dieser komplexen s-Ebene diktieren eindeutig den Filterfrequenzgang, unabhängig von den Realisierungseinzel­ heiten des Filters. Die reale und die imaginäre Achse dieser s-Ebene sind für die räumliche Winkelfrequenz, die oben erläutert worden ist, folgendermaßen gegeben.
s = σ + j · k · sin {R x } (25)
Durch das Befassen mit diskreten abgetasteten Daten statt mit kontinuierlichen Eingangssignalen wird der verlangte Frequenz­ gang längs der imaginären Frequenzachse der s-Ebene periodisch und erstreckt sich ins Unendliche. Zur Berücksichtigung dieser Situation wird üblicherweise die folgende Transformation aus der s-Ebene in eine komplexe z-Ebene benutzt.
z = e sx (26a)
z = e s ·X · e j·X·k·sin { R } (26b)
Somit wird die imaginäre Achse der s-Ebene (entsprechend σ=0) auf einen Einheitskreis in der z-Ebene (nicht zu ver­ wechseln mit der räumlichen Koordinate z, dem Abstand von der Sensorebene) abgebildet. Der Ursprung in der s-Ebene wird zu­ sammen mit sämtlichen Wiederholungen bei Vielfachen der Abtast­ frequenz auf den Punkt z gleich eins in der z-Ebene ab­ gebildet. Der gesamte linke Teil der s-Ebene (σ<0) wird in den Bereich innerhalb des Einheitskreises in der z-Ebene ab­ gebildet, wogegen der gesamte rechte Teil der s-Ebene (σ<0) in den Bereich außerhalb des Einheitskreises in der z-Ebene abgebildet wird.
Daher sind die verschiedenen Zonen der räumlichen Frequenz, die auf den horizontalen Achsen in Fig. 6 gezeigt sind, auf Bogensegmenten des Einheitskreises in der z-Ebene in Fig. 5 gezeigt. Die Filtersynthese besteht unter Verwendung dieser Lösung aus dem Anordnen von Polen und Nullstellen in dieser z-Ebene derart, daß der Frequenzgang so nahe wie möglich bei eins über möglichst viel von dem gewünschten Signalbogen und so nahe wie möglich bei Null über dem übrigen Bogen ist.
Lineare Abtastdatenfilter bestehen hauptsächlich aus dem Addieren einer Anzahl von bewerteten Abtastproben, um ein einzelnes Ausgangssignal zu bilden. Die Bewertungen allgemein sind komplex, wobei komplexe Eingangs- und Ausgangssignale möglich sind. Eine Vielfalt von Konfigurationen kann realisiert werden, und zwar bei Bedarf unter Verwendung von Rück­ kopplung.
Die Anzahl von Abfühl- oder Aufnahmestellen auf einer einzelnen horizontalen Abtastzeile der Kamera kann relativ klein sein. Das kann dazu führen, daß Randeffekte am Beginn und am Ende einer Abtastzeile bedeutsam werden, wenn zu viele Ab­ tastproben benutzt werden, um ein einzelnes Ausgangssignal zu erzielen. Es ist daher erwünscht, die Anzahl der Abtastproben, die für jedes Ausgangssignal verarbeitet werden, zu minimieren.
Das FIR-Filter ist für diesen Zweck ideal. Es besteht einfach aus einer bewerteten Summe einer endlichen Anzahl von be­ nachbarten Abtastproben, wie es in Fig. 7B gezeigt ist. Es gibt insgesamt M+1 Filtereingangsabtastproben, die von P(m) bis P(m-M) reichen, wie es in der Fig. gezeigt ist. Die Ab­ tastproben sind durch das Abtastintervall d X wie angegeben räumlich getrennt.
Dieses Filter hat das folgende Ausgangssignal, das sich aus seiner Definition in der Fig. ergibt.
wobei:
F(m) das Filterausgangssignal für den Positionsindex m ist.
Es kann gezeigt werden, daß die z-Transformierte eines ver­ schobenen Parameters auf folgende Weise in Beziehung zu der des unverschobenen Parameters steht.
P Z (z) bezeichnet die z-Transformierte der Sequenz p(m). Dann wird z -u P Z (z) die z-Transformierte der verschobenen Sequenz P(m-u).
Wenn das benutzt wird, um die z-Transformierte von Gleichung (27) zu bilden, so führt das zu folgendem.
Die Filterübertragungsfunktion ist folgendermaßen als das Verhältnis des Ausgangssignals zum Eingangssignal definiert.
Das Kombinieren der Gleichungen (28) und (29) und Faktorzerlegung führen zu folgendem.
Die Summation besteht aus einem Polynom M ter Ordnung, dessen Koeffizienten die komplexen Bewertungsfaktoren w u sind. Im allgemeinen hat dieses Polynom M Wurzeln und kann durch Faktor­ zerlegung in eine Form gebracht werden, die diese Wurzeln enthält, was zu folgendem führt.
wobei:
Z u die Wurzel des Filterpolynoms ist.
Der gewünschte Frequenzgang, der in der H-Parameter-Übertragungs­ funktion angegeben ist, lautet folgendermaßen:
Die Gleichung (30) ist der Frequenzgang des in Fig. 7B ge­ zeigten und durch Gleichung (27) definierten Filters. Er ist gegeben durch die Nullstellen des Filterpolynoms.
Der Effekt der mehreren Pole im Ursprung ist einfach eine lineare Phasenverschiebung entsprechend der festen Pipeline­ verzögerung, die zum Füllen des Filters notwendig ist. Die Verzögerung verändert nicht die Form der Größeneigenschaften oder die Frequenzdispersion des Filters.
Die ursprüngliche Sensorkonfiguration hat, wie weiter oben erläutert, einen großen Gleichstromimpuls im Ursprung. Hin­ sichtlich des mit abgetasteten Daten arbeitenden FIR-Filters, das im vorhergehenden Abschnitt erläutert worden ist, kann das beseitigt werden durch eine Nullstelle bei z=1. Dieses Filter und sein Frequenzgang werden aus den Gleichungen (30) und (32) folgendermaßen direkt erhalten.
H(z) = 1 - z -1 (33a)
H₀ (Ω) = e-j· Ω · [e Ω -1] (33b)
wobei:
H₀ der Frequenzgang des Filters mit einer einzelnen Null­ stelle bei Z gleich eins ist.
Die Gleichung (33a) gibt an, daß die Realisierung dieses Filters einfach die Differenz von benachbarten Abtastproben ist, was exakt das System ist, das in der Kamera realisiert worden ist, wie es oben erläutert worden ist. Die Gleichung (33c) zeigt, daß der Frequenzgang dazu neigt, das unerwünschte Basisbandgebiet des Spektrums stark zu dämpfen, ohne eine starke Dämpfung in dem gewünschten Gebiet des interessierenden Signalspektrums hervorzurufen.
Daher ist der erste Schritt beim Filtern des Sensorausgangs­ signals eine einzelne Nullstelle bei z gleich eins, wie es in Fig. 10A gezeigt ist. Dieses Filter ist in der Kamera reali­ siert.
Ein zusätzlicher Filtereffekt, der an der Kamera auftritt, ist der, der auf die endliche Fläche der Aufnahmestellen zurück­ zuführen ist. Aus den Gleichungen (15d) und (15e) ist zu er­ kennen, daß dieses Filter in der x-Richtung eine Sinc-Funktion mit dem Argument (w k sin R x )/(2π). Dieses Argument wird unter Verwendung der Gleichung (32b) ausgedrückt als (Ω w)/(d X 2π). Diese Sinc-Funktion hat ihre größte Auswirkung, wenn w so groß wie möglich wird. (Das heißt, bei w gleich Null ist die Sinc-Funktion für alle Ω gleich Eins und hat keine Auswirkung.) In dem Grenzfall ist die maximale Sensor­ breite, die w realisieren kann, d X der Mittenabstand (vgl. Fig. 1C). Daher hat in diesem Grenzfall das Sinc-Funktion- Filter aufgrund der endlichen Sensorfläche ein Argument Ω/(2π).
Das Verknüpfen dieses Sinc-Funktion-Frequenzganges aufgrund der endlichen Fläche mit dem durch die Gleichung (33c) ge­ gebenen Frequenzgang aufgrund der Differenzbildung in der Kamera ergibt den folgenden Gesamtfrequenzgang für die gesamte Kamerafilterung.
wobei:
H c (Ω) der Gesamtfrequenzgang der Filterung in der Kamera ist, der den Effekt der Sensoren endlicher Fläche und die Unterdrückung der Gleichstromvorspannung auf­ grund der Differenzbildung unter benachbarten Sensor­ ausgangssignalen beinhaltet.
Die Größe dieses Frequenzganges ist in Fig. 10B aufgetragen.
Die allgemeine Filterübertragungsfunktion ist durch die Gleichung (31) und (32) gegeben.
Die Größe des Frequenzganges in dB wird daraus folgendermaßen gewonnen:
Die Hauptaufgabe des externen Filters besteht darin, das uner­ wünschte konjugierte Spektrum zu dämpfen, wie es in der Dar­ stellung der komplexen z-Ebene in Fig. 5 vorgeschlagen ist. Das einfachste derartige Filter hat eine einzelne Nullstelle, die in der Mitte des Spektrums bei z gleich -j liegt. Ein solches Filter würde einen nichtsymmetrischen Frequenzgang über dem interessierenden Objekt haben und den Rand des Objekts, der näher bei dem Referenzpunkt ist, mehr dämpfen als den entgegengesetzten Rand der Szene.
Dieser Effekt kann gemildert werden, indem eine zusätzliche Nullstelle bei z=-1 plaziert wird, um die Nullstelle bei z=+1 auszugleichen. Das ergibt ein symmetrisches Durch­ laßband, welches das interessierende Objekt enthält.
Bei der Filterauslegung, die nun weiter erläutert wird, wird angenommen, daß das interessierende Objekt auf ein Viertel des verfügbaren Winkelabstands beschränkt ist, der eindeutig abgetastet werden kann, wie es in den Fig. 5 und 6 gezeigt ist, und daß das Referenzbündellicht das Licht von dem Ge­ samtobjekt her um ein ausreichendes Ausmaß dominiert, so daß die Effekte des Basisbandlichtes für jeden vorgesehenen Ver­ wendungszweck dieses Systems vernachlässigbar sind.
Unter diesen Bedingungen enthalten die Raumfrequenzbänder von Ω, die von -π bis -3π/4, von -π/4 bis +π/4 und von 3π/4 bis π reichen, keine Energie. Daher ist der Filterfre­ quenzgang in diesen Bändern ohne Bedeutung. Daher sind Null­ stellen nützlicher, wenn sie in dem interessierenden Sperrband plaziert werden, das von Ω gleich -π/4 bis -3π/4 reicht.
Unter Verwendung dieser Richtlinien ist die einfache Reali­ sierung von mehreren Nullstellen bei z gleich -j ein sehr effektiver Entwurf. Die Fig. 11 und 12 zeigen einen solchen Entwurf, bei dem die spektrale Faltungsfrequenz aus der Dezi­ mierung um zwei resultiert.
Wenn mit den Hypothesen gearbeitet wird, daß es keine nennens­ werte Energie in dem zentralen Band oder in dem Randband gibt, ist der Frequenzgang, der in Fig. 13 gezeigt ist, dem von Fig. 12 über den interessierenden Gebieten äquivalent.
Durch das Dezimieren dieses Filters um zwei (Gesamtdezimierung um vier gegenüber der ursprünglichen Abtastfrequenz) faltet der Frequenzgang von Fig. 13 das gewünschte Band in das zentrale Basisbandgebiet hinein, was das gewünschte End­ ergebnis erbringt. Das ist in Fig. 14 gezeigt.
Der horizontale Maßstab von Fig. 14 ist gegenüber dem von Fig. 13 erweitert, und die Winkelordinate ist wie angegeben umbe­ nannt worden. Die neue Ordinate ist in der Mitte der Szene Null.
Die ursprüngliche Abtastfrequenz wird gleich dem Vierfachen der Frequenz gewählt, die die Winkelausdehnung der inte­ ressierenden Szene erfordert. Der Referenzpunkt wird in nominell demselben Bereich wie der der interessierenden Zielszene und unter einem Winkel gegen den Mittelpunkt der Szene plaziert, der gleich der Winkelausdehnung der Szene ist. Die Referenz­ bündelintensität wird so gewählt, daß sie die Gesamtintensität von der Gesamtszene her in jedem Punkt in der Empfangsöffnung um mehrere Größenordnungen dominiert. Unter diesen Bedingungen wird das externe FIR-Filter so ausgelegt, daß es eine einzelne Nullstelle bei z gleich -1 und mehrere Nullstellen bei z gleich -j hat.
Der Gesamtfrequenzgang dieses Systems einschließlich des Effekts der Differenzbildung in der Kamera und der endlichen Fläche der Sensoren ist daher in Fig. 14 gezeigt. Er besteht aus zwei Komponenten. Die gewünschte Komponente ist über dem interessierenden Band relativ flach und hat eine monotone Schattierung mit weniger als zehn dB Dämpfung an den äußeren Bandrändern. Die unerwünschte Komponente aufgrund des Umfaltens des unterdrückten konjugierten Spektrums hat den Frequenz­ gang Null in der Bandmitte und nimmt zu den Bandrändern hin monoton zu.
Fig. 14 enthält ein Diagramm der Größe des Frequenzganges des Systems zusammen mit einem Diagramm des maximalen Größen­ fehlers in dem Systemausgangssignal. Fig. 15 enthält ein Diagramm der Größe des maximalen Phasenfehlers in dem System­ ausgangssignal. Diese Diagramme fassen die Systemleistung unter den oben erläuterten Betriebsbedingungen zusammen.
Das FIR-Filter, das die bevorzugte Leistung für die Objekte nach der Erfindung hat, hat das in Fig. 11 gezeigte Null­ stellenmuster. Wie oben erläutert, ist die Nullstelle bei z gleich Eins auf die Verarbeitung innerhalb der Kamera zurück­ zuführen, und das externe Filter liefert die Nullstellen bei Z=-1 und mehrere Nullstellen Z=-j.
Die folgenden Bewertungs- oder Gewichtungsfaktoren führen zu den Gesamtsystemfrequenzgängen, die in Fig. 14 gezeigt sind. Sie entsprechen dem externen Teil des FIR-Filters, der in Fig. 7B gezeigt ist. Diese Bewertungsfaktoren sind nicht die einzigen, da viele andere Bewertungsfaktorensätze dasselbe Pol-Nullstellen-Muster in der Z-Ebene ergeben können. Das Multiplizieren dieser Bewertungsfaktoren mit einer willkür­ lichen komplexen Konstante (A+jB) ergibt dieselbe Filter­ funktion, mit Ausnahme einer inkonsequentiellen Amplitudenänderung und Phasenverschiebung.
N = 1
W(N,n)
W(1,0) = 0,177-0,177j
W(1,1) = 0,354
W(1,2) = 0,177+0,177j
N = 2
W(N,n)
W(2,0) = -0,125j
W(2,1) = 0,25-0,125j
W(2,2) = 0,25+125j
W(2,3) = 0,125j
N = 3
W(N,n)
W(3,0) = -0,044-0,044j
W(3,1) = 0,088-0,177j
W(3,2) = 0,265
W(3,3) = 0,088+0,177j
W(3,4) = -0,044+0,044j
N = 4
W(N,n)
W(4,0) = -0,031
W(4,1) = -0,031-0,125j
W(4,2) = 0,188-0,125j
W(4,3) = 0,188+0,125j
W(4,4) = -0,031+0,125j
W(4,5) = -0,031
In Verbindung mit Gleichung (13) ist erläutert worden, daß das FIR-Filter eine unperfekte Rekonstruktion des Objektfeldes erzeugen kann, bis seine Phase korrigiert wird, indem eine zusätzliche Phasenverschiebung subtrahiert wird, welche den Wert k r R (p, p R ) hat.
Eine solche Phasenkorrektur ist jedoch genau das, was sich ergibt, wenn eine Negativlinse an der Empfangsöffnung plaziert wird, die eine Brennweite hat, welche gleich dem Bereich von dem Referenzpunkt bis zu der Öffnung ist. Wenn die Abbildung mit Computersoftware realisiert wird, ist das Äquivalent einer zusätzlichen Linse erforderlich, um die Ab­ bildung auszuführen. Das Einzellinsenäquivalent der Abbildungs­ linse und der Phasenkorrekturlinse kann benutzt werden, um beide Funktionen in einer Einzelimplementierung zu erfüllen.
Ein alternativer Weg der Betrachtung der Sache besteht darin, die unerwünschte Phasenkomponente, die durch die Gleichung (13) gegeben ist, als äquivalent zu dem zu betrachten, was durch eine Positivlinse an der Empfangsöffnung verursacht wird. Diese hypothetische Positivlinse hat eine Brennweite, die gleich dem Bereich von dem Referenzpunkt bis zu der Empfangsöffnung ist. Daher befindet sich die Szene in der Brennpunktebene der Linse, so daß ein virtuelles Bild der Szene im Unendlichen gebildet wird. Der Referenzpunkt er­ scheint ebenfalls im Unendlichen zu liegen, so daß alle Wellen­ felder nominell kollimiert sind, was zu den gleichmäßigen geraden Linienstreifen führt, die erzeugt werden.
Unter diesem Gesichtspunkt ist klar, daß das unkorrigierte Hologramm dem Betrachten der äquivalenten Szene durch eine geeignete Positivlinse entspricht. Die Auswirkung dieser hypothetischen Positivlinse kann durch das Software-Äquivalent der geeigneten Negativlinse an der Empfangsöffnung be­ seitigt werden. Alternativ kann die Negativlinse weggelassen werden, und irgendein anschließendes Softwareabbildungslinsen­ äquivalent kann entworfen werden, indem angenommen wird, daß die ursprüngliche Szene durch eine Positivlinse betrachtet wurde.
Zusammenfassend sei festgehalten, daß anschließendes Filtern durch ein FIR-Filter, welches sich an die Kamera anschließt, benötigt wird, um die unerwünschten Komponenten zu unterdrücken und das gewünschte Glied zu ergeben. Das gewünschte Glied ist die komplexe Amplitudenverteilung, die sich aus dem Betrachten der Szene durch eine hypothetische Positivlinse an der Empfangsöffnung ergeben würde. Die Brennweite dieser hypothetischen Linse ist so, daß ein virtuelles Bild des Referenzpunktes im Unendlichen erscheint. Keine derartige Linse ist wirklich vorhanden. Ihr scheinbarer Effekt ist das Ergebnis des Plazierens des Referenzpunktes in nominell derselben Entfernung von der Empfangsöffnung wie der Entfernung zu dem Objekt. Diese Wahl der Referenzpunktposition hat den weiter oben angegebenen bedeutsamen Vorteil der Verbesserung der Effizienz der Abtastung, die durch die Fotosensoren ausge­ führt wird. Dieser Vorteil wiegt gewöhnlich eine andere Wahl auf, wie beispielsweise das Plazieren des Referenzbündels im Unendlichen.
Die bevorzugte Konfiguration der Sensoren, die in Fig. 1C ge­ zeigt ist, ist diejenige, in welcher die einzelnen Aufnahme­ gebiete 4 Einheiten in der Y-Abmessung mal 1 in der X-Ab­ messung betragen, wobei die Sensoren in ungefähr Lambda/4-Inter­ vallen längs der X-Abmessung mit den Raumfrequenzen der Tupfenstreifen angeordnet sind. Das Schlankheitsverhältnis bewirkt, daß eine gleiche räumliche Auflösung sowohl in der X- als auch in der Y-Abmessung erzielt wird, wobei das Gebiet, das sich vier Sensoren teilen, die zum Abtasten eines einzelnen Tupfens benutzt werden, zweckmäßig quadratisch ist. Man kann eine größere Anzahl von Sensoren (z. B. 5 oder 7) für eine größere Genauigkeit bei der Größen- und der Phasen­ bestimmung benutzen, wie weiter oben erläutert, wobei es in diesem Fall im allgemeinen zweckmäßig ist, dasselbe Schlank­ heitsverhältnis für die einzelnen Aufnahme- oder Abfühlgebiete beizubehalten.
Das FIR-Filter kann auch auf vielfältigste Weise ausgeführt werden, was weitgehend von den Systemerfordernissen abhängig ist. Die Lösung, bei der komplexe Bewertungs- oder Gewichtungs­ faktoren benutzt werden, die zugeordnet werden, um eine Nullstelle n ter Ordnung (wobei "n" 1 bis 4 ist) bei Z=-j auf der negativen imaginären Achse herzustellen, soll demgemäß als exemplarisch verstanden werden. Man könnte andere, gleichmäßigere Verteilungen der "Nullstellen" zur Elimination der unerwünschten Glieder benutzen.
Das Blockschaltbild der elektronischen holographischen Vor­ richtung kann die in Fig. 1A dargestellte Form haben, in welcher das endgültige Ausgangssignal ein Bild ist. Die notwendige Vorrichtung enthält (üblicherweise einen A/D-Wandler 24) ein FIR-Filter 25 und einen Dezimierungsblock 26, an den sich ein Fresnel/Fourier-Transformator 27 anschließt, der ein Bild rekonstruiert, das direkt zum Anzeigen durch eine Anzeigeein­ richtung 28 geeignet ist. Die Verarbeitungskapazität, die von dem F/F-Transformator 27 verlangt wird, ist hoch, insbesondere bei Matrizen mit größerer Anzahl von Elementen. In vielen Fällen braucht die Abbildung nicht erforderlich zu sein, und das Prozessorausgangssignal kann direkt an dem Ausgang vom FIR-Filter-Dezimierungsblock 25-26 abgenommen werden, an dem die Störglieder entfernt worden sind und nur das gewünschte positive Glied der räumlichen Frequenz vorhanden ist. In einigen Fällen, in denen nicht mit Abbildung gearbeitet wird, kann das Ausgangssignal der Kamera ohne Umwandlung in Digital­ format und ohne FIR-Filterung benutzt werden. Zum Beispiel würde man für die Zwecke der Interferometrie, der signalan­ gepaßten Filterung oder der Korrelation noch die Differenz­ bildung benötigen, vorzugsweise in der Sensorebene, um das große Spektralglied gleichmäßigen Wertes zu reduzieren oder zu eliminieren.

Claims (31)

1. Vorrichtung zum Aufnehmen des Hologramms eines dreidimen­ sionalen Objektfeldes mit mehreren Auflösungselementen, gekennzeichnet durch:
  • A. eine Einrichtung (10, 11, 12, 17, 18, 19, 20) zum Erzeugen eines optischen Beleuchtungsbündels und eines optischen Referenzbündels, die gegenseitig kohärent sind,
    • 1) wobei das Beleuchtungsbündel das Objektfeld (13) be­ leuchtet, damit das Licht, das von dem Objektfeld (13) reflektiert wird, auf ein begrenztes ebenes Aufnahme­ gebiet (16) auftrifft, um ein Muster von Tupfen zu bilden,
      ein X,Y,Z-Koordinatensystem, das einen Ursprung in dem Mittelpunkt (22) des Aufnahmegebietes (16) hat, wobei dessen Z-Achse durch den Mittelpunkt (21) des Objekt­ feldes (13) geht und wobei die X- und die Y-Achse durch den Ursprung (22) gehen und in dem Aufnahmegebiet (16) liegen;
    • 2) wobei das Referenzbündel das Aufnahmegebiet (16) von einer virtuellen Punktquelle (23) aus beleuchtet, die in einer virtuellen Position ist, welche auf eine Seite des Objektfeldes (13) verschoben ist,
      wobei der Ursprung (22), der Mittelpunkt (21) des Objektfeldes (13) und die virtuelle Position des Referenz­ punktes (23) eine Ebene festlegen, welche das Auf­ nahmegebiet (16) in einer Linie schneidet, die die X-Achse definiert, wobei eine dazu rechtwinkelige Linie die Y-Achse definiert,
      wobei die Anordnung eine lineare Überlagerung von sinusförmigen Streifen auf dem Tupfenmuster in dem Auf­ nahmegebiet (16) erzeugt, wobei die Streifen in sämt­ lichen Tupfen im wesentlichen parallel zu der Y-Achse und in der Phase und in der Amplitude unabhängig sind,
      wobei die Referenzquellenposition und der Mittelpunkt (21) des Objektfeldes (13) einen Winkelabstand haben, gemessen in dem Ursprung (22), der im Mittel wenigstens ein dunkles Gebiet und ein helles Gebiet pro Tupfen erzeugt; und
  • B. eine Kamera (15) mit
    • 1) einer Blendenöffnung (14), welche die Begrenzung des Aufnahmegebiets (16) bildet, wobei die Blendenöffnung die Auflösung von separaten Elementen des Objektfeldes (13) in der Kamera (15) gestattet, und
    • 2) einer Matrix von optischen Detektoren, die periodisch abgetastet werden und als einer quadratischen Funktion folgende Vorrichtungen auf das einfallende Licht an­ sprechen, um Kreuzproduktglieder zu erzeugen, wenn sie durch mehrere Quellen getroffen werden, wobei die optischen Detektoren in dem Aufnahmegebiet (16) und in Zeilen und Spalten angeordnet sind, wobei die Zeilen parallel zu der X-Achse und die Spalten parallel zu der Y-Achse sind,
    • 3) einer Einrichtung zum Abbildung der Tupfen auf die Detektoren mit ausreichender Vergrößerung, so daß im Mittel eine volle Welle (ein dunkles und ein helles Gebiet) eines gestreiften Tupfens auf mehrere Detektoren in einer Zeile und wenigstens einen Detektor in einer Spalte auftrifft, wobei die Anzahl der Detektoren ausreicht, um unzweideutig die Amplitude und die räumliche Phase des Streifens zu bestimmen, und
    • 4) Einrichtungen (24-28) zum Verarbeiten der abgetasteten Ausgangssignale der Detektoren, um ein elektrisches Signal zu gewinnen, welches die räumlichen Phasen und Amplituden der Tupfen zum Aufnehmen des Hologramms darstellt.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß das beleuchtete Objektfeld (13) und die Referenzquelle (23) ein räumliches Spektrum über dem begrenzten ebenen Ge­ biet (16) erzeugen, das auf vier räumlich überlagerte Glieder in den abgetasteten Detektorausgangssignalen führt, wobei die Glieder umfassen
ein Spektralglied gleichmäßigen Wertes aufgrund der Beleuchtung durch die Referenzquelle (23),
ein Spektralglied des Tupfenmusters aufgrund des beleuchteten Objektfeldes (13),
ein unerwünschtes negatives Raumfrequenzspektralglied, das dem konjugierten Glied des Kreuzprodukts aufgrund von Licht aus dem beleuchteten Objektfeld (13) und der Referenzquelle (23) entspricht,
und ein gewünschtes positives Raumfrequenzspektralglied, das dem direkten Glied des Kreuzprodukts aufgrund von Licht aus dem beleuchteten Objektfeld (13) und der Referenzquelle (23) entspricht,
wobei der virtuelle Referenzpunkt (23) gegenüber der Achse um einen Winkel (R₀) verschoben ist, der größer als der Winkel ist, der durch das Objektfeld (13) in dem Ursprung begrenzt wird, damit die vier Glieder, obgleich sie über der Öffnung (14) räumlich überlagert sind, in dem Raumfrequenzspektral­ gebiet in gegenseitig gesonderten Positionen verteilt sind.
3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß der virtuelle Referenzpunkt (23) und der Mittelpunkt (21) des Objektfeldes (13) auf im wesentlichen derselben Z-Koordi­ nate angeordnet sind, damit die Streifen in sämtlichen Tupfen im wesentlichen gleiche Raumfrequenzen haben, und daß die Detektoren zur effizienten Phasen- und Amplituden­ messung in gleichen Intervallen längs der Zeilen angeordnet sind.
4. Vorrichtung nach Anspruch 2 oder 3, dadurch gekennzeichnet, daß eine Einrichtung (25) vorgesehen ist zum Isolieren des gewünschten positiven Raumfrequenzkreuzproduktspektralglieds von den anderen Gliedern in den abgetasteten Detektorausgangs­ signalen.
5. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, daß die Einrichtung (25) zum Isolieren des gewünschten posi­ tiven Raumfrequenzkreuzproduktspektralglieds eine Einrichtung enthält zum subtraktiven Kombinieren der abgetasteten Aus­ gangssignale von aufeinanderfolgenden Detektoren in jeder Zeile, um eine (n-1)-fache Schar von Ausgangsdifferenzen (P₁-P₀; P₂-P₁; P₃-P₂; . . .; P n -P n-1) zu gewinnen, wobei P das Signal aus einem Fotodetektor bezeichnet und wobei der Index dessen Position in einer Zeile von n Fotodetektoren bezeichnet,
wobei die subtraktive Kombination als ein räumlich selektives FIR (Finite Impulse Response oder begrenztes Ansprechen auf einen Impuls)-Filter (25) wirkt, um das Spektralglied gleich­ förmigen Wertes und einen beträchtlichen Teil des Spektral­ glieds des Tupfenmusters aus dem Kameraausgangssignal zu eliminieren.
6. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet, daß die subtraktive Kombination der abgetasteten Detektoraus­ gangssignale erzielt wird durch Verbindungen, die mit den Fotodetektoren in der Sensorebene (16) monolithisch integriert sind.
7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, daß die Einrichtung (25) zum Isolieren des gewünschten posi­ tiven Raumfrequenzkreuzproduktspektralglieds eine Einrichtung (19) aufweist, um die Intensität des Referenzbündels in Relation zu den Intensität der Beleuchtung, die von dem Objekt­ feld (13) über das Aufnahmegebiet (16) reflektiert wird, hoch einzustellen und das Spektralglied des Tupfenmusters in Relation zu dem gewünschten positiven Raumfrequenzkreuzprodukt­ spektralglieds vernachlässigbar zu machen.
8. Vorrichtung nach Anspruch 7, gekennzeichnet durch ein FIR-Filter (25), an das die Sequenz von Ausgangsdifferenzen in den abgetasteten Detektorausgangssignalen angelegt wird, um das unerwünschte negative Raumfrequenzkreuzprodukt­ spektralglied zu beseitigen.
9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, daß jeder optische Detektor längs einer Zeile (d. h. der X-Ko­ ordinate) einen Abstand von π/2 Radian der Raumfrequenz der Streifen hat, wobei jede Gruppe von vier optischen Detektoren innerhalb der Matrix einen im wesentlichen quadratischen Bereich einnimmt.
10. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, daß das FIR-Filter (25) enthält:
ein Netzwerk, das eine M-fache Anzahl von in Reihe geschalteten Knotenpunkten hat, wobei M eine Ziffer ist, die einen Wert von 3 bis 6 hat, an das aufeinanderfolgende Sätze von M Ausgangsdifferenzen in den abgetasteten Detektorausgangs­ signalen sequentiell angelegt werden,
M komplexe Multiplizierer, die jeweils mit einem Knotenpunkt verbunden sind, zur Multiplikation der Ausgangsdifferenz, die an dem Knotenpunkt vorhanden ist, mit einem festen kom­ plexen multiplikativen Bewertungsfaktor, wobei die Bewertungs­ faktoren so gewählt werden, daß das gewünschte positive Raumfrequenzkreuzproduktspektralglied ausgewählt und das un­ erwünschte negative Raumfrequenzkreuzproduktspektralglied unterdrückt wird, und
einen Summierer, der mit den Ausgängen der Multiplizierer verbunden ist, zum Bilden einer einzelnen Ausgangssignalab­ tastprobe für jeden Satz von m Ausgangsdifferenzen.
11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, daß Analog/Digital-Wandlereinrichtungen (24) vorgesehen sind zum Umwandeln der abgetasteten Detektorausgangssignale, die an das FIR-Filter (25) angelegt werden, in eine Digitalform.
12. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet, daß das FIR-Filter (25) drei Knotenpunkte hat, an die die Ausgangssignalabtastprobendifferenzen aus aufeinanderfolgend ausgewählten Sätzen von vier benachbarten Detektoren ange­ legt werden, und drei komplexe Multiplizierer.
13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, daß in einer komplexen Z-Ebene-Darstellung des Filters (25) die komplexen Bewertungsfaktoren so zugeordnet werden, daß eine Nullstelle n ter Ordnung bei Z=-j auf der negativen imaginären Achse, wobei gilt n=1 bis 4, und eine Nullstelle bei Z=-1 erzeugt wird, und
daß eine Nullstelle bei Z=+1 auf der positiven reellen Achse durch die substraktiven Kombinationen erzielt wird.
14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, daß die Ausgangssignale des FIR-Filters einer Dezimierung um den Faktor 4 unterzogen werden, um die Datenrate zu reduzieren.
15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, daß die komplexen Bewertungsfaktoren für eine Nullstelle erster Ordnung auf der negativen imaginären Achse proportional sind zu:
W₁ = 0,177-0,177j
W₂ = 0,354
W₃ = 0,177+0,177j.
16. Vorrichtung nach einem der Ansprüche 7 bis 11, dadurch gekennzeichnet, daß das FIR-Filter (25) vier Knotenpunkte hat, an die Differenzen aus fünf benachbarten Detektoren angelegt werden, und vier komplexe Multiplizierer.
17. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet, daß in einer komplexen Z-Ebene-Darstellung des Filters (25) die komplexen Bewertungsfaktoren so zugeordnet werden, daß eine Nullstelle bei Z=+1 auf der positiven reellen Achse, eine Nullstelle bei Z=-1 auf der negativen reellen Achse und eine Nullstelle zweiter Ordnung bei Z=-j auf der nega­ tiven imaginären Achse erzeugt wird.
18. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, daß die komplexen Bewertungsfaktoren für eine Nullstelle zweiter Ordnung auf der negativen imaginären Achse proportional sind zu:
W₁ = -0,125j
W₂ = 0,25-0,125j
W₃ = 0,25+0,125j
W₄ = 0,125j.
19. Vorrichtung nach einem der Ansprüche 7 bis 11, dadurch gekennzeichnet, daß das FIR-Filter (25) fünf Knotenpunkte hat, an die Differenzen aus sechs benachbarten Detektoren an­ gelegt werden, und fünf komplexe Multiplizierer.
20. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, daß in einer komplexen Z-Ebene-Darstellung des Filters (25) die komplexen Bewertungsfaktoren so zugeordnet werden, daß eine Nullstelle bei Z=+1 auf der positven reellen Achse, eine Nullstelle bei Z=-1 auf der negativen reellen Achse und eine Nullstelle dritter Ordnung bei Z=-j auf der nega­ tiven imaginären Achse erzeugt wird.
21. Vorrichtung nach Anspruch 15, dadurch gekennzeichnet, daß die komplexen Bewertungsfaktoren für eine Nullstelle dritter Ordnung auf der negativen imaginären Achse proportional sind zu:
W₁ = -0,044-0,044j
W₂ = 0,088-0,177j
W₃ = 0,265
W₄ = 0,088+0,177j
W₅ = -0,044+0,044j.
22. Vorrichtung nach einem der Ansprüche 7 bis 11, dadurch gekennzeichnet, daß das FIR-Filter (25) sechs Knotenpunkte hat, an die Differenzen aus sieben benachbarten Detektoren angelegt werden, und sechs komplexe Multiplizierer.
23. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet, daß in einer komplexen Z-Ebene-Darstellung des Filters (25) die komplexen Bewertungsfaktoren so zugeordnet werden, daß eine Nullstelle bei Z=+1 auf der positiven reellen Achse, eine Nullstelle bei Z=-1 auf der negativen reellen Achse und eine Nullstelle vierter Ordnung bei Z=-j auf der nega­ tiven imaginären Achse erzeugt wird.
24. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, daß die komplexen Bewertungsfaktoren für eine Nullstelle vierter Ordnung auf der negativen imaginären Achse proportional sind zu:
W₁ = -0,031
W₂ = -0,031-0,125j
W₃ = 0,188-0,125j
W₄ = 0,188+0,125j
W₅ = -0,031+0,125j
W₆ = -0,031.
25. Elektronische holographische Vorrichtung, gekennzeichnet durch:
  • A. eine Einrichtung (10, 11, 12, 17, 18, 19, 20) zum Erzeugen eines optischen Beleuchtungs- und eines optischen Referenz­ bündels, die zueinander kohärent sind,
    • 1) wobei das Beleuchtungsbündel ein Objektfeld (13) be­ leuchtet, damit von dem Objektfeld (13) reflektiertes Licht auf ein begrenztes ebenes Aufnahmegebiet (16) auf­ trifft und ein Muster von Tupfen bildet,
    • 2) wobei das Referenzbündel das Aufnahmegebiet (16) von einer virtuellen Position (23) aus beleuchtet, die auf eine Seite des Objektfeldes (13) verschoben ist,
  • wobei die Anordnung eine lineare Überlagerung von sinusförmigen Streifen auf dem Muster von Tupfen, die auf das Aufnahme­ gebiet (16) auftreffen, erzeugt, wobei die Streifen in sämt­ lichen Tupfen im wesentlichen parallel und phasen- und ampli­ tudenunabhängig sind,
    wobei die Referenzquellenposition und der Mittelpunkt (21) des Objektfeldes (13) einen Winkelabstand haben, gemessen ab dem Mittelpunkt des Aufnahmegebiets (16), der im Mittel wenigstens ein dunkles Gebiet und ein helles Gebiet pro Tupfen erzeugt; und
  • B. eine Kamera (15) mit
    • 1) einer Öffnung (14), welche die Begrenzung des Aufnahme­ gebiets (16) bildet, wobei die Öffnung die Auflösung von separaten Elementen des Objektfeldes (13) in der Kamera (15) gestattet, und
    • 2) einer Matrix von optischen Detektoren, deren Ausgangs­ signale periodisch abgetastet werden und die als einem quadratischen Gesetz folgende Vorrichtungen auf das einfallende Licht ansprechen, um Kreuzproduktglieder zu erzeugen, wenn sie aus mehreren Quellen getroffen werden, wobei die optischen Detektoren in dem Aufnahmegebiet (16) und in Zeilen und Spalten angeordnet sind, wobei die Zeilen zu den Streifen rechtwinkelig sind und wobei die Spalten zu den Streifen parallel sind,
    • 3) einer Einrichtung zum Abbilden der Tupfen auf die Detektoren mit ausreichender Vergrößerung, so daß im Mittel eine volle Welle (ein dunkles und ein helles Gebiet) eines gestreiften Tupfens auf mehrere Detektoren in einer Zeile auftrifft, wobei die Anzahl der Detektoren ausreichend groß ist, damit die Amplitude und die räumliche Phase des Streifens unzweideutig bestimmt werden kann, und
    • 4) Einrichtungen (24-28) zum Verarbeiten der abgetasteten Ausgangssignale der Detektoren, um ein elektrisches Signal zu gewinnen, das die räumlichen Phasen und Amplituden der das Hologramm darstellenden Tupfen darstellt.
26. Vorrichtung nach Anspruch 25, dadurch gekennzeichnet, daß das beleuchtete Objektfeld (13) und die Referenzquelle (23) ein räumliches Spektrum über dem Aufnahmegebiet (16) her­ stellen, das auf vier räumlich überlagerte Glieder in den ab­ getasteten Detektorausgangssignalen führt, wobei die Glieder umfassen:
ein Spektralglied gleichförmigen Wertes aufgrund der Beleuchtung durch die Referenzquelle (23),
ein Spektralglied des Tupfenmusters aufgrund des beleuchteten Objektfeldes (13),
ein unerwünschtes negatives Raumfrequenzspektralglied, das dem konjugierten Glied des Kreuzprodukts entspricht, aufgrund von Licht aus dem beleuchteten Objektfeld (13) und der Referenz­ quelle (23), und
ein gewünschtes positives Raumfrequenzspektralglied, das dem direkten Glied des Kreuzprodukts aufgrund von Licht aus dem beleuchteten Objektfeld (13) und der Referenzquelle (23) entspricht,
wobei die Position des virtuellen Referenzpunktes (23) gegen­ über der Mitte (21) des Objektfeldes (13) unter einem Winkel (R₀) in der Mitte des Aufnahmegebietes (16) verschoben ist, der größer als der Winkel ist, der durch das Objektfeld (13) begrenzt wird, um zu bewirken, daß die vier Glieder, obgleich sie über der Öffnung räumlich überlagert sind, in dem Raum­ frequenzspektralgebiet in gegenseitig gesonderten Positionen verteilt sind.
27. Vorrichtung nach Anspruch 26, dadurch gekennzeichnet, daß die virtuelle Referenzquelle (23) eine virtuelle Punkt­ quelle ist, wobei der Mittelpunkt (21) des Objektfeldes (13) und der virtuelle Referenzpunkt in im wesentlichen demselben Abstand von der Ebene des begrenzten ebenen Gebietes angeordnet sind und bewirken, daß die Streifen in sämtlichen Tupfen im wesentlichen gleiche Raumfrequenzen haben, und daß die Detektoren zur effizienten Phasen- und Amplituden­ messung in gleichen Intervallen längs der Zeilen angeordnet sind.
28. Vorrichtung nach Anspruch 27, dadurch gekennzeichnet, daß eine Einrichtung (25) vorgesehen ist zum Isolieren des gewünschten positiven Raumfrequenzkreuzproduktspektralglieds von den anderen Gliedern in den abgetasteten Detektorausgangs­ signalen.
29. Vorrichtung nach Anspruch 28, dadurch gekennzeichnet, daß die Einrichtung zum Isolieren des gewünschten positiven Raumfrequenzkreuzproduktspektralglieds eine Einrichtung auf­ weist zum substraktiven Kombinieren der abgetasteten Aus­ gangssignale von aufeinanderfolgenden Detektoren in jeder Zeile, um einen (n-1)-fachen Satz von Ausgangsdifferenzen (P₁-P₀; P₂-P₁; P₃-P₂; . . .; P N -P N-1) zu gewinnen, wobei P das Signal aus einem Fotodetektor bezeichnet und wobei der Index dessen Position in einer Zeile von n Fotodetektoren bezeichnet, wobei die subtraktive Kombination als ein räumlich selektives FIR-Filter (25) wirkt, um das Spektralglied gleichförmigen Wertes und einen wesentlichen Teil des Spektralglieds des Tupfenmusters aus dem Kameraausgangssignal zu eliminieren.
30. Vorrichtung nach Anspruch 29, dadurch gekennzeichnet, daß die Einrichtung (25) zum Isolieren des gewünschten positiven Raumfrequenzkreuzproduktspektralglieds eine Ein­ richtung aufweist zum Einstellen der Intensität des Referenz­ bündels auf einen hohen Wert in Relation zu der Intensität der Beleuchtung, die von dem Objektfeld (13) über dem Auf­ nahmegebiet (16) reflektiert wird, um das Spektralglied des Tupfenmusters klein zu machen in Relation zu dem gewünschten positiven Raumfrequenzkreuzproduktspektralglied.
31. Vorrichtung nach Anspruch 30, gekennzeichnet durch: ein FIR-Filter (25), an das die Sequenz von Ausgangsdiffe­ renzen in den abgetasteten Detektorausgangssignalen angelegt wird, um das unerwünschte negative Raumfrequenzkreuzprodukt­ spektralglied zu beseitigen.
DE4011465A 1989-04-17 1990-04-09 Elektronische holographievorrichtung Withdrawn DE4011465A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/338,881 US4974920A (en) 1989-04-17 1989-04-17 Electronic holographic apparatus

Publications (1)

Publication Number Publication Date
DE4011465A1 true DE4011465A1 (de) 1990-10-18

Family

ID=23326543

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4011465A Withdrawn DE4011465A1 (de) 1989-04-17 1990-04-09 Elektronische holographievorrichtung

Country Status (6)

Country Link
US (1) US4974920A (de)
JP (1) JP3359918B2 (de)
CA (1) CA2012242A1 (de)
DE (1) DE4011465A1 (de)
FR (1) FR2645976B1 (de)
GB (1) GB2232845B (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5381249A (en) * 1985-10-17 1995-01-10 Burney; Michael Holographic display transmitting device
US5047845A (en) * 1990-10-09 1991-09-10 General Electric Company Charge-transfer-device planar array for detecting coherent-light phase
DE4224352A1 (de) * 1992-07-23 1994-01-27 Forschungsgesellschaft Fuer Dr Verfahren zur Ansteuerung eines Aufzeichnungsgerätes mit Bilddaten eines Halbtonbildes
US5337180A (en) * 1992-07-29 1994-08-09 The United States Of America As Represented By The Secretary Of The Air Force Optical signal dependent noise reduction by variable spatial thresholding of the fourier transform
US6249349B1 (en) * 1996-09-27 2001-06-19 Vincent Lauer Microscope generating a three-dimensional representation of an object
US6918538B2 (en) * 2002-12-18 2005-07-19 Symbol Technologies, Inc. Image scanning device having a system for determining distance to a target
JP2015505984A (ja) * 2011-12-02 2015-02-26 シー・エス・アイ・アールCsir ホログラム処理方法およびシステム
KR102577707B1 (ko) * 2018-04-30 2023-09-14 한국전자통신연구원 진폭 변조 홀로그램을 위한 홀로그램 인코딩 및 홀로그램 화질 평가 장치 및 그 방법
CN110163198B (zh) * 2018-09-27 2022-03-08 腾讯科技(深圳)有限公司 一种表格识别重建方法、装置和存储介质
CN112504165A (zh) * 2020-12-30 2021-03-16 南京理工大学智能计算成像研究院有限公司 一种基于双边滤波优化的复合立体相位展开方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3529083A (en) * 1967-02-14 1970-09-15 Holotron Corp System for producing holographic information
US3548093A (en) * 1967-12-19 1970-12-15 Winston E Kock Hologram television system and method
US3649754A (en) * 1970-04-20 1972-03-14 Stanford Research Inst Real time interferometry utilizing a television system
US3735036A (en) * 1970-10-26 1973-05-22 Express I M Co Real time interferometry contour mapping system
US3828126A (en) * 1973-04-13 1974-08-06 American Express Invest Real time interferometry
DE2441377A1 (de) * 1973-09-04 1975-03-13 Hauser Raimund Einrichtung zur durchfuehrung eines holographisch-interferometrischen oder moiremetrischen verfahrens
US4011442A (en) * 1975-12-22 1977-03-08 General Electric Company Apparatus for sensing optical signals
US4097749A (en) * 1977-01-06 1978-06-27 The United States Of America As Represented By The Secretary Of The Navy Fourier power spectra of optical images using CCD's
US4084257A (en) * 1977-05-19 1978-04-11 General Electric Company Signal processing apparatus
US4359758A (en) * 1979-04-05 1982-11-16 George Teacherson Holographic television
US4241421A (en) * 1979-07-26 1980-12-23 General Electric Company Solid state imaging apparatus
US4376950A (en) 1980-09-29 1983-03-15 Ampex Corporation Three-dimensional television system using holographic techniques
US4484219A (en) * 1982-06-16 1984-11-20 The Holotronics Corporation Electronically generated holography
DE3541891A1 (de) * 1985-11-27 1987-06-04 Kambiz Kachanian Verfahren zur erfassung, speicherung und wiedergabe von geometrischen daten von objekten, insbesondere von kiefermodellen und eine vorrichtung zur durchfuehrung des verfahrens
FR2593288B1 (fr) * 1986-01-20 1989-09-01 Aerospatiale Dispositif de controle non-destructif d'une piece par holographie optique

Also Published As

Publication number Publication date
US4974920A (en) 1990-12-04
FR2645976B1 (fr) 1994-05-20
GB2232845B (en) 1993-09-22
JPH02294680A (ja) 1990-12-05
GB9008446D0 (en) 1990-06-13
GB2232845A (en) 1990-12-19
CA2012242A1 (en) 1990-10-17
JP3359918B2 (ja) 2002-12-24
FR2645976A1 (fr) 1990-10-19

Similar Documents

Publication Publication Date Title
DE3905619C2 (de) Bildeingabe-/Ausgabevorrichtung
DE69812937T2 (de) Direkt-digitale holographie, holographische interferometrie und holovision
DE69215760T2 (de) Kreuzkorrelationsausrichtsystem für einen Bildsensor
DE3738667C2 (de)
DE2201830C3 (de)
DE3306709C2 (de)
DE112009001652T5 (de) Mehrkanal-Erfassung
DE69326508T2 (de) Stereoskopische Anzeigevorrichtung und -verfahren
DE4124223C2 (de) Verfahren zur Auswertung von Interferogrammen und Interferometer
DE69328055T2 (de) Stereoskopische Anzeigevorrichtung und -verfahren
DE2935265A1 (de) Ausrichtvorrichtung
EP0062083B1 (de) Einrichtung zur Bestimmung des Polarisationszustandes eines Lichtwellenfeldes und Verwendungen der Einrichtung zu interferometrischen und holographischen Messungen
DE4011465A1 (de) Elektronische holographievorrichtung
DE2305200C3 (de)
DE102020211380A1 (de) Verfahren zum superauflösenden Auswerten von strukturiert beleuchteten Mikroskopbildern und Mikroskop mit strukturierter Beleuchtung
DE69737779T2 (de) Holographisches Abbildungs- und Anzeigegerät und Verfahren
EP0147481A1 (de) Weisslicht-Interferometer
DE1940361A1 (de) Verfahren und Einrichtung zur Erzeugung eines Beugungsmusters sowie zur Herstellung eines Rasters aus gleichen Bildern
EP0866943B1 (de) Verfahren und vorrichtung zur hochauflösenden bestimmung von abständen im fokussierten bild eines linsen-pupillen-systems
DE1572678C3 (de) Verfahren zum Erzeugen von Ultraschall-Hologrammen und Apparat zu dessen Durchführung
EP0007627B1 (de) Optisches Empfangssystem
DE1805286A1 (de) Optischer Korrelator
DE2707325C2 (de) Vorrichtung zum Aufzeichnen und zum Rekonstruieren eines Hologramms
DE2541924A1 (de) Verfahren zum verbessern des wirkungsgrades bei der rekonstruktion eines fokussierbildhologrammes
DE69617109T2 (de) Verfahren und Vorrichtung für die optische Behandlung von zweidimensionalen Bildern, um das Geschwindigkeitsfeld zu gewinnen

Legal Events

Date Code Title Description
8128 New person/name/address of the agent

Representative=s name: VOIGT, R., DIPL.-ING., PAT.-ANW., 6232 BAD SODEN

8110 Request for examination paragraph 44
8139 Disposal/non-payment of the annual fee