DE19815105A1 - Vorrichtung und Verfahren zum Kalibrieren von Kamera bzw. Linse - Google Patents
Vorrichtung und Verfahren zum Kalibrieren von Kamera bzw. LinseInfo
- Publication number
- DE19815105A1 DE19815105A1 DE19815105A DE19815105A DE19815105A1 DE 19815105 A1 DE19815105 A1 DE 19815105A1 DE 19815105 A DE19815105 A DE 19815105A DE 19815105 A DE19815105 A DE 19815105A DE 19815105 A1 DE19815105 A1 DE 19815105A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- processor
- reference points
- coordinate system
- tilt
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 72
- 238000006073 displacement reaction Methods 0.000 claims description 9
- 238000004091 panning Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 4
- RZVAJINKPMORJF-UHFFFAOYSA-N Acetaminophen Chemical compound CC(=O)NC1=CC=C(O)C=C1 RZVAJINKPMORJF-UHFFFAOYSA-N 0.000 claims 1
- 238000012512 characterization method Methods 0.000 claims 1
- 230000011664 signaling Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 claims 1
- 238000004804 winding Methods 0.000 claims 1
- 238000004364 calculation method Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 20
- 239000013598 vector Substances 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 12
- 238000005259 measurement Methods 0.000 description 9
- 241000238633 Odonata Species 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000003825 pressing Methods 0.000 description 3
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 241000566708 Buphthalmum salicifolium Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- NQLVQOSNDJXLKG-UHFFFAOYSA-N prosulfocarb Chemical compound CCCN(CCC)C(=O)SCC1=CC=CC=C1 NQLVQOSNDJXLKG-UHFFFAOYSA-N 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
Die Erfindung betrifft allgemein das Generieren von Bildern für eine virtuelle Szene und
mehr im einzelnen ein Verfahren und eine Vorrichtung, durch welche eine vollständige Be
obachtungsöffnungsdefinition für ein komputergeneriertes Bild berechnet wird aus der Sen
sorinformation von Schwenken, Kippen, Zoom und Fokus der Kamera.
Das Berechnen virtueller Szenen (sets) auf dem Gebiet der komputergenerierten Bilderzeu
gung ist bekannt. Ein virtueller Szenenaufbau kombiniert von einer Kamera betrachtete und
aufgezeichnete Szenen mit Szenenelementen (wie beispielsweise Prospekthintergründen)
von einer anderen Quelle. Die von der Kamera aufgezeichneten Szenen sind typisch entwe
der bewegte oder stationäre Objekte, und die Szenen sind fotografiert vor einer ebenen,
farbigen Wand; typisch ist die Wand blau oder grün gefärbt. Spezielle Ausrüstung oder Pro
zesse werden dann verwendet, um die Kameraszenen mit den anderen Szenenelementen zu
kombinieren. Die Kombination wird gewöhnlich erzielt unter Verwendung von Zusammen
setz-(oder Montage-)Verfahren.
Zum Beispiel umfaßt eine typische Anwendung von Zusammensetzverfahren das Kombinie
ren einer Kameraszene mit einer Hintergrundszene, in der die Kameraszene eine lebendige
Person in dem Vordergrund ist und die Hintergrundszene eine Fotografie einer anderen
Szene (einer "synthetischen Szene") ist. Unter Verwendung dieser Verfahren wird alles in
der Kameraszene, was die Farbe des Studiohintergrundes (zum Beispiel blau) aufweist,
durch die synthetische Szene ersetzt. Vorzugsweise erscheint dann das kombinierte Bild, als
ob die Person in der Hintergrundszene angeordnet ist.
Statt einfach die Kameraszene vor der Hintergrundszene zu plazieren (aber deutlich sie
nicht in die Hintergrundszene einzumischen), ist es häufig wünschenswert, die Kameraszene
erscheinen zu lassen, als ob sie tatsächlich Bestandteil der Hintergrundszene wäre. In sol
chen Fällen ist es erforderlich, mit beachtlicher Präzision genug Information über die Kame
ra zu kennen, um die Szene zu generieren, welche die Kamera "sieht", wenn die Hinter
grundszene tatsächlich Bestandteil der Kameraumgebung wahre. Diese Berechnungen erfor
dern, daß der Bildgenerator weiß, was eine Kamera "sieht", so daß der Bildgenerator die
entsprechende Szene aus einer virtuellen Datenbank erzeugen kann. Die benötigte Kame
rainformation umfaßt das Kennen der XYZ-Position, der Orientierung (Schwenken, Kippen
und Rollen), des Bildfeldes (Zoom) und des Fokus.
Genaue Berechnungen der Kamerainformation ist seit Jahren ein Problem. Einige Systeme
umfassen das Einrichten von Kameras unter Verwendung eines Bandmaßes zum Messen
von Abständen für jede Position der Kamera. Wenn zum Beispiel die Kamera sich auf einem
Ständer befindet, kann das Messen des Standortes des Ständers eine nützliche Information
bei der Bestimmung der Kameraposition sein. Dann wird die Kameraszene, statt die Win
kelposition der Kamera zu berechnen, manuell durch Beobachtung mit der synthetischen
Szene in Übereinstimmung gebracht. Diese Berechnungen leiten andere Probleme ein, da sie
nicht die Knotenpunktversetzung gegen den Ursprung der Schwenk/Kippachse berücksich
tigen, der zu Passungsfehlern in einem zusammengesetzten Bild führt. Außerdem lassen die
Berechnungen möglicherweise einfach keine Knotenpunktversetzung gegen den Schnitt
punkt der Schwenk/Kippachse zu. Das Ergebnis ist, daß der Schwerpunkt von der Kipp
achse weg verlegt ist, was bewirkt, daß Motoren Leistung verbrauchen, während sie dyna
misch die Kamera in Position halten. Ferner kann die Berechnung nur für ein Blickfeld ge
nau sein, selbst wenn die Knotenposition genau berechnet ist.
Wie von dem Fachmann gewürdigt wird, sind die erhältlichen Kalibrierverfahren sehr müh
sam und erfordern häufig Messungen, die eine optische Werkbank und manuell verzeichnete
Datenpunkte verwenden. Tatsächlich benötigen einige Verfahren zum richtigen Bewegen
einer Kamera auf einer virtuellen Szene bis zu 45 Minuten für jede Kamerabewegung. Wenn
Kameras viele Male während des Tages auf der virtuellen Szene bewegt werden, wird be
trächtliche Zeit verloren, und die Bedeutung einer rascheren Kalibrierens der notwendigen
virtuellen Szenen-Einstelldaten wird gewürdigt. Von gegenwärtigem Interesse ist ein Ver
fahren und eine Vorrichtung zum rascheren Berechnen einer vollständigen
Schauöffnungsdefinition für die Berechnung und Generierung virtueller Bilder.
Ein Ziel der Erfindung ist die Schaltung eines Verfahrens und einer Vorrichtung zum
schnellen Berechnen einer Beobachtungsöffnungsdefinition, so daß virtuelle Bilder ohne
unzumutbare Verzögerung generiert werden können.
Ein weiteres Ziel der Erfindung ist die Schaltung eines solchen Verfahrens und einer solchen
Vorrichtung zum schnellen Berechnen eines Augenpunktes einer Kamera, so daß eine virtu
elle Szene ohne übermäßige Verzögerung generiert werden kann.
Noch ein weiteres Ziel der Erfindung ist die Schaffung eines solchen Verfahrens und einer
solchen Vorrichtung zum schnellen Berechnen einer Orientierung einer Kamera, so daß eine
virtuelle Szene ohne übermäßige Verzögerung generiert werden kann.
Ein Ziel der Erfindung ist auch die Schaltung eines solchen Verfahrens und einer solchen
Vorrichtung zum Berechnen eines Blickfeldes einer Kamera, die nur mechanische Sensoren
für die Einstellungen und Steuerungen von Schwenken, Kippen, Zoom und Fokus der Ka
mera verwendet.
Ein zusätzliches Ziel der Erfindung ist die Schaffung eines solchen Verfahrens und einer
solchen Vorrichtung zum Berechnen eines Fokalebenenabstands einer Kamera, so daß eine
virtuelle Szene ohne übermäßige Verzögerung generiert werden kann.
Noch ein weiteres Ziel der Erfindung ist die Schaltung eines solchen Verfahrens und einer
solchen Vorrichtung zum Berechnen eines Expansionsfokus einer Kamera, so daß eine vir
tuelle Szene ohne übermäßige Verzögerung generiert werden kann.
Ein weiteres Ziel der Erfindung ist die Schaltung eines solchen Verfahrens und einer solchen
Vorrichtung zum Beschränken bestimmter Arten von Bewegungen der Kamera, wodurch
die gewünschte Beobachtungsöffnung schnell berechnet werden kann, wobei minimale Pa
rameter und eine minimale Ausstattung verwendet wird.
Die obigen und weitere nicht spezifisch aufgeführte Ziele werden verwirklicht durch ein
Verfahren und eine Vorrichtung zum Generieren einer Beobachtungsöffnung für ein kom
putergeneriertes Bild unter Verwendung von Sensorinformation, welche sich auf Steuerun
gen von Schwenken, Kippen, Zoom und Fokus einer Videokamera bezieht. Das Verfahren
umfaßt allgemein die Schritte, (a) daß Bezugspunkte in einem umschlossenen Raum festge
legt werden, welcher zum Aufzeichnen von Bildern mit der Kamera zu verwenden ist, (b)
daß die Kamera in dem umschlossenen Raum relativ zu den Bezugspunkten derart positio
niert wird, daß die Kameraposition bestimmt werden kann durch Triangulation bezüglich
der Bezugspunkte, (c) daß Positionsdaten entwickelt werden durch Triangulation, welche
die Kameraposition in einem Koordinatensystem relativ zu den Bezugspunkten identifiziert,
(d) daß Kameraorientierungsdaten von Sensoren (typisch optischen Kodierern) aufgezeich
net werden, die angeordnet sind zum Ermitteln von Kameraparametern, welche die Einstel
lungen von Schwenken, Kippen, Zoom und Fokus der Kamera definieren, und (e) daß eine
Datenbank entwickelt wird, die eine Beobachtungsöffnung für die Kamera definiert, defi
niert aus einer Kombination der Positionsdaten und der Kameraorientierungsdaten. Das
Berechnen der Beobachtungsöffnung (das heißt, eines Augenpunktes, einer Orientierung,
eines Blickfeldes, eines Fokalebenenabstands und eines Expansionsfokus), während die Ka
mera sich bewegt, ist das endgültige Ziel der Kameranachführvorrichtung.
Ein Vorteil der Erfindung ist die Schaltung eines Verfahrens und einer Vorrichtung, welche
schnell eine Beobachtungsöffnungsdefinition berechnen, so daß virtuelle Bilder ohne unzu
mutbare Verzögerung generiert werden können. Es ist nicht ungewöhnlich in dem Stand der
Technik, daß 45 Minuten benötigt werden, um eine Beobachtungsöffnungsdefinition neu zu
berechnen, wenn die Kamera bewegt wird. Diese Verzögerung wird durch die Erfindung
bedeutend überwunden.
Ein weitere Vorteil der Erfindung ist die Schaltung eines solchen Verfahrens und einer sol
chen Vorrichtung zum schnellen Berechnen eines Augenpunktes oder Blickfeldes einer Ka
mera, so daß ein virtueller Szenenaufbau ohne übermäßige Verzögerung generiert werden
kann. Ähnlich dem Berechnen einer Beobachtungsöffnungsdefinition berechnet die Erfin
dung vorteilhaft eine Augenpunktdefinition oder ein Blickfeld ohne die Verzögerungen, die
vom Stand der Technik erfahrene werden.
Ein weiterer Vorteil der Erfindung ist die Schaltung eines solchen Verfahrens und einer
solchen Vorrichtung zum Beschränken bestimmter Arten von Bewegungen der Kamera,
wodurch die gewünschte Beobachtungsöffnung berechnet werden kann unter Verwendung
minimaler Parameter und einer minimalen Ausstattung.
Noch ein weiterer Vorteil der Erfindung besteht in der Verwendung von Schwenk-, Kipp-,
Zoom- und Fokus-Sensoren zum Ständerpositionieren.
Im folgenden wird die Erfindung anhand eines in der Zeichnung gezeigten Ausführungsbei
spiel näher beschrieben. In der Zeichnung zeigen:
Fig. 1 eine Vorderansicht von Bezugspunkten A, B, C und D, von einem Augenpunkt E
aus betrachtet;
Fig. 1A das Koordinatensystem, das in der Erfindung für die Berechnungen einer Beob
achtungsöffnungsdefinition verwendet wird;
Fig. 2 eine Seitenansicht einer an einem Ständer montierten Kamera mit Angabe der
Lage von Punkten von Interesse bei Beobachtungsöffnungsberechnungen;
Fig. 3 eine Draufsicht einer Kamera, die an einem Kopf derart montiert ist, daß die late
rale Zentrierung der Kamera erkannt werden kann;
Fig. 4 eine Draufsicht einer Kamera, so daß der Knotenpunkt als versetzt gegen die
Kippachse gesehen werden kann;
Fig. 4A eine Seitenansicht des Vektors TR und der Vektoren, die zum Berechnen des
Abstands d verwendet werden;
Fig. 5 eine Draufsicht eines Dreibeinstativkopfes, der mit Röhrenlibellen unter 90 Grad
ausgerüstet ist;
Fig. 5A Sichtlinien-Kippwege für nivellierte und nicht nivellierte Kameras und gibt kor
rektive Aktionen an, die zu unternehmen sind zur richtigen Feineinstellnivellie
rung einer Kamera, wenn das Kippen den nicht-vertikalen Linien folgt;
Fig. 6 eine perspektivische Seitenansicht einer Vorrichtung zum Messen der Kippver
setzung;
Fig. 7 eine schematische Skizze eines Prozessors zur Verwendung bei dem Tabellieren
und Verarbeiten von Schwenk-, Kipp-, Zoom- und Fokus-Kodiererdaten sowie
anderer Daten betreffend die Bezugspunkte;
Fig. 8 eine Seitenansicht der bei der Berechnung des Abstands d verwendeten Winkel;
Fig. 9 eine Draufsicht von einander schneidenden Kreisen, die dazu verwendet werden,
die Lage des Schwenk/Kipp-Schnittpunktes T zu berechnen;
Fig. 10 eine perspektivische Seitenansicht einer zweiten Vorrichtung zum Messen der
Kippversetzung;
Fig. 11 eine Draufsicht eines Dreibeinstativkopfes, der mit Röhrenlibellen unter 60 Grad
ausgerüstet ist; und
Fig. 12 eine Draufsicht eines Dreibeinstativkopfes, der mit einer kreisförmigen (oder
Ochsenaugen-) Libelle ausgerüstet ist.
Nun wird auf die Figuren bezug genommen, in denen den verschiedenen Elemente der Er
findung numerische Bezeichnungen gegeben werden, und in denen die Erfindung diskutiert
wird, um auf diese Weise dem Fachmann zu ermöglichen, die Erfindung auszuführen und zu
verwenden. Es versteht sich, daß die folgende Beschreibung nur beispielhaft für die Prinzi
pien der Erfindung ist und nicht als Beschränkung der Ansprüche angesehen werden sollte.
Ein Prinzip der Erfindung besteht darin, eine Kamera selbst zu verwenden anstelle eines
Theodoliten oder Universaltheodoliten (transit), um die Kameraposition durch das Vermes
sungsverfahren der Triangulation zu berechnen. Triangulation ist ein trigonometrisches
Verfahren zum Ermitteln einer Position unter Verwendung von Peilungen von zwei
"feststehenden" Punkten, die sich in einem bekannten Abstand befinden. Wenn die Kamera
als der Theodolit funktioniert, kann sie dazu verwendet werden, ihre eigene Position relativ
zu einem Satz von Bezugsmarkierungen in dem Studio zu berechnen. Nachdem die Kame
raposition bestimmt ist, wird die Positionsinformation mit anderer Kamerainformation kom
biniert, so daß eine vollständige Bildgenerator-Beobachtungsöffnung (viewport) für die
virtuelle Szene (set) definiert werden kann.
Der erste Schritt in der Erfindung ist das Festlegen der "feststehenden" Punkte oder Be
zugspunkte für die Triangulationsberechnungen, die bei Verwendung der Kamera als einen
Theodoliten anzustellen sind. Die Bezugspunkte werden typisch festgelegt in einem um
schlossenen Raum wie einem Fernsehstudio, wo Vordergrundszenen leicht auf Video auf
gezeichnet werden können mit dem typischen blauen oder grünen Hintergrund in Vorberei
tung auf das Zusammensetzen mit einem virtuellen Bild. Eine bevorzugte Anordnung der
Bezugspunkte ist in Fig. 1 gezeigt.
In Fig. 1 bilden die Bezugspunkte A, B, C und D ein Rechteck einer Ebene, wobei die
Ebene vorzugsweise die Wand des Studios ist. Das Rechteck wird gebildet, wenn vertikale
Linien AC und BD parallel zueinander mit der Höhe h festgelegt werden. Die Bezugspunkte
A und B befinden sich jeweils in der gleichen Höhe, ebenso wie die Bezugspunkte C und D.
Der Abstand zwischen den zwei Linien ist mit w bezeichnet. Ein rechtsgängiges Koordina
tensystem ist festgelegt in x, y und z, um das Verständnis der Orientierung zwischen diesen
Bezugspunkten und anderen einzuführenden Punkten zu vereinfachen. Das Koordinatensy
stem ist bei dem unteren linken Abschnitt in Fig. 1 gezeigt, und die Einzelheiten des Ko
ordinatensystems sind in Fig. 1A gezeigt. Die Linie von A nach B liegt parallel zur
x-Achse des Studioraumes in dem Koordinatensystem, während die Linie von A nach C
parallel zur y-Achse liegt. Die z-Achse steht senkrecht zu der x-y-Ebene und weist hin zu
dem Betrachter oder dem Augenpunkt E. Der Augenpunkt E ist auch als der Knotenpunkt
bekannt.
Eine horizontale Ebene wird gebildet zwischen dem Knotenpunkt E und den zwei mit L und
R bezeichneten Punkten. Die Punkte L und R sind die Punkte, bei den die horizontale Ebene
ELR die Linien AC und BD schneidet. Die ELR-Ebene steht senkrecht zu der
ABCD-Ebene, also steht die Linie EL senkrecht zu AC und die Linie ER steht senkrecht zu BD.
Die Linie LR variiert in ihrer Höhe je nach der momentanen Höhe des Augenpunktes E,
wobei der Augenpunkt E mit der Höhe der Kamera und anderen Parametern der Kamera
übereinstimmt.
Der Punkt M repräsentiert Modellraum. Die Versetzung zwischen dem Modellraum und
dem Studiobezugsraum kann durch den Benutzer eingestellt werden. Der Studioraum kann
im Azimut gedreht werden und kann relativ zu dem Modellraum verschoben werden, um
optimale Kamerasichten der virtuellen Umgebung zu wählen. Datenbankeinheiten und die
Versetzung des Modellraumes zu dem Studiobezugsraum (Vektor MA) können differieren
zwischen Datenbanken ebenso wie die Kursorientierung des Studioraumes gegen den Mo
dellraum. Jedoch werden gemäß der Erfindung die Parameter schnell und leicht verändert.
Das Festlegen der Bezugspunkte A, B, C und D kann auf verschiedene Arten erreicht wer
den. Ein Verfahren besteht darin, ein Senkblei, eine Leiter, ein Meßband und Markierer
(zum Beispiel Reißzwecken) zu erhalten. Dieses Verfahren benötigt annähernd zwei
Stunden zum Fertigstellen. Am Anfang sollten sie annähernde Stellen für die Bezugspunkte
planen. Obwohl die Abstandseinteilung nicht kritisch ist, wird eine um so höhere Genauig
keit während der Kalibrierung erzielt, je weiter die Markierer beabstandet sind. Mit dem
Senkblei ziehen Sie eine vertikale Linie, die entlang AC liegt bei einer geeigneten Stelle links
im Studio. Ziehen Sie die Linie an einer Stelle, die von der Kamera gesehen werden kann für
alle vorausgesehenen Kamerapositionen. Eine Wand ist häufig eine gute Wahl, da Wände
eine fast vertikale, ebene Fläche aufweisen sowie einen Ort zum Anbringen einer Marke,
ohne zusätzliche Stützaufbauten zu benötigen.
Wenn die Markierer Reißzwecken sind, drücken Sie eine Reißzwecke in die Wand an einem
willkürlichen Punkt C nahe dem oberen Ende der Lotschnur. Halten Sie den Kopf der Reiß
zwecke gerade berührend und zentriert an der Lotschnur. Dann drücken Sie eine Reißzwec
ke in die Wand an einem willkürlichen Punkt A nahe dem unteren Ende der Lotschnur. Der
Kopf der Reißzwecke sollte zentriert und die Lotschnur leicht berührend sein. Sie müssen
eventuell einstellen, wie tief die Reißzwecken in die Wand gedrückt werden, um ihre Köpfe
im Lot zu halten. Sie müssen eventuell eine Unterlage unter eine der Reißzwecken einfügen,
wenn die Wand ausreichend aus dem Lot liegt. Der Abstand zwischen A und C sollte ge
messen werden, und der Abstand h sollte aufgezeichnet werden.
Als nächstes ziehen Sie mit dem Senkblei eine vertikale Linie, die entlang BD liegt bei einer
geeigneten Stelle rechts im Studio. Typisch ist dies die gleiche Wand, die verwendet wird
bei dem Markieren der Punkte A und C. Drücken Sie eine Reißzwecke in die Wand bei dem
Punkt B nahe dem unteren Ende der Lotschnur, wobei der Abstand von dem Fußboden der
gleiche ist wie bei Punkt A. Messen Sie von dem Punkt B nach oben entlang der Lotschnur
eine Höhe h und plazieren Sie eine weitere Reißzwecke bei dem Punkt D. Der Fußboden
kann ein wenig uneben sein, daher kann eine Justierung in der vertikalen Linie BD erforder
lich sein. Messen Sie die diagonalen Abstände zwischen BC und AD. Verstellen Sie die
Punkte B und D entlang der Lotschnur, falls erforderlich, bis die diagonalen Abstände BC
und AD übereinstimmen, wobei Sie den Abstand zwischen B und D gleich h halten
Schließlich messen Sie die Breite w, den Abstand zwischen den Punkten A und B. Zeichnen
Sie w auf für kunftige Bezugnahme.
Wenn Bezugspunkte in dem Studio festgelegt sind, muß eine Kamera in dem Studio derart
positioniert werden, daß die Bezugspunkte innerhalb des Blickfeldes der Kamera liegen.
Fig. 2 zeigt die Kamera 10 positioniert an einem Kopf 12 eines Ständers 14. Die Kamera
10 wird derart positioniert, daß sie nur eine Schwenk- und Kippbewegung aufweist; ein
Kamerarollen wird vermieden. Fig. IA zeigt die Bewegungen, die dem
Kamera-Schwenken, -Kippen und -Rollen entsprechen. Schwenken (pan) ist ein Bewegungswinkel
der Kamera 10 gegen den Uhrzeigersinn (wenn man zur positiven y-Richtung schaut) auf
der y-Achse in der x-z-Ebene, Kippen (tilt) ist ein Bewegungswinkel der Kamera 10 im
Uhrzeigersinn (wenn man zur positiven x-Richtung schaut) auf der x.-Achse in der
y-z-Ebene, und Rollen (roll) ist ein Bewegungswinkel der Kamera gegen den Uhrzeigersinn
(wenn man zur positiven z-Richtung schaut) auf der z-Achse in der x-y-Ebene. Im folgen
den und gemäß der in dem Fach üblichen Praxis sind die Symbole für Schwenken, Kippen
und Rollen h, p bzw. r.
Die Kamera-Schwenk- und Kippwinkel werden durch Sensoren in dem Kopf 12 nachge
führt. Wie in Fig. 2 gezeigt, sind verschiedene Punkte von Interesse durch unterschiedliche
Symbole bezeichnet. M repräsentiert Modellraum, T repräsentiert den Schnittpunkt zwi
schen den Schwenk- und Kippachsen, P repräsentiert die Schwenkachse und E repräsentiert
den Augenpunkt (oder Knotenpunkt) und sollte sich in der Ebene der Schwenkachse senk
recht zu der Kippachse bewegen. Fadenkreuze oder andere Mittenanzeiger müssen in dem
Kamerasucher oder in einem Hilfsmonitor erscheinen. Es sollte beachtet werden, daß der
Augenpunkt gewöhnlich gegen den Kameraschwerpunkt versetzt ist.
Fig. 3 zeigt eine Draufsicht der Kamera 10 derart, daß die laterale Zentrierung der Kamera
betrachtet werden kann hinsichtlich des Anbringens der Kamera an dem Kopf 12 des Stän
ders 14. Wie in Fig. 3 gezeigt, ist die Kamera 10 so angebracht, daß sie in Seitenrichtung
an dem Kopf 12 zentriert ist. Es ist auch wünschenswert, die Kamera 10 vorwärts oder
rückwärts zu bewegen, um den Schwerpunkt nahe der Kippachse zu legen. Folglich ist der
Knotenpunkt E gewöhnlich gegen die x-Achse versetzt, wie in Fig. 4 gezeigt. Sie können
die Position der Kamera 10 an dem Kopf 12 markieren, falls Sie je die Kamera abnehmen
und wieder anbringen müssen.
Fig. 4A zeigt eine Seitenansicht der Strahlen entlang der optischen Achse und ihre zugehö
rigen Kippwinkel, wenn man auf die Punkte A[B] oder C[D] blickt. T ist die Kippachse und
d ist der Abstand zwischen T und AC. R ist ein Bezugspunkt an der Kamera, wo die opti
sche Achse mit der Vorderseite des Kamerakörpers zusammentrifft. Diese Vektorkompo
nenten TRy und TRz werden gemessen und aufgezeichnet zur künftigen Verwendung bei
der Berechnung von r, der Länge des Vektors TR und des Winkels δ zwischen der hori
zontalen Ebene und dem Vektor TR.
Ein weiterer wichtiger Montageaspekt ist das Nivellieren der Kamera 10 an dem Kopf 12.
Die Kamera 10 muß genau nivelliert werden zu richtigen Kameranachtuhrung bei Verwen
dung mechanischer Schwenk-, Kipp-, Zoom- und Fokussensoren. Das Nivellieren des
Kopfes gestattet eine einfache Zuordnung des Kameraschwenkens und -kippens zu Kurs
und Steigung (heading and pitch) in der virtuellen Umgebung. Gewöhnlich ist der Fußboden
eines Studios nicht perfekt flach oder horizontal. Daher sollte das Kameraniveau überprüft
und korrigiert werden, falls erforderlich, wenn die Kamera von einem Standort zu einem
anderen bewegt wird. Die Schwenkachse des Kamerakopfes sollte vertikal sein innerhalb
einer Bogenminute für beste Ergebnisse bei Fernsehauflösung für weite und enge Aufnah
men.
Richtiges Nivellieren findet statt, indem der Kopf 12 visuell so eingestellt wird, daß er annä
hernd waagerecht steht. Dies kann erreicht werden durch Verwendung von Kopfnivellieran
zeigern, die häufig in den Kopf eingebaut sind. Wenn der Kopf an einem Dreibeinstativ
montiert ist, verstellen Sie den Beinspreizer oder die Verlängerung, um das Nivellieren des
Kamerakopfes zu justieren. Fig. 5 zeigt einen Kamerakopf mit zwei röhrenförmigen Nivel
lierlibellen, die unter 90 Grad zueinander angeordnet sind. Der Kopf ist an einem Dreibein
so orientiert, daß die Achse der Libelle 1 annähernd parallel zu einer gedachten Linie durch
die Schwenkpunkte von Bein 1 und Bein 2 verläuft, und die Achse der Libelle 2 liegt paral
lel zu einer gedachten Linie durch Bein 3 senkrecht zu Libelle 1. Um den Kopf zu nivellie
ren, (1) verstellen Sie Bein 1 (und Bein 2, falls erforderlich), bis die Libelle 1 zentriert ist;
(2) verstellen Sie das Bein 3, bis die Libelle 2 zentriert ist (Beachten Sie, daß die Libelle 1
relativ unempfindlich gegen Änderungen in dem Bein 3 ist); und (3) wiederholen Sie die
Schritte (1) und (2), bis die gewünschte Nivellierung erreicht ist.
Wenn die Nivellierlibellen nicht genügend genau sind, kann das Niveau des Kopfes 12 fein
eingestellt werden unter Verwendung der Bezugspunkte in dem Studio (A, B, C und D,
festgelegt unter Bezugnahme auf Fig. 1). Die Feineinstellung beginnt mit den obigen
Schritten des Nivellierens des Kamerakopfes so genau wie möglich. Dann verstellen Sie den
Zoom der Kamera einwärts (zoomen Sie die Kamera ein), stellen den Fokus auf unendlich
und entriegeln Sie das Schwenken und Kippen. Die Kamera ist nun zur Feineinstellnivellie
rung bereit.
In Fig. 5A sind Linien gezeigt, die der Linie entsprechen, der in dem Kamerasucher gefolgt
wird, wenn die Kamera vertikal auf oder ab bewegt wird. Die Linie 50 repräsentiert die ver
tikale Linie zwischen den vorher festgelegten Bezugspunkten A und C oder B und D. Die
Linien 54 und 58 repräsentieren Linien, denen der Kamerasucher folgen wird, wenn die
Kamera sich nicht genau waagerecht an dem Kopf 12 befindet. Fig. 5A repräsentiert mög
liche Linien, denen in dem Nivellierprozeß der Erfindung gefolgt werden kann.
Der erste Schritt bei der Feineinstellnivellierung umfaßt das Ausrichten der Kamera auf den
Bezugspunkt A. Verriegeln Sie das Kameraschwenken und kippen Sie dann die Kamera
nach oben zu dem Bezugspunkt C, wobei Sie beachten, in welcher Richtung das Faden
kreuz von der vertikalen Linie AC auswandert. Wenn die Kamera von der vertikalen Linie
AC entweder auf eine der Linien 54 oder 58 auswandert, dann verstellen Sie das Kame
radreibein oder den Ständer 14 so, daß es entweder im Uhrzeigersinn (CW) oder gegen den
Uhrzeigersinn (CCW) rollt, um das Auswandern von der Vertikale zu kompensieren. Wie
derholen Sie diesen Prozeß, bis das Kippen eng der vertikalen Linie 50 folgt. Fig. 5A gibt
die Richtung an, in der die Kamera 10 zu rollen ist, wenn sie von der gewünschten vertika
len Linie 50 auswandert.
Als nächstes entriegeln Sie das Schwenken und richten die Kamera 10 auf den Bezugspunkt
B. Dann verriegeln Sie das Schwenken und kippen die Kamera 10 zu dem Bezugspunkt D,
wobei Sie beachten, in welcher Richtung das Fadenkreuz von der vertikalen Linie 50 aus
wandert. Verstellen Sie das Dreibein oder den Ständer, um im Uhrzeigersinn oder gegen
den Uhrzeigersinn zu rollen, um das Auswandern von der vertikalen Linie 50 zu kompensie
ren und wiederholen Sie diesen Prozeß, bis das Kippen eng der vertikalen Linie 50 folgt. An
diesem Punkt wiederholen Sie den obigen Prozeß hinsichtlich der vertikalen Linie zwischen
AC und dann BD, bis das Nivellieren zufriedenstellend ist, das heißt, bis das Kippen genau
der vertikalen Linie AC sowie der vertikalen Linie BD folgt.
Wenn die Kamera 10 waagerecht ist, ist eine genaue Messung des absoluten Kippens erfor
derlich zur Triangulation und zur richtigen Zusammensetzungspassung während der Echt
zeit-Kameranachführung. Die genaue Messung des relativen Kippwinkels wird garantiert
durch die Verwendung optischer Kodierer in dem Kopf 12. Der absolute Kippwinkel wird
jedoch festgelegt durch Halten des Kopfniveaus, und indem man weiß, welche Kippkodie
reranzeige Null Grad der optischen Achse gleichen, oder die "Kippversetzung" kennt. Ob
wohl die Kippversetzung hauptsächlich ein Merkmal der Kodierermontage in dem Kopf ist,
braucht die optische Achse der Kamera nicht genau parallel zu ihrer Montagefläche zu
verlaufen, aber die Kippversetzung kompensiert beide Faktoren.
Um die Kippversetzung zu bestimmen, kann auf Fig. 6 bezug genommen werden, während
der folgende Prozeß ausgeführt wird. (1) Unter Verwendung des oben beschriebenen Pro
zesses nivellieren Sie den Kamerakopf so genau wie möglich. In dem Kamerasucher ist ein
Fadenkreuz angezeigt, so daß die Kameravisierlinie auf waagerechten Blick eingestellt wer
den kann, so genau Sie schätzen können. (2) Stellen Sie ein Laser-Nivellierinstrument (oder
automatisches Nivellierinstrument) benachbart der Kamera auf sein eigenes Stativ. (3) Stel
len Sie die Höhe des Laser-Nivellierinstrument-Austrittspunktes (oder des Linsenzentrums
des Auto- Nivellierinstrumentes) auf die gleiche Höhe ein wie das Zentrum der Kameralinse.
Wenn ein Auto- Nivellierinstrument verwendet wird, markieren Sie einen Fleck an der
Wand bei dem Nivellierpunkt. (4) Kippen Sie die Kamera, bis der Laserfleck (oder die Au
to-Nivelliermarke) in das Zentrum des Fadenkreuzes fällt. Wiederholen Sie die Schritte (3)
und (4), bis die Höhe der Lasernivellierung innerhalb von annähernd 1,6 mm (1/16'') von
dem Zentrum der Kameralinse liegt. Und schließlich verzeichnen Sie die Kippversetzung,
welche die Kippkodiereranzeige ist, für künftige Verwendung.
Wie bei dem Kippwinkel ist eine genaue Messung des absoluten Schwenkwinkels erforder
lich während der Echtzeit-Kameranachführung zur richtigen Zusammensetzungspassung.
Die genaue Messung des relativen Schwenkwinkels wird garantiert durch die Verwendung
optischer Kodierer, aber der absolute Winkel wird festgelegt durch Kennen des Schwenk
kodierer-Anzeigeergebnisses, wenn die optische Achse in die Richtung von Null Grad weist,
oder der "Schwenkversetzung". Die Schwenkversetzung verändert sich mit der Ausrichtung
des Kodierers auf seiner Welle und mit der Drehung des Ständers 14, wenn er über den
Studioboden bewegt wird. Wie nachfolgend beschrieben, wird die Schwenkversetzung
automatisch gemessen während des Triangulationsprozesses, und es ist kein zusätzlicher
Eingriff des Benutzers erforderlich.
Um die Einstellungen von Schwenken, Kippen, Zoom und Fokus der Kamera 10 abzuta
sten, werden typisch inkrementale optische Kodierer angewendet, da sie gewöhnlich eine
höhere Auflösung und niedrigere Kosten aufweisen als absolute Kodierer. Akkumulatoren
in der Kodiererschnittstelle zählen die Impulse von dem Kodierer in positiver sowie in ne
gativer Richtung. Die Information in diesen Akkumulatoren wird dazu verwendet, die Ko
diererposition zu ermitteln.
Nach dem Einschalten enthalten Akkumulatoren Werte, die zur absoluten Kodiererposition
nicht in Beziehung stehen. Sie müssen auf Null gesetzt oder auf einen bekannten Wert bei
einer bekannten Position voreingestellt werden. Die meisten inkrementalen optischen Kodie
rer sind zu diesem Zweck mit einem Indeximpuls ausgestattet. Um den inkrementalen Ko
dierer auf Null zu stellen, (1) stellen Sie Schwenken, Kippen, Zoom und Fokus auf extreme
Positionen ein und (2) bewegen Sie Schwenken, Kippen, Zoom und Fokus über ihre ge
samten Bereiche, um sicherzustellen, daß ihre Indexmarken an einem gewissen Punkt ange
troffen werden.
Nach dem Festlegen der Bezugspunkte und richtigem Positionieren der Kamera 10 wird ein
Prozessor 70 (in einer schematischen Skizze in Fig. 7 gezeigt) verwendet zur Eingabe und
Verarbeitung aller Daten, die das Festlegen der Beobachtungsöffnungsdefinition (viewport)
betreffen. Kodiererdaten werden elektronisch eingegeben. Alle übrigen Daten können in den
Prozessor 70 über eine Benutzerschnittstelle 72 oder ein Tastenfeld 74 eingegeben werden.
Die Benutzerschnittstelle 72 kann eine Tastatur, eine Maus, ein Berührungsschirm oder eine
andere speziell angefertigte Benutzerschnittstelle zum Eingeben von Daten in den Prozessor
70 sein. Der Prozessor 70 erhält die Daten betreffend (i) die Bezugspunkte (das heißt, h,
den Abstand zwischen den Punkten A und C, w, den Abstand zwischen den Punkten A und
B), (ii) die Nivellierinformation (Kippversetzung), (iii) die Linsencharakteristik, (iv) die
Studioraumversetzung und Orientierung, (v) TRy und TRz, (vi) Kodiererspezifikationen
und (vii) die Modellraumskala. Der Prozessor 70 ist programmiert zum Verarbeiten der
obigen Positionsdaten, kombiniert mit Sensordaten von Schwenk-, Kipp-, Zoom- und Fo
kus-Sensoren der Kamera, so daß eine Kamera-Beobachtungsöffnung (oder ein
Knotenpunkt) durch den Prozessor definiert wird.
Das Berechnen des Knotenpunktes E (Augenpunkt) bei Bewegen der Kamera 10 ist das
endgültige Ziel der Kameranachführvorrichtung. Eine Komponente dieser Berechnung ist
die Position des Schwenk/Kipp-Schnittpunktes T in dem Modellraum, welche neu festgelegt
werden muß, jedesmal wenn der Ständer 14 bewegt wird. Der Vektor von dem Studiobe
zugspunkt A zu dem Schwenk/Kipp-Schnittpunkt T in Studioraumkoordinaten wird Vektor
sAT genannt. Der Vektor sAT wird durch einen Triangulationsprozeß festgelegt. Der
Vektor von dem Modellraumursprung zu dem Studiobezugspunkt A in Modellraumkoordi
naten wird mMA genannt und wird in den Prozessor 70 eingegeben durch den
"Eigenschaftssteuerungsdialog", der auf dem Display 78 erscheint. Die Summe dieser Vekto
ren ist der Vektor mMT oder einfach der Modellraumvektor T.
Der "Ständerpositionierdialog", der auf dem Display 78 erscheint, gestattet Ihnen mAT di
rekt einzugeben oder Triangulationswinkel einzugeben, aus denen mAT berechnet wird.
Automatisches Berechnen der Kameraposition wird erzielt unter Verwendung eines Vier
punkt-"Visieren-und-Aufnehmen"-Verfahrens. Dieses Verfahren ist unabhängig von der
Kamerahöhe, unabhängig von der Position des Augenpunktes entlang der optischen Achse
und erfaßt Triangulationsinformation ein, so daß die Kameraposition bestimmt werden kann
mit selektiver Verwendung des Tastenfeldes 74 an dem Prozessor 70. Auch Kameras, deren
Knotenpunkt versetzt ist gegen den Schnittpunkt T der Schwenk/Kippachse, trägt das Ver
fahren Rechnung. Das Verfahren wird verwendet, nachdem die Kamera 10 in der gewünsch
ten Position für die nächste Aufnahme angeordnet worden ist. Der erste Schritt umfaßt das
Einzoomen der Kamera auf maximale Vergrößerung und das Einstellen des-Fokus nach
Bedarf. Sodann sollte der Kamerakopf nivelliert werden. An diesem Punkt wird das Vier
punkt-"Visieren-und-Aufnehmen"-Verfahren begonnen:
- (1) Schwenken und kippen Sie die Kamera so, daß das Fadenkreuz auf den Punkt A fällt und drücken Sie die Taste LL (unten links) auf dem Tastenfeld 74, um die Schwenk- und Kippwinkel des Punktes A aufzuzeichnen;
- (2) Kippen Sie die Kamera auf den Punkt C und drücken Sie die Taste UL (oben links) auf dem Tastenfeld 74, um die Schwenk- und Kippwinkel des Punktes C aufzuzeich nen;
- (3) Schwenken und kippen Sie die Kamera auf den Punkt D und drücken Sie die Taste UR (oben rechts) auf dem Tastenfeld 74, um die Schwenk- und Kippwinkel des Punktes D aufzuzeichnen; und
- (4) Kippen Sie die Kamera auf den Punkt B und drücken Sie die Taste LR (unten rechts) auf dem Tastenfeld 74, um die Schwenk- und Kippwinkel des Punktes B aufzu zeichnen.
Dieses Vierpunkt-"Visieren-und-Aufnehmen"-Verfahren erfaßt alle Daten, die notwendig
sind, um die Position der Kamera relativ zu dem Studiokoordinatensystem zu triangulieren.
Der Prozessor 70 führt die Triangulationsberechnungen durch und bestimmt die Kamerapo
sition. Unter Verwendung der Kamerapositionsdaten ist der Prozessor 70 dann imstande,
eine neue Beobachtungsöffnungsdefinition zu berechnen auf der Grundlage der Kamerapo
sition, jedesmal wenn eine Veränderung stattfindet in den Daten, welche die Sensorinforma
tion des Schwenkens, Kippens, Zoom und Fokus der Kamera betreffen. Anders ausge
drückt, wenn T, TR, r, δ, Schwenken, Kippen, Zoom und Fokus bekannt sind, kann E dy
namisch in dem Prozessor 70 berechnet werden auf der Grundlage der Variablen Schwen
ken, Kippen, Zoom und Fokus. Der Fall der Nicht-Versetzung des Knotenpunktes, wie in
dem Theodoliten, ist ein degenerierter Fall für diesen Prozeß, wobei r gleich Null ist und δ
nicht zutrifft. Die Einzelheiten dieser Berechnungen werden im folgenden beschrieben.
Wie oben beschrieben, werden einige der Kameraparameter manuell gemessen und in den
Prozessor 70 über die Benutzerschnittstelle 72 eingegeben, der Prozessor 70 muß aber pro
grammiert werden, um die Eingabedaten in der gewünschten Weise zu manipulieren. Zu
sätzlich können viele der Kameraparameter ohne manuelle Messungen berechnet werden,
und die Parameter werden berechnet durch verschiedene Gleichungen, die in dem Prozessor
70 programmiert sind und die in den folgenden Absätzen gezeigt sind.
Zur Berechnung des Modellraumvektors zu dem Augenpunkt kann Gleichung (1) verwen
det werden:
mME = mMA + {sAT + (eTR + eRE) [et] [tp] [pm]} [sm] Gleichung (1)
worin
m = Modellraum
s = Studioraum
e = Augenraum (parallel zu Kippraum, aber versetzt)
mMA = die Modellraumversetzung von A geeignet für die gewünschte Datenbankansicht
sAT wird in dem Kamera-"Visieren-und-Aufnehmen"-Positionierprozeß gemessen
eTR wird gemessen, nachdem die Kamera an dem Kopf montiert ist
eRE kommt von der Nachschlagetabelle, bestimmt in dem Linsen kalibrierprozeß (siehe gleichzeitig eingereichte Anmeldung mit dem Titel VERFAHREN ZUM MESSEN VON KAMERA- UND LINSEN- EIGENSCHAFTEN ZUR KAMERANACHFÜHRUNG, welche hier durch Bezugnahme inkorporiert wird) [et] = 1
[tp] = Kippdrehung
[ps] = Schwenkdrehung
[sm] = Transformation von Studio- zu Modellraum
m = Modellraum
s = Studioraum
e = Augenraum (parallel zu Kippraum, aber versetzt)
mMA = die Modellraumversetzung von A geeignet für die gewünschte Datenbankansicht
sAT wird in dem Kamera-"Visieren-und-Aufnehmen"-Positionierprozeß gemessen
eTR wird gemessen, nachdem die Kamera an dem Kopf montiert ist
eRE kommt von der Nachschlagetabelle, bestimmt in dem Linsen kalibrierprozeß (siehe gleichzeitig eingereichte Anmeldung mit dem Titel VERFAHREN ZUM MESSEN VON KAMERA- UND LINSEN- EIGENSCHAFTEN ZUR KAMERANACHFÜHRUNG, welche hier durch Bezugnahme inkorporiert wird) [et] = 1
[tp] = Kippdrehung
[ps] = Schwenkdrehung
[sm] = Transformation von Studio- zu Modellraum
Der Prozessor 70 kann dazu verwendet werden, den Abstand d von dem Augenpunkt zu
berechnen bei einer willkürlichen Höhe zu einer vertikalen Bezugslinie gegebener Höhe h
und Kippwinkeln α1 und α2, gemessen von der Waagerechten (siehe Fig. 8). Die Kame
rahöhe relativ zu dem Punkt A kann auch berechnet werden. Der Modellraum Ey ist Ay
plus h1. Wenn A auf gleichem Niveau mit E ist, wird h1 Null. Der Kopf muß nivelliert wer
den, bevor Winkelmessungen vorgenommen werden. Diese Rechenverfahren nimmt an, daß
der Augenpunkt E bei dem Schnittpunkt der Schwenk/Kippachse liegt wie in dem Fall für
den Theodoliten. Unter Verwendung von Gleichung (2) kann der Abstand d berechnet wer
den:
d = h/(tan(α2)-tan(α1)) Gleichung (2)
worin
h = h2-h1
h1 = dtan (α1) α1 ist ein negativer Winkel in diesem Beispiel, daher ist h1 negativ
h2 = dtan(α2) α2 ist ein positiver Winkel in diesem Beispiel.
h = h2-h1
h1 = dtan (α1) α1 ist ein negativer Winkel in diesem Beispiel, daher ist h1 negativ
h2 = dtan(α2) α2 ist ein positiver Winkel in diesem Beispiel.
Für einen versetzten Augenpunkt ist der Augenpunkt gegen den Schwenk/Kipp-Schnitt
punkt versetzt. Ein versetzter Augenpunkt ist normal für eine Kamera und der Abstand d
wird berechnet unter Verwendung von Gleichung (3) mit den Variablen, die in Fig. 4A
gezeigt sind. Der Augenpunkt liegt irgendwo entlang der optischen Achse. Seine genaue
Position ist kein Faktor. Man beachte in diesem Beispiel, daß α1 ein negativer Winkel ist,
jedoch die Steigung seiner Linie positiv ist, und daß α2 ist ein positiver Winkel ist, aber die
Steigung seiner Linie negativ ist. Dies liegt daran, daß die Richtung des positiven Kippwin
kels entgegengesetzt der von Lehrbuchkonventionen ist. Man beachte auch, daß, obwohl
TR ein positives y und ein negatives z aufweist, es doch ein positiver Winkel ist. Die Kame
rahöhe Ty relativ zu A wird ebenfalls berechnet.
d = (TRy(1/cosα1-1/cosα2) + h)/(tanα2-tanα1) Gleichung (3)
Obwohl Sie die Breite w manuell messen können, können Sie die Breite w auch mit dem
Prozessor 70 berechnen unter Verwendung der Studiobezugspunkte von dem Aufstellungs
prozeß. Wie in Fig. 9 gezeigt, werden die Abstände d1 und d2 (von dem Augenpunkt zu
der linken bzw. rechten Bezugslinie) und der Schwenkwinkel Θ dazu verwendet, die Breite
w zu berechnen unter Verwendung des Kosinussatzes:
w = √(d12+d22-2×d1×d2×cos(Θ)) Gleichung (4)
Vektor sAT ist der Schwenk/Kipp-Schnittpunkt T relativ zu A im Studioraum. Er wird au
tomatisch in dem Prozessor 70 berechnet unter Verwendung der Breite w und der Abstände
d1 und d2, die mit den oben beschriebenen Verfahren berechnet sind. Der Augenpunkt liegt
bei dem Schnitt der zwei Kreise (Zylinder bei der oben berechneten Höhe Ty), zentriert bei
vertikalen Linien A und B und deren Radien d1 bzw. d2 sind. Siehe Fig. 9. Mit den
nachfolgend beschriebenen Kreisgleichungen werden die Gleichungen (5) und (6) abgeleitet
zur Verwendung in den endgültigen Triangulationsberechnungen.
Kreis 1: x2+z2= d12 oder z2-d12 =x2
Kreis 2: (x-w)2+z2 = d22
x = (d12-d22+w2)/2w Gleichung (5)
z = √(d12-x2) Gleichung (6)
Kreis 2: (x-w)2+z2 = d22
x = (d12-d22+w2)/2w Gleichung (5)
z = √(d12-x2) Gleichung (6)
Es gibt zwei Lösungen dieser Gleichungen, da die Kreise sich an zwei Punkten schneiden.
Die korrekte Lösung kann aus der Schwenkwinkelmessung bestimmt werden. Wenn der
Schwenkwinkel positiv ist bei dem Schwenken von A nach B, liegt der Augenpunkt in der
positiven z-Richtung und anderenfalls negativ.
Diese Berechnungen verlieren die Auflösung in z bei Annäherung des Augenpunktes an die
ABCD-Ebene. Die Kreise nähern sich Berührung und könnten sich vielleicht nicht einmal
überlappen wegen kleiner Fehler in den Winkelmessungen. Sie können die Bezugspunkte
neu positionieren, um Genauigkeit wiederzugewinnen, wenn dies zu einem Problem wird.
Die Schwenkversetzung ist der Schwenkwert, wenn die Kamera genau parallel zu der
z-Achse gerichtet wird. Wie oben beschrieben, wird die Schwenkversetzung automatisch
errechnet als Nebenprodukt der obigen Triangulationsoperationen.
Schwenkversetzung = Schwenkwinkel links+atan (ATx/ATz) Gleichung (7)
Wie angegeben, sind die obigen Gleichungen repräsentativ für die bevorzugte Ausführungs
form der Erfindung, und andere Gleichungen könnten verwendet werden bei dem Program
mieren des Prozessors 70, um die Schritte der Erfindung zu erreichen. Zusätzlich können
andere Ausführungsformen verwendet werden, um andere Schritte in der Erfindung zu er
reichen.
In einer alternativen Ausführungsform kann ein anderes Verfahren zum Festlegen der Be
zugspunkte A, B, C und D verwendet werden. Obwohl das Verfahren wieder erfordert, daß
Sie ein Senkblei, eine Leiter, ein Meßband und Markierer (zum Beispiel Reißzwecken) er
halten, benötigt das Verfahren auch eine genau nivellierte Kamera oder zwecks besserer
Genauigkeit und bequemer Anwendung einen Theodoliten. Vorteilhafterweise braucht die
ses Verfahren nur ungefähr 30 min zum Fertigstellen.
Zuerst sollte der Prozessor 70 von Fig. 7 so programmiert werden, daß er einen Kamera
nachführgerät-Eigenschaftendialog aufweist, der auf dem Display 78 angezeigt wird. Dieser
Dialog hilft bei der Kalkulation und der Eingabe von Studiobezugspunktparametern h und w
in den Prozessor 70. Dann planen Sie annähernde Orte von Bezugspunkten. Mit dem Senk
blei ziehen Sie eine vertikale Linie, die entlang AC liegt bei einer geeigneten Stelle auf der
linken Seite des Studios. Ziehen Sie die Linie an einer Stelle, die von der Kamera gesehen
werden kann für alle vorausgesehenen Kamerapositionen. Eine Wand ist häufig eine gute
Walil, mit einer fast vertikalen Fläche sowie einen Ort zum Anbringen einer Marke, ohne
zusätzliche Stützaufbauten zu benötigen. Dann stellen Sie die Kamera an einem zentralen
Punkt auf dem Studioboden derart auf, daß sie alle vier geplanten Bezugspunktorte sehen
kann. Die Kamerahöhe ist nicht kritisch, aber die Kamera sollte waagerecht sein. Stellen Sie
ein und verriegeln Sie bei Null Grad.
Der nächste Schritt besteht darin, auf die vertikale Linie AC zu schwenken und zeitweilig
die Niveauposition zu markieren, Punkt L. Gehen Sie eine Strecke von L nach unten und
markieren den Punkt A. Verwenden Sie eine Markierung, die groß genug ist, um von der
Kamera gesehen zu werden, aber klein genug, um Präzision zu unterstützen. Notieren Sie
den Abstand AL. Ein alternatives Verfahren ist das Notieren der Schwenkwinkelablesung
als Anfangs-Theta (Θi) in dem Prozessor 70 durch Drücken von LL oder UL auf dem Ta
stenfeld 74 Bei Verwendung eines Theodoliten können Sie Anfangs-Theta manuell in dem
vorgesehenen Feld eingeben.
Unter Verwendung eines Bandmaßes gehen Sie um eine Strecke h nach oben (vorzugsweise
304,8 cm oder mehr) von dem Punkt A entlang der Vertikalen und markieren Sie den Punkt
C. Eine Unterlage kann entweder bei A oder C verwendet werden, um diese Punkte genau
auf der vertikalen Linie zu plazieren. Dies kann erforderlich sein, wenn die Wand nicht im
Lot liegt. Tragen Sie die Strecke h in dem Dialog des Prozessordisplay 78 ein. Dann ziehen
Sie mit dem Senklot eine vertikale Linie, die BD wird, an einer geeigneten Stelle auf der
rechten Seite des Studios. Schwenken Sie von dem Punkt A zu der neuen vertikalen Linie
und markieren temporär die Markierung R, welche auf gleichem Niveau wie L liegt. Gehen
Sie hinab um AL und markieren den Punkt B. B liegt auf dem gleichen horizontalen Niveau
wie A, da die Kamera in einer waagerechten Ebene von L nach R schwenkt. Alternativ no
tieren Sie die Schwenkwinkelablesung End-Theta (Θf) in dem Prozessor 70 durch Drücken
von LR oder UR auf dem Tastenfeld 74. Bei Verwendung eines Theodoliten können Sie
End-Theta manuell in dem vorgesehenen Feld eingeben. Der Winkel (Θ) wird in dem Pro
zessor 70 automatisch berechnet als End-Theta minus Anfangs-Theta. Bei Verwendung
eines Theodoliten können Sie die Schwenkwinkeldifferenz zwischen L und R direkt einge
ben als Winkel Θ in den Prozessor 70 in dem vorgesehenen Feld.
Sodann gehen Sie unter Verwendung eines Bandmaßes eine Strecke h von dem Punkt B
entlang der Vertikalen nach oben und markieren D. Mit einem Bandmaß bestimmen Sie den
horizontalen Abstand w oder die Breite zwischen den zwei Vertikalen. Messen Sie zwischen
L und R. Geben Sie die Breite w ein in den Dialog, der auf dem Display 78 des Prozessors
70 angezeigt wird. An diesem Punkt ist die Markierung der Studiobezugspunkte A, B, C
und D nun fertiggestellt. Die Werte der Abmessungen h und w sind auch gemessen und in
den Prozessor 70 eingegeben worden.
Fig. 10 zeigt eine andere Ausführungsform für das Verfahren zum Messen des Kippwin
kels. Dieses Verfahren beginnt mit dem Nivellieren des Kopfes so genau wie möglich. Dann
kippen Sie auf Null (waagerecht) so genau, wie Sie schätzen können. Der Kopf von Evans
und Sutherland weist zu diesem Zweck eine Libelle an der Montageplatte auf. Dann heben
Sie die Höhe der Kamera so an, daß das Zentrum der Linse sich in einer Linie mit den zwei
nivellierten Bezugslinien befindet. Dann kippen Sie die Kamera, bis die zwei Bezugslinien
sich in dem Zentrum des Bildes bei dem Fadenkreuz treffen, und schließlich drücken Sie
"Kippversetzung erfassen" auf dem Display 78 des Prozessors 70. Natürlich versteht es sich,
daß Daten in den Prozessor 70 eingegeben werden können durch Drücken von Prompts auf
dem Display 78, oder eine Anordnung kann verwendet werden, die eine Benutzerschnitt
stelle 72 bildet wie beispielsweise eine Maus oder eine andere interaktive Verbindung zu
dem Display.
Andere Ausführungsformen zum Nivellieren des Kopfes sind in den Fig. 11 und 12 ge
zeigt. Fig. 11 zeigt eine Draufsicht eines Kopfes, der mit Rohrlibellen in einem 60°-V aus
gerüstet ist. Der Kopf ist auf dem Dreibein so orientiert, daß die Achse der Libelle 1 annä
hernd parallel liegt zu einer gedachten Linie durch die Scharniere von Bein 1 und Bein 3,
und die Achse der Libelle 2 parallel liegt zu einer gedachten Linie durch die Scharniere von
Bein 2 und Bein 3. Zum Nivellieren des Kopfes unter Verwendung der Anordnung von Fig.
11 (1) verstellen Sie das Bein 1, bis die Libelle 1 zentriert ist (Beachten Sie, daß die
Libelle 2 relativ unempfindlich gegen Veränderungen in Bein 1 ist); (2) verstellen Sie Bein
2, bis die Libelle 2 zentriert ist (Beachten Sie, daß die Libelle 1 relativ unempfindlich gegen
Veränderungen in Bein 2 ist); und (3) wiederholen Sie die Schritte (1) und (2), falls not
wendig, bis die gewünschte Nivellierung erreicht ist.
Fig. 12 zeigt eine Draufsicht eines Kopfes, der mit einer Rundfensterlibelle 52 ausgerüstet
ist. Der Kopf ist auf dem Dreibein so orientiert, daß die gestrichelten Linien durch die Li
belle 52 die Richtung des Pfades repräsentieren, welche die Blase annimmt, wenn Bein 1
oder Bein 2 verstellt werden. Um den Kopf zu nivellieren unter Verwendung der Anord
nung von Fig. 12, (1) verstellen Sie Bein 1, bis die Libellenblase 52 sich irgendwo entlang
dem gestrichelten Pfad befindet, der für Bein 2 gezeigt ist; (2) verstellen Sie Bein 2, bis die
Libellenblase 52 zentriert ist; und (3) wiederholen Sie die Schritte (1) und (2), falls notwen
dig, bis die gewünschte Nivellierung erzielt ist.
Es versteht sich, daß die oben beschriebenen Anordnungen nur erläuternd für die Anwen
dung der Prinzipien der Erfindung sind. Zahlreiche Modifikationen und alternative Anord
nungen können vom Fachmann ersonnen werden, ohne von dem Gedanken und Rahmen der
Erfindung abzuweichen. Die Ansprüche sollen solche Modifikationen und Anordnungen
abdecken.
Claims (31)
1. Verfahren zum Generieren einer Beobachtungsöffnung für ein komputergeneriertes
Bild unter Verwendung von Sensorinformation welche sich auf Einstellungen von
Schwenken, Kippen, Zoom und Fokus einer Videokamera bezieht, gekennzeichnet durch
die Schritte,
- (a) daß Bezugspunkte in einem umschlossenen Raum festgelegt werden, welcher zum Aufzeichnen von Bildern mit der Kamera zu verwenden ist,
- (b) daß die Kamera in dem umschlossenen Raum relativ zu den Bezugspunkten der art positioniert wird, daß die Kameraposition bestimmt werden kann durch Triangulation bezüglich der Bezugspunkte,
- (c) daß Positionsdaten entwickelt werden durch Triangulation, welche die Kamera position in einem Koordinatensystem relativ zu den Bezugspunkten identifiziert,
- (d) daß Kameraorientierungsdaten von Sensoren aufgezeichnet werden, die ange ordnet sind zum Ermitteln von Kameraparametern, welche die Einstellungen von Schwen ken, Kippen, Zoom und Fokus der Kamera definieren, und
- (e) daß eine Datenbank entwickelt wird, die eine Beobachtungsöffnung für die Ka mera definiert, wobei die Datenbank definiert wird aus einer Kombination der Positionsda ten und der Kameraorientierungsdaten.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (a) das Posi
tionieren von wenigstens vier Punkten umfaßt, die von der Kamera beobachtbar sind in ei
ner ebenen Konfiguration in dem umschlossenen Raum.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (b) das
sukzessive Positionieren der Kamera in dem umschlossenen Raum relativ zu den Bezugs
punkten umfaßt.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (b) das Posi
tionieren der Kamera auf einem Gestell umfaßt, derart, daß die Bezugspunkte innerhalb der
Sicht der Kamera liegen.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß das Gestell gewählt wird
aus der Gruppe, die aus einem Dreibein und einem Ständer besteht.
6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (b) das laterale
Zentrieren der Kamera auf einem Gestell umfaßt.
7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (b) das Nivel
lieren der Kamera an einem Kopf eines Gestells umfaßt.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß das Nivellieren der Kame
ra das visuelle Feststellen der Nivellierausrichtung der Kamera und das anschließende ma
nuelle Nivellieren des Kopfes an dem Gestell umfaßt, um dadurch die Kamera zu nivellieren.
9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (b) das Ent
wickeln von Positionsdaten umfaßt, welche eine Kippversetzung der Kamera anzeigen.
10. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (b) das Ent
wickeln von Positionsdaten umfaßt, welche einen absoluten Schwenkwinkel der Kamera
anzeigen.
11. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (c) das Einge
ben der Positionsdaten in einen Prozessor umfaßt, der programmiert ist, um die Datenbank
zu generieren, die eine Beobachtungsöffnung für die Kamera definiert, wobei die Positions
daten umfassen eine Kippversetzung, eine Modellraumskala, einen absoluten Schwenkwin
kel, einen horizontalen Abstand zwischen Bezugspunkten, einen vertikalen Abstand zwi
schen Bezugspunkten, eine Linsencharakterisierung, eine Studioversetzung
und -orientierung, Kodiererspezifikationen und Kamerawinkel relativ zu den Bezugspunkten.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß das Koordinatensystem
gewählt wird aus einer Gruppe, die aus einem rechtwinkligen Koordinatensystem, einem
zylindrischen Koordinatensystem, einem sphärischen Koordinatensystem und einem Polar
koordinatensystem besteht.
13. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß das Eingeben der Positi
onsdaten das sukzessive Zielen der Kamera auf jeden der Bezugspunkte und die Signalisie
rung des Prozessors umfaßt, um dem Prozessor anzugeben, daß die Kamera auf einen der
Bezugspunkte zielt.
14. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (c) das Verar
beiten der Positionsdaten der Kamera mit einem Prozessor in der Weise umfaßt, daß relativ
zu dem Koordinatensystem die Kameraposition relativ zu den Bezugspunkten bestimmt
wird.
15. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (d) das dyna
mische Tabellieren der Kameraorientierungsdaten von den Sensoren in einem Prozessor
umfaßt, die angeordnet sind, um Kameraparameter zu ermitteln, welche die Einstellungen
von Schwenken, Kippen, Zoom und Fokus der Kamera definieren.
16. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (a) das Verar
beiten mit einem Prozessor der Positionsdaten und der Kameraorientierungsdaten umfaßt in
der Weise, daß für jede Einstellung die Verstellung des Schwenkens, Kippens, Zoom und
Fokus die Beobachtungsöffnungsdefinition für die Kamera dynamisch bestimmt wird in dem
Koordinatensystem relativ zu den Bezugspunkten.
17. Vorrichtung zum Generieren einer Beobachtungsöffnung für ein komputergenerier
tes Bild unter Verwendung von Sensorinformation betreffend die Einstellungen von
Schwenken, Kippen, Zoom und Fokus einer Videokamera, gekennzeichnet durch
wenigstens vier Bezugspunkte (A, B, C, D) in einem umschlossenen Raum, der zum Aufzeichnen von Bildern mit der Kamera (10) zu verwenden ist,
eine Einrichtung zum Positionieren der Kamera (10) in dem umschlossenen Raum relativ zu den Bezugspunkten (A, B, C, D) derart, daß die Kameraposition bestimmt werden kann durch Triangulation mit den Bezugspunkten (A, B, C, D),
eine Einrichtung zum Aufzeichnen von Kameraorientierungsdaten von wenigstens einem Sensor, der angeordnet ist, um Kameraparameter zu ermitteln, welche die Einstellun gen von Schwenken, Kippen, Zoom und Fokus der Kamera definieren, und
eine Einrichtung zum Entwickeln einer Datenbank, welche eine Beobachtungsöff nung für die Kamera (10) definiert, wobei die Datenbank definiert wird aus einer Kombina tion der Positionsdaten und der Kameraorientierungsdaten.
wenigstens vier Bezugspunkte (A, B, C, D) in einem umschlossenen Raum, der zum Aufzeichnen von Bildern mit der Kamera (10) zu verwenden ist,
eine Einrichtung zum Positionieren der Kamera (10) in dem umschlossenen Raum relativ zu den Bezugspunkten (A, B, C, D) derart, daß die Kameraposition bestimmt werden kann durch Triangulation mit den Bezugspunkten (A, B, C, D),
eine Einrichtung zum Aufzeichnen von Kameraorientierungsdaten von wenigstens einem Sensor, der angeordnet ist, um Kameraparameter zu ermitteln, welche die Einstellun gen von Schwenken, Kippen, Zoom und Fokus der Kamera definieren, und
eine Einrichtung zum Entwickeln einer Datenbank, welche eine Beobachtungsöff nung für die Kamera (10) definiert, wobei die Datenbank definiert wird aus einer Kombina tion der Positionsdaten und der Kameraorientierungsdaten.
18. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Bezugspunkte
(A, B, C, D) durch die Kamera (10) beobachtbar sind und in einer ebenen Konfiguration in
dem umschlossenen Raum angeordnet sind.
19. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Einrichtung zum
Positionieren der Kamera (10) ein Gestell umfaßt, das so positioniert ist, daß die Bezugs
punkte (A, B, C, D) innerhalb der Sicht der Kamera (10) liegen.
20. Vorrichtung nach Anspruch 19, dadurch gekennzeichnet, daß das Gestell ausgewählt
ist aus einer Gruppe, die aus einem Dreibein und einem Ständer (14) besteht.
21. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Kamera (10) late
ral auf einem Gestell (14) zentriert ist.
22. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Kamera (10) sich
waagerecht an einem Kopf (12) eines Gestells (14) befindet.
23. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Einrichtung zum
Entwickeln von Positionsdaten einen Prozessor (70) umfaßt, der programmiert ist, um Da
ten zu berechnen und zu speichern, welche eine Kippversetzung der Kamera (19) angeben.
24. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Einrichtung zum
Entwickeln von Positionsdaten einen Prozessor (70) umfaßt, der programmiert ist, um
Daten zu berechnen und zu speichern, welche einen absoluten Schwenkwinkel der Kamera
(19) angeben.
25. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Einrichtung zum
Entwickeln von Positionsdaten einen Prozessor (70) umfaßt mit einer Einrichtung zum Ein
geben von Daten in den Prozessor (70), wobei der Prozessor (70) programmiert ist, um
Positionsdaten zu generieren, welche die Kameraposition in einem Koordinatensystem (xyz)
relativ zu wenigsten vier Bezugspunkten (A, B, C, D) identifizieren.
26. Vorrichtung nach Anspruch 25, dadurch gekennzeichnet, daß das Koordinatensy
stem aus der Gruppe ausgewählt wird, die aus einem rechtwinkligen Koordinatensystem
(xyz), einem zylindrischen Koordinatensystem, einem sphärischen Koordinatensystem und
einem Polarkoordinatensystem besteht.
27. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Einrichtung zum
Aufzeichnen von Kameraorientierungsdaten von wenigstens einem Sensor einen Prozessor
(70) umfaßt mit einer Einrichtung zum Eingeben der Kameraorientierungsdaten in den Pro
zessor (70).
28. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Einrichtung zum
Entwickeln einer Datenbank, die eine Beobachtungsöffnung für die Kamera (10) definiert,
einen Prozessor (70) umfaßt, der programmiert ist, um die Datenbank zu entwickeln, wobei
die Datenbank definiert wird aus einer Kombination der Positionsdaten und der Kameraori
entierungsdaten.
29. Verfahren zum Definieren einer Beobachtungsöffnung für ein komputergeneriertes
Bild unter Verwendung von Information, welche sich auf Einstellungen von Schwenken,
Kippen, Zoom und Fokus einer Kamera bezieht, gekennzeichnet durch die Schritte,
- (a) daß Bezugspunkte in einem umschlossenen Raum festgelegt werden, welcher zum Aufzeichnen von Bildern mit der Kamera zu verwenden ist,
- (b) daß die Kameraposition und -Orientierung bestimmt wird von einer Stützein richtung in dem umschlossenen Raum durch Triangulation in dem umschlossenen Raum;
- (c) daß eine Beobachtungsöffnung für die Kamera gemessen wird als Funktion von Zoom- und Fokuseinstellungen der Kamera,
- (d) daß Versetzungen der Kamera gemessen werden, die das Montieren der Kamera an der Stützeinrichtung mit sich bringt;
- (e) daß ein virtueller Raum skaliert wird relativ zu Raum in dem umschlossenen Raum, und
- (f) daß virtueller Raum versetzt wird relativ zu den Kameraversetzungen in dem umschlossenen Raum, um dadurch eine Beobachtungsöffnung für das komputergenerierte Bild zu generieren.
30. Verfahren nach Anspruch 29, dadurch gekennzeichnet, daß der Schritt (b) das Eingeben
von Daten in einen Prozessor umfaßt, wenn die Kamera auf jeden der Bezugspunkte in dem
umschlossenen Raum gerichtet wird, wobei der Prozessor programmiert ist, um die Kame
raposition durch Triangulation zu berechnen.
31. Verfahren nach Anspruch 29, dadurch gekennzeichnet, daß die Schritte (c) bis (f)
das Eingeben der Beobachtungsöffnung für die Kamera in einen Prozessor umfassen und
das Eingeben der Versetzungen der Kamera in den Prozessor, wobei der Prozessor pro
grammiert ist, um virtuellen Raum zu skalieren und virtuellen Raum zu versetzen, um da
durch die Beobachtungsöffnung für das komputergenerierte Bild zu generieren.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US08/835,120 | 1997-04-04 | ||
| US08/835,120 US5930740A (en) | 1997-04-04 | 1997-04-04 | Camera/lens calibration apparatus and method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE19815105A1 true DE19815105A1 (de) | 1998-10-08 |
| DE19815105B4 DE19815105B4 (de) | 2006-10-12 |
Family
ID=25268630
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE19815105A Expired - Fee Related DE19815105B4 (de) | 1997-04-04 | 1998-04-03 | Vorrichtung und Verfahren zum Kalibrieren von Kamera bzw. Linse |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US5930740A (de) |
| CA (1) | CA2233806C (de) |
| DE (1) | DE19815105B4 (de) |
| GB (1) | GB2325578B (de) |
| IL (1) | IL123943A (de) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE10132929A1 (de) * | 2001-07-06 | 2003-01-23 | Plettac Ag | Verfahren und Vorrichtung zur Steuerung von Schwenk-Neige-Bewegungen einer Kamera |
| DE10359415A1 (de) * | 2003-12-16 | 2005-07-14 | Trimble Jena Gmbh | Verfahren zur Kalibrierung eines Vermessungsgeräts |
Families Citing this family (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2305050A (en) * | 1995-09-08 | 1997-03-26 | Orad Hi Tec Systems Ltd | Determining the position of a television camera for use in a virtual studio employing chroma keying |
| US6529853B1 (en) * | 1997-07-21 | 2003-03-04 | Acoustic Positioning Research Inc. | Virtual positioning media control system |
| RU2161871C2 (ru) * | 1998-03-20 | 2001-01-10 | Латыпов Нурахмед Нурисламович | Способ и система для создания видеопрограмм |
| IL130337A0 (en) * | 1999-06-07 | 2000-06-01 | Tidex Systems Ltd | A method for achieving roaming capabilities and for performing interactive CGI implanting and computer games using the method |
| GB2353909B (en) * | 1999-08-28 | 2004-03-17 | John Alfred Cawkwell | Robot positioning and motion mechanism |
| US6408679B1 (en) * | 2000-02-04 | 2002-06-25 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Bubble measuring instrument and method |
| KR100365958B1 (ko) * | 2000-03-30 | 2002-12-26 | 김형석 | 줌 기능을 갖는 원격 카메라의 목표물 추적 제어 방법 |
| US7151562B1 (en) * | 2000-08-03 | 2006-12-19 | Koninklijke Philips Electronics N.V. | Method and apparatus for external calibration of a camera via a graphical user interface |
| US7161620B2 (en) * | 2000-10-25 | 2007-01-09 | Shotoku Ltd. | Moving pedestal for a camera including wheels and sensors for detecting a moving amount thereof |
| WO2006052259A1 (en) * | 2004-11-11 | 2006-05-18 | Pierre Bierre | 3d point location system |
| RU2280892C1 (ru) * | 2005-03-01 | 2006-07-27 | Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет | Устройство калибровки оптико-электронной системы |
| US7750944B2 (en) * | 2005-05-02 | 2010-07-06 | Ge Security, Inc. | Methods and apparatus for camera operation |
| EP2104930A2 (de) | 2006-12-12 | 2009-09-30 | Evans & Sutherland Computer Corporation | System und methode zum ausgleichen des rgb-licht in einem monomodulator projektor |
| RU2344478C1 (ru) * | 2007-11-01 | 2009-01-20 | Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет | Способ калибровки системы технического зрения распознавания номеров игровой рулетки и устройство для его реализации |
| US8897482B2 (en) * | 2008-02-29 | 2014-11-25 | Trimble Ab | Stereo photogrammetry from a single station using a surveying instrument with an eccentric camera |
| US8358317B2 (en) | 2008-05-23 | 2013-01-22 | Evans & Sutherland Computer Corporation | System and method for displaying a planar image on a curved surface |
| AT506928B1 (de) | 2008-05-28 | 2012-07-15 | Kiwisecurity Software Gmbh | Verfahren zur videoanalyse |
| US8702248B1 (en) | 2008-06-11 | 2014-04-22 | Evans & Sutherland Computer Corporation | Projection method for reducing interpixel gaps on a viewing surface |
| US8077378B1 (en) | 2008-11-12 | 2011-12-13 | Evans & Sutherland Computer Corporation | Calibration system and method for light modulation device |
| US9641826B1 (en) | 2011-10-06 | 2017-05-02 | Evans & Sutherland Computer Corporation | System and method for displaying distant 3-D stereo on a dome surface |
| JP6551392B2 (ja) | 2013-04-05 | 2019-07-31 | アンドラ モーション テクノロジーズ インク. | 画像キャプチャに関する装置を制御するシステムおよび方法 |
| CN108871649B (zh) * | 2018-08-14 | 2020-07-14 | 坤维(北京)科技有限公司 | 一种建立基准坐标系的方法 |
| US20230296408A1 (en) * | 2020-03-26 | 2023-09-21 | Creaform Inc. | Method and system for maintaining accuracy of a photogrammetry system |
| JP7451583B2 (ja) | 2022-02-25 | 2024-03-18 | キヤノン株式会社 | 撮像装置、情報処理装置、制御方法、プログラム及び記憶媒体 |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6021675A (ja) * | 1983-07-18 | 1985-02-04 | Toyota Motor Corp | 計測機器におけるテレビカメラ位置ずれ自動補正方法及び装置 |
| US5059019A (en) * | 1990-05-21 | 1991-10-22 | Mccullough Greg R | Laser framefinder |
| GB2267360B (en) * | 1992-05-22 | 1995-12-06 | Octec Ltd | Method and system for interacting with floating objects |
| GB9217098D0 (en) * | 1992-08-12 | 1992-09-23 | British Broadcasting Corp | Derivation of studio camera position and motion from the camera image |
| GB2272343A (en) * | 1992-11-10 | 1994-05-11 | Gec Ferranti Defence Syst | Automatic aircraft landing system calibration |
| DE19521600A1 (de) * | 1995-06-14 | 1996-12-19 | Bodenseewerk Geraetetech | Landeverfahren für unbemannte Luftfahrzeuge |
| GB2305050A (en) * | 1995-09-08 | 1997-03-26 | Orad Hi Tec Systems Ltd | Determining the position of a television camera for use in a virtual studio employing chroma keying |
-
1997
- 1997-04-04 US US08/835,120 patent/US5930740A/en not_active Expired - Lifetime
-
1998
- 1998-03-30 GB GB9806727A patent/GB2325578B/en not_active Expired - Fee Related
- 1998-03-31 CA CA002233806A patent/CA2233806C/en not_active Expired - Fee Related
- 1998-04-02 IL IL12394398A patent/IL123943A/xx not_active IP Right Cessation
- 1998-04-03 DE DE19815105A patent/DE19815105B4/de not_active Expired - Fee Related
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE10132929A1 (de) * | 2001-07-06 | 2003-01-23 | Plettac Ag | Verfahren und Vorrichtung zur Steuerung von Schwenk-Neige-Bewegungen einer Kamera |
| DE10132929B4 (de) * | 2001-07-06 | 2006-06-01 | Funkwerk Plettac Electronic Gmbh | Verfahren und Vorrichtung zur Steuerung von Schwenk-Neige-Bewegungen einer Kamera |
| DE10359415A1 (de) * | 2003-12-16 | 2005-07-14 | Trimble Jena Gmbh | Verfahren zur Kalibrierung eines Vermessungsgeräts |
Also Published As
| Publication number | Publication date |
|---|---|
| CA2233806C (en) | 2004-10-12 |
| IL123943A (en) | 2001-01-28 |
| CA2233806A1 (en) | 1998-10-04 |
| GB2325578A (en) | 1998-11-25 |
| GB2325578B (en) | 2001-11-07 |
| GB9806727D0 (en) | 1998-05-27 |
| US5930740A (en) | 1999-07-27 |
| DE19815105B4 (de) | 2006-10-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE19815105B4 (de) | Vorrichtung und Verfahren zum Kalibrieren von Kamera bzw. Linse | |
| DE112007003293B4 (de) | Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation | |
| DE102015011914B4 (de) | Konturlinienmessvorrichtung und Robotersystem | |
| DE19922321C2 (de) | Verfahren und Anordnung zur Durchführung von geodätischen Messungen mittels Videotachymeter | |
| EP1497613B1 (de) | Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes | |
| EP1759166B1 (de) | Verfahren zur vermessung von gegenständen mit einer herkömmlichen digitalkamera | |
| CH695120A5 (de) | Anordnung und Verfahren zur Bestimmung der räumlichen Koordinaten mindestens eines Objekpunktes. | |
| EP0473010B1 (de) | Verfahren zur berührungslosen Vermessung von Objektoberflächen | |
| EP2880853B1 (de) | Vorrichtung und verfahren zur bestimmung der eigenlage einer bildaufnehmenden kamera | |
| DE19618283A1 (de) | Bildaufnahmevorrichtung und Verfahren für die dreidimensionale berührungsfreie Messung | |
| DE10359415A1 (de) | Verfahren zur Kalibrierung eines Vermessungsgeräts | |
| DE19502459A1 (de) | Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten | |
| DE10328828A1 (de) | Surveying System | |
| DE19804205A1 (de) | Fotogrammetrische Meßeinrichtung und fotogrammetrisches Meßverfahren | |
| DE10308525A1 (de) | Vermessungssystem | |
| EP2573512A2 (de) | Verfahren und Anordnung zur Bestimmung der Lage eines Messpunktes im geometrischen Raum | |
| DE10329341B4 (de) | Vermessungssystem | |
| DE102004047325A1 (de) | Einrichtung und Verfahren zum Herstellen einer Bildkorrespondenz | |
| DE19815106B4 (de) | Verfahren zum Messen von Kamera- und Linseneigenschaften zur Kameranachführung | |
| EP0481278A1 (de) | Verfahren und Messeinrichtung zur Positionsbestimmung von Raumpunkten | |
| DE102008048963A1 (de) | 3D-Geometrie-Erfassungsverfahren und -vorrichtung | |
| DE102017112976B4 (de) | Verfahren zum Kalibrieren einer optischen Anordnung eines Koordinatenmessgerätes | |
| EP1640688A1 (de) | Verfahren und Vorrichtung zur 3-dimensionalen Vermessung der Oberfläche eines Gegenstands | |
| DE10341822A1 (de) | Verfahren und Anordnung zur photogrammetrischen Messbildaufnahme und -verarbeitung | |
| DE19846145A1 (de) | Verfahren und Anordung zur 3D-Aufnahme |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8110 | Request for examination paragraph 44 | ||
| 8364 | No opposition during term of opposition | ||
| R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |