DE19757674A1 - Positionserfassungsvorrichtung und Fernsteuerung - Google Patents
Positionserfassungsvorrichtung und FernsteuerungInfo
- Publication number
- DE19757674A1 DE19757674A1 DE19757674A DE19757674A DE19757674A1 DE 19757674 A1 DE19757674 A1 DE 19757674A1 DE 19757674 A DE19757674 A DE 19757674A DE 19757674 A DE19757674 A DE 19757674A DE 19757674 A1 DE19757674 A1 DE 19757674A1
- Authority
- DE
- Germany
- Prior art keywords
- block
- light
- linear sensor
- dimensional
- light receiving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C2201/00—Transmission systems of control signals via wireless link
- G08C2201/30—User interface
- G08C2201/32—Remote control based on movements, attitude of remote control device
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- Length Measuring Devices By Optical Means (AREA)
- User Interface Of Digital Computer (AREA)
- Selective Calling Equipment (AREA)
Description
Die Erfindung betrifft eine Positionserfassungsvorrichtung
zum Erfassen von von einer Lichtquelle emittiertem Licht und
zum Erfassen der Position der Lichtquelle, und sie betrifft
eine Fernsteuerung zum Fernsteuern einer Empfangseinheit
ausgehend von einer Sendeeinheit mit einer Lichtquelle und
einem EIN/AUS-Schalter.
Bekannterweise existieren sogenannte schnurlose Fernsteue
rungen zum Fernsteuern von Geräten wie Fernsehgeräten, Vi
deobandrecodern (VTR), Videoplattenspielern, CD-Spielern,
Audiobandrecordern und dergleichen.
Die obengenannte Fernsteuerung besteht aus dem Folgenden:
- - einer Sendeeinheit mit einem Bedienungsblock, an dem Tas ten so angeordnet sind, daß sie von einem Benutzer betätigt werden können, und mit einem Lichtemissionsblock zum Modu lieren von durch den Benutzer über die Tasten eingegebenen Daten unter Verwendung von Licht wie Infrarotstrahlung als zu emittierendes Medium; und
- - einer Empfangseinheit zum Empfangen des von der Sendeein heit gesendeten Lichts und zum Demodulieren desselben, um einen entsprechenden Vorgang auszuführen.
Die Sendeeinheit und die Empfangseinheit sind elektrisch
voneinander getrennt, und sie werden normalerweise an räum
lich entfernten Positionen verwendet.
Fig. 1 zeigt schematisch die obengenannte Sendeeinheit 10.
Sie verfügt im wesentlichen über ein quaderförmiges, flaches
Gehäuse, das eine solche Größe aufweist, daß es von einem
Benutzer mit der Hand ergriffen werden kann, und es verfügt
über eine Hauptfläche, auf der ein Eingabeblock 11 und meh
rere Tasten angeordnet sind. Darüber hinaus ist ein Licht
emissionsblock 13 an einer Seitenfläche vorhanden, die an
eine lange Seite anschließt, um Licht in der Längsrichtung
des Gehäuses zu emittieren.
Fig. 2 zeigt schematisch die obengenannte Empfangseinheit.
Diese Empfangseinheit 20 ist an einem Fernseher vorhanden
und verfügt über einen Lichterfassungsblock 72, der unter
einem Anzeigeblock 27 angeordnet ist, um das von der obenge
nannten Sendeeinheit 10 emittierte Licht zu empfangen und zu
demodulieren, um dann diejenige Funktion auszuführen, die
durch die Betätigung des Betätigungsblocks 11 an der Sende
einheit ausgewählt wurde. Z. B. wird der Empfangskanal des
Fernsehers geändert, oder es wird die Lautstärke erhöht oder
verringert.
Andererseits ist bei einem PC, einem Videospielgerät und
dergleichen eine Zeigeeinrichtung vorhanden, um die Position
auf einem Anzeigeschirm wie einer CRT (Kathodenstrahlröhre)
und einer Flüssigkristalltafel zu spezifizieren, um eine
Funktion auszuwählen.
Als obengenannte Zeigevorrichtung ist z. B. eine Maus vor
handen. Diese verfügt über eine solche Größe, daß sie unter
der Handfläche Platz findet, und sie kann auf einer ebenen
Fläche wie einem Tisch verstellt werden, und abhängig von
der Position der Maus wird durch einen Kursor oder derglei
chen auf dem obengenannten Anzeigeschirm eine spezielle Po
sition angezeigt. Die Maus verfügt über eine bis drei Tasten
am Gehäuse zum Eingeben eines Befehls, um z. B. eine Funk
tion an der spezifizierten Position auszuwählen.
Darüber hinaus existiert als Zeigeeinrichtung, wie sie bei
Videospielgeräten verwendet wird, eine Einheit mit einem Ge
häuse, an dem ein Knopf für oben, unten, links und rechts
sowie eine Taste angeordnet sind. Bei einer derartigen Ein
richtung wird die obengenannte spezifizierte Position da
durch verstellt, daß die Knöpfe für oben, unten, links und
rechts betätigt werden, und ein Verstellweg wird abhängig
von der Zeitdauer eingestellt, über die ein entsprechender
Knopf gedrückt wird. Die Auswahl der obengenannten spezifi
zierten Position erfolgt durch Betätigen der Taste.
Ferner existieren Joysticks als Zeigeeinrichtungen. Ein Joy
stick besteht aus einer einzelnen Schicht, die durch einen
Kardanmechanismus gelagert ist. Wenn der Hebel schräg ge
stellt wird, wird die obengenannte spezifizierte, durch
einen Kursor oder dergleichen angezeigte Position abhängig
von der Neigungsrichtung und dem Neigungswinkel auf dem
obengenannten Anzeigeschirm verstellt. Darüber hinaus kann,
wenn der Joystick mit einer Auswähltaste versehen ist, eine
Funktion an der obengenannten spezifizierten Position ausge
wählt werden.
Fig. 3 zeigt einen Joystick 100, wie er im Dokument JP-A-61-
27 6014 offenbart ist, der über einen am Hebel 101 angeordne
ten Lichtquellenblock mit einer Lichtquelle 102 sowie über
einen Lichtempfangsblock mit einer Linse 103 zum Empfangen
des von diesem Lichtquellenblock eingestrahlten Lichts sowie
mit einem zweidimensionalen Lichtempfangselement 104 zum Er
fassen des Lichts aufweist.
Der obengenannte Joystick 100 ist als einheitlicher Teil
eines Gehäuses mit ungefähr Würfelform ausgebildet. Die
Lichtquelle 102 ist am unteren Ende des Hebels 101 angeord
net, und sie emittiert Licht, das durch die Linse 103 auf
das zweidimensionale Lichtempfangselement 104 konvergiert
wird, das eine Betätigung des Hebels 101 abhängig von der
Position erfaßt, an der das Licht konvergiert. Darüber hin
aus verstellt der Joystick 100 die durch einen Kursor oder
dergleichen auf dem Anzeigeschirm spezifizierte Position ab
hängig von der Richtung und dem Winkel der Schrägstellung
des Hebels 101.
Sogenannte audiovisuelle (AV) Geräte wie Fernseher, Video
bandrecorder, Videoplattenspieler, CD-Spieler und Audioband
recorder wie auch PCs und Videospielgeräte werden mit weiter
Verbreitung genutzt.
Da diese Geräte eine Vielfalt von Funktionen aufweisen, kann
es einem gewöhnlichen Benutzer ohne technische Kenntnisse so
erscheinen, als seien diese Geräte zu kompliziert in der Be
nutzung. Darüber hinaus können, wegen der Begrenzung des Be
dienungsblocks, unter Umständen die Funktionen der Geräte
hinsichtlich der Bedienung nicht vollständig zur Verfügung
stehen.
Z. B. sollte bei einer sogenannten Fernsteuerung, wie sie
zum Fernbetätigen der obengenannten Geräte verwendet wird,
eine Anzahl von Tasten vorhanden sein, um die Funktionen der
Empfangseinheit 20, die z. B. ein Fernseher sein kann, aus
reichend auslösen zu können. Wenn jedoch die Anzahl von Tas
ten erhöht wird, kann der Benutzer die erforderliche Taste
nicht ohne Zeit und Sorgfalt auswählen.
Darüber hinaus ist es im Fall der obengenannten Maus erfor
derlich, eine ebene Platte zum Betätigen der Maus zur Verfü
gung zu stellen und die Maus über ein Kabel zu verbinden. Es
wurde eine sogenannte optische Maus vorgeschlagen, die zum
Anschluß kein Kabel benötigt, jedoch erfordert eine opti
sche Maus ein spezielles Mauspad. So sind Mäuse, einschließ
lich optischer Mäuse, im Vergleich mit der obengenannten
Fernsteuerung unpraktisch.
Darüber hinaus ist es bei einer Einheit mit Knöpfen für
oben, unten, links und rechts sowie mit Auswahltasten, die
an einem Gehäuse angeordnet sind, erforderlich, die vier
Knöpfe und die Auswahltasten zu betätigen. Dies kann nicht
als gute Bedienbarkeit bezeichnet werden.
Darüber hinaus wird beim obengenannten Joystick eine Posi
tion abhängig von der Richtung und dem Winkel des am Joy
stick vorhandenen Hebels ausgewählt. D. h., daß es erfor
derlich ist, den Hebel unter einem speziellen Winkel zu kip
pen, um eine Bewegung an die spezifizierte Position auf der
Anzeige auszulösen, weswegen die Bedienung nicht einfach
ist und ein gewisses Training erfordert.
Der Erfindung liegt die Aufgabe zugrunde, eine Positionser
fassungsvorrichtung zum Erfassen des von einer Lichtquelle
emittierten Lichts zu schaffen, um die Position der Licht
quelle zu erkennen. Eine andere Aufgabe der Erfindung ist
es, eine Fernsteuerung unter Verwendung der obengenannten
Positionserfassungsvorrichtung zu schaffen, um eine einfache
Bedienung der obengenannten Geräte zu ermöglichen.
Diese Aufgaben sind hinsichtlich der Positionserfassungsvor
richtung durch die Lehre von Anspruch 1 sowie hinsichtlich
der Fernsteuerung durch die Lehre von Anspruch 7 gelöst.
Die erfindungsgemäße Positionserfassungsvorrichtung empfängt
von einer Lichtquelle emittiertes Licht durch mindestens
zwei eindimensionale Lichtempfangselemente, die in verschie
denen Richtungen in bezug aufeinander in der Lichtempfangs
einrichtung angeordnet sind, um die Position der Lichtquelle
entsprechend dem Ausgangssignal des Lichtempfangsblocks zu
erfassen.
Bei den Positionserfassungsvorrichtungen gemäß den Ansprü
chen 2 und 3 liegt ein Lichtempfangsblock vor, bei dem min
destens zwei eindimensionale Elemente so angeordnet sind,
daß sie sich einander rechtwinklig schneiden, und Komponen
ten sind für jede der Schnittrichtungen in zwei Dimensionen
angeordnet. Darüber hinaus ist es möglich, da die eindimen
sionalen Lichtempfangselemente kreuzförmig angeordnet sind,
einfallendes Licht von einer näheren Position zu erfassen.
Alternativ können Komponenten, wenn die eindimensionalen
Lichtelemente in Richtungen angeordnet sind, die sich einan
der unter einem anderen als einem rechten Winkel schneiden,
in jeder der Richtungen voneinander getrennt sein, um eine
Erfassung zu ermöglichen.
Bei der Positionserfassungsvorrichtung gemäß Anspruch 4 wird
von einer Lichtquelle emittiertes Licht durch drei oder mehr
eindimensionale Lichtempfangselemente empfangen, die in der
Lichtempfangseinrichtung vorhanden sind, wobei mindestens
zwei Elemente in voneinander verschiedenen Richtungen ange
ordnet sind, und eine dreidimensionale Position der Licht
quelle wird abhängig vom Ausgangssignal dieser Lichtemp
fangseinrichtung erfaßt. Wenn diese Positionserfassungsvor
richtung in eine Fernsteuerung eingebaut ist, wird die er
faßte dreidimensionale Position in eine zweidimensionale
Position umgesetzt, um auf dem Anzeigeschirm eines Anzeige
blocks angezeigt zu werden.
Die Lichtempfangsvorrichtung gemäß Anspruch 5 verwendet CCD-Bildaufnahmeelemente,
BBD-Bildaufnahmeelemente oder MOS-Bildaufnahmeelemente
als eindimensionale Lichtempfangsele
mente der Lichtempfangseinrichtungen.
Bei der erfindungsgemäßen Fernsteuerung gemäß Anspruch 7
wird Licht von einer Lichtquelle, die vom Sendeblock ein-
und ausgeschaltet wird, durch die zweidimensionalen Licht
empfangselemente empfangen, die in voneinander verschiedenen
Richtungen im Lichtempfangsblock angeordnet sind; die zwei
dimensionale Position des Sendeblocks wird durch den Posi
tionserfassungsblock abhängig vom Ausgangssignal des Licht
empfangsblocks erfaßt, und der Anzeigeblock zeigt die zwei
dimensionale Position des Sendeblocks auf dem Anzeigeschirm
an.
Ausführungsbeispiele einer erfindungsgemäßen Positionserfas
sungsvorrichtung und einer erfindungsgemäßen Fernsteuerung
werden nachfolgend unter Bezugnahme auf die beigefügten
Zeichnungen näher beschrieben.
Fig. 1 ist eine Draufsicht, die eine herkömmliche Sendeein
heit zeigt.
Fig. 2 ist eine Draufsicht, die eine herkömmliche Empfangs
einheit zeigt.
Fig. 3 ist eine schematische Ansicht, die ein Beispiel eines
herkömmlichen Joysticks zeigt.
Fig. 4 ist ein Blockdiagramm, das den Aufbau einer Fern
steuerung gemäß einem Ausführungsbeispiel der Erfindung
zeigt.
Fig. 5 ist eine perspektivische Ansicht, die eine Sendeein
heit gemäß einem Ausführungsbeispiel der Erfindung zeigt.
Fig. 6 zeigt schematisch die Anordnung eines linearen Sen
sors in einer Empfangseinheit gemäß einem Ausführungsbei
spiel.
Fig. 7 ist eine schematische Ansicht, die eine Empfangsein
heit gemäß einem Ausführungsbeispiel zeigt.
Fig. 8 ist eine Draufsicht, die ein "Anfangsmenü" auf einem
Anzeigeblock zeigt.
Fig. 9 ist eine Draufsicht, die veranschaulicht, daß eine
"TV-Taste" im Anfangsmenüschirm betätigt wird.
Fig. 10 ist eine Draufsicht, die veranschaulicht, daß eine
"Kanal-Taste" in einem "TV-Menü"-Schirm betätigt wird.
Fig. 11 ist eine Draufsicht, die veranschaulicht, daß eine
"Schneller Vorlauf"-Taste in einem "VTR-Menü"-Schirm ausge
wählt wird.
Fig. 12 ist eine Seitenansicht, die zeigt, daß eine Emp
fangseinheit ein von einer Sendeeinheit, die auf der opti
schen Achse der Empfangseinheit liegt, emittierten Strahl
erfaßt.
Fig. 13 ist eine Seitenansicht, die zeigt, daß eine Emp
fangseinheit einen von einer Sendeeinheit, die außerhalb der
optischen Achse der Empfangseinheit liegt, emittierten
Strahl erfaßt.
Fig. 14 ist ein zeitbezogenes Diagramm zu einem Ausgangssi
gnal des linearen Sensors, wenn kein Licht erfaßt wird.
Fig. 15 ist ein zeitbezogenes Diagramm zum Ausgangssignal
des linearen Sensors, wenn Licht in einem Teil desselben er
faßt wird.
Fig. 16 ist ein zeitbezogenes Diagramm zum Ausgangssignal
des linearen Sensors, wenn Licht in einem anderen Teil des
selben erfaßt wird.
Fig. 17 ist eine schematische Ansicht, die veranschaulicht,
wie die Empfangseinheit zweidimensional einen von der Sende
einheit emittierten Strahl erfaßt.
Fig. 18 ist ein zeitbezogenes Diagramm, das das Ausgangssi
gnal des linearen Sensors in x-Richtung zeigt.
Fig. 19 ist ein zeitbezogenes Diagramm, das das Ausgangssi
gnal des linearen Sensors in einer ersten y-Richtung zeigt.
Fig. 20 ist ein zeitbezogenes Diagramm, das das Ausgangssi
gnal des linearen Sensors in einer zweiten y-Richtung zeigt.
Fig. 21 ist ein zeitbezogenes Diagramm, das die Beziehung
zwischen einem Schwellenpotential und einem Beispiel des
Ausgangssignals vom linearen Sensor, der Licht erfaßt hat,
zeigt.
Fig. 22 ist ein zeitbezogenes Diagramm, das die Beziehung
zwischen dem Schwellenpotential und einem anderen Beispiel
eines Ausgangssignals des linearen Sensors, der Licht er
faßt hat, zeigt.
Fig. 23 ist ein Blockdiagramm, das ein Konfigurationsbei
spiel für eine Schaltung eines Erkennungsblocks vom digita
len Typ zeigt.
Fig. 24 ist ein Blockdiagramm, das ein Konfigurationsbei
spiel einer Schaltung eines Erkennungsblocks vom analogen
Typ zeigt.
Fig. 25, 27, 29 und 31 sind Draufsichten, die jeweils einen
Sensorblock der Empfangseinheit zum dreidimensionalen Erken
nen der Position der Sendeeinheit gemäß einem ersten, zwei
ten, dritten bzw. vierten Ausführungsbeispiel zeigen.
Fig. 26, 28, 30 und 32 sind Draufsichten jeweils eines zwei
ten optischen Blocks der Empfangseinheit zum dreidimensiona
len Erkennen der Position der Sendeeinheit gemäß dem ersten,
zweiten, dritten bzw. vierten Ausführungsbeispiel.
Fig. 4 ist ein Blockdiagramm, das eine Fernsteuerung gemäß
einem Ausführungsbeispiel der Erfindung zeigt, die eine Sen
deeinheit 10, eine Empfangseinheit 20 und einen Anzeigeblock
27 aufweist. Zwischen der Sendeeinheit 10 und der Empfangs
einheit 20, die räumlich voneinander getrennt sind, ist kei
ne elektrische Verbindung vorhanden.
Die Sendeeinheit 10 der Fernsteuerung 1 verfügt über einen
Eingabeblock 11, einen Lichtquellenblock 12 und einen ersten
optischen Block 13. Der Eingabeblock 11 ist mit einer Taste
zum Eingeben eines Befehls, der den Lichtquellenblock 12
steuert, versehen. Wenn z. B. die Taste betätigt wird, emit
tiert der Lichtquellenblock 12 Licht. Der erste optische
Lichtquellenblock 12 verwendet eine Lichtemissionsdiode oder
dergleichen, die durch Steuerung durch den Eingabeblock ein-
oder ausgeschaltet wird, und das emittierte Licht wird in
den ersten optischen Block 13 eingeleitet, der so das vom
Lichtquellenblock 12 emittierte Licht empfängt und dieses in
einen Strahl umsetzt.
Die Empfangseinheit 20 verfügt über einen zweiten optischen
Block 21, einen Sensorblock 22 und einen Steuerungsblock 26.
Der zweite optische Block 21 empfängt den von der Sendeein
heit 10 emittierten Strahl und konvergiert ihn auf Sensoren
im Sensorblock 22. Der Sensorblock 22 besteht aus mindestens
zwei Sensoren, nämlich einem linearen Sensor 23 in x-Rich
tung und einem linearen Sensor 24 in y-Richtung, wenn eine
Position zweidimensional erfaßt wird, oder es existiert
noch ein Sensor 25 für die z-Richtung, also mindestens drei
Sensoren, wenn eine Position dreidimensional erfaßt wird.
Jeder dieser linearen Sensoren erfaßt die Verteilung der
Strahlintensität in der entsprechenden Richtung, und er lie
fert das Ergebnis an den Steuerungsblock 26. Dieser Steue
rungsblock 26 verfügt über einen Erfassungsblock 28, der Si
gnale von den linearen Sensoren analysiert, um die Position
der Sendeeinheit 10 zu erfassen. Die erfaßte Position der
Sendeeinheit 10 wird an den Anzeigeblock geliefert, und
falls erforderlich, werden Daten nach außen ausgegeben.
Der Anzeigeblock 27 verfügt über einen Anzeigeschirm, der
vom Empfangsblock gelieferte Daten anzeigt.
Wie es in Fig. 5 dargestellt ist, verfügt die Sendeeinheit
10 über ein im wesentlichen quaderförmiges Gehäuse, wobei
die optische Achse des vom ersten optischen Block 3 emit
tierten Strahls in der Längsrichtung des Gehäuses ausgerich
tet ist. Das Gehäuse verfügt über eine solche Größe, daß es
zur Bedienung gut von Hand gehalten werden kann. Als Einga
beblock 11 ist eine Taste 2 an einer Position in der vorde
ren Hälfte vorhanden, so daß sie leicht durch einen Finger
betätigt werden kann, wenn das Gehäuse mit der Hand ergrif
fen ist. Normalerweise verfügt die Sendeeinheit 10 über eine
Spannungsquelle wie eine Batterie, um ohne äußere Spannungs
versorgung betrieben werden zu können.
Die Sendeeinheit 10 wird so gesteuert, daß der Lichtquel
lenblock 12 dann Licht emittiert, wenn die Sendeeinheit 10
ergriffen wird oder die Taste 2 betätigt wird. Das von die
sem Lichtquellenblock emittierte Licht wird durch den ersten
optischen Block 13 zu einem Strahl konvergiert.
Fig. 6 zeigt die Empfangseinheit 20 gemäß einem ersten Aus
führungsbeispiel, die aus einem linearen Sensor 23 in x-Richtung
und einem linearen Sensor 24 in y-Richtung besteht,
die außerhalb des oberen linken Teils des Anzeigeblocks 27
liegen und jeweils in einem quaderförmigen Gehäuse angeord
net sind. Der Sensor 23 in x-Richtung ist so ausgebildet,
daß seine Längsrichtung parallel zur Oberseite des Anzeige
blocks verläuft, wohingegen der Sensor 24 in y-Richtung so
angeordnet sind, daß seine Längsrichtung parallel zur Seite
des Anzeigeblocks verläuft.
Fig. 7 zeigt eine Empfangseinheit gemäß einem zweiten Aus
führungsbeispiel. Anstelle des linearen Sensors 23 in x-Richtung
und des linearen Sensors in y-Richtung oben links
vom Anzeigeblock 27, beim ersten Ausführungsbeispiel, be
steht die Empfangseinheit 20 beim zweiten Ausführungsbei
spiel aus dem obengenannten zweiten optischen Block 21 mit
einer Linse 3, der unter dem Anzeigeblock liegt. Der Sensor
block 22 mit dem obengenannten linearen Sensor 23 in x-Rich
tung und dem linearen Sensor 24 in y-Richtung ist innerhalb
dieser Empfangseinheit 20 angeordnet.
In der Empfangseinheit 20 wird der von der Sendeeinheit 10
herkommende Strahl durch die Linse 3 des zweiten optischen
Blocks 21 auf den Sensorblock 22 mit den obengenannten li
nearen Sensoren konvergiert. Der Sensorblock 22 verfügt über
mindestens zwei Sensoren, nämlich den linearen Sensor in x-Richtung
und den linearen Sensor in y-Richtung. Diese Senso
ren sind in jeweiligen Richtungen angeordnet, so daß sie
wirkungsvoll eine Komponente in x-Richtung und eine Kompo
nente in y-Richtung innerhalb des Strahls trennen können.
Die Richtungen dieser Sensoren können einen rechten Winkel
oder einen anderen Winkel bilden.
Hierbei repräsentiert die Richtung eines linearen Sensors
(eindimensionales Lichtempfangselement) die Längsrichtung
des linearen Sensors, in der Lichtempfangselemente eindimen
sional angeordnet sind.
Fig. 8 zeigt ein Beispiel für das Anfangsbild auf dem Anzei
geschirm des Anzeigeblocks 27. Die Empfangseinheit 20 zeigt
ein Menü mit geschichteter Konfiguration auf dem Anzeige
schirm des Anzeigeblocks 27 an. Eine Funktion kann aus die
sem Menü durch Betätigen der Sendeeinheit 10 ausgewählt wer
den.
D. h., daß dann, wenn die Sendeeinheit 10 mit einer Hand
ergriffen wird oder die Taste 2 durch einen Finger betätigt
wird, der erste optische Block 13 einen Strahl emittiert.
Dieser Betrieb der Sendeeinheit 10 wird zur Empfangseinheit
20 hin ausgeführt. Wenn die Empfangseinheit 20 den von der
Sendeeinheit 10 emittierten Strahl erfaßt, zeigt sie auf
dem Anzeigeschirm ein "Anfangsmenü" 32 an.
Dieses "Anfangsmenü" 32 zeigt in der linken Hälfte vier Aus
wähltasten "TV", "VTR", "Videoplatte" und "Hilfe" in dieser
Reihenfolge von oben nach unten. In der rechten Hälfte des
Schirms sind vier Tasten "CD", "Audioplatte", "Audioband"
und "Option" in dieser Reihenfolge von oben nach unten auf
dem Schirm angeordnet. Wenn dieses "Anfangsmenü" geöffnet
wird, wird ein Kursor 31 im Zentrum des Schirms positio
niert.
Der Anzeigeblock 27 zeigt den Inhalt der jeweiligen Funktio
nen. Wenn eine der Auswähltasten ausgewählt wird, erscheint
ein entsprechender Schirm, durch den eine entscheidende Be
dienung ausgeführt werden kann. D. h., daß dann, wenn die
entsprechende Taste ausgewählt wird, "TV-Menü", "VTR-Menü",
"Videoplattenmenü", "Hilfemenü", "CD-Menü", "Audioplatten
menü", "Audiobandmenü" oder "Optionenmenü" erscheint, und
mittels dieser Schirme kann unter Verwendung des Kursors 31
eine weitere Auswahl ausgeführt werden.
Fig. 9 zeigt, daß die "TV"-Taste 33 durch den Kursor 31 im
Anfangsmenü 32 des Anzeigeblocks 27 ausgewählt wird. Der
Kursor 31 kann vom Zentrum des Anzeigeblocks 27 dadurch nach
oben links verstellt werden, daß der Strahl von der Sende
einheit 10 vom Zentrum des Anzeigeblocks 27 nach oben links
bewegt wird.
D. h., daß der Kursor 31 dadurch auf dem Anzeigeblock 27
bewegt werden kann, daß die Richtung der Anzeigeeinheit 10
geändert wird, und die durch den Kursor 31 ausgewählte Aus
wähltaste kann dadurch spezifiziert werden, daß die Taste 2
an der Sendeeinheit 10 betätigt wird.
Wenn diese Taste 2 an der Sendeeinheit 10 betätigt wird,
während der Kursor 31 auf die "TV"-Taste auf dem Anfangs
schirm zeigt, wird diese ausgewählt, und das "Anfangsmenü"
32 wird auf dem Anzeigeblock 27 durch das "TV-Menü" ersetzt.
Das "TV-Menü" zeigt in der linken Hälfte des Schirms vier
Tasten "Kanal", "Kanal 1", "Vorige Seite" und "Anderes" in
dieser Reihenfolge von oben nach unten auf dem Schirm, wo
hingegen die rechte Hälfte des Schirms vier Tasten "Laut
stärke", "Kanal 4", "Anfangsmenü" und "Hilfe" in dieser Rei
henfolge von oben nach unten zeigt. Wenn eine dieser Aus
wähltasten unter Verwendung des Kursors 31 ausgewählt wird,
kann die entsprechende Funktion ausgeführt werden.
D. h., daß die "Kanal"-Taste 35 die Kanalnummer ändert, die
"Kanal 1"-Taste den Kanal 1 auswählt; die "Vorige Seite"-Taste
das zuvor angezeigte Menü zeigt; die "Anderes"-Taste
"Anderes Menü" zeigt; die "Lautstärke"-Taste die Lautstärke
ändert; die "Kanal 4"-Taste den Kanal auf den Kanal 4 wech
selt; die "Anfangsmenü"-Taste das Anfangsmenü zeigt und die
"Hilfe"-Taste den Hilfetext anzeigt.
Z. B. verfügt, wie es in Fig. 10 dargestellt ist, die "Ka
nal"-Taste 35 im "TV-Menü" über eine "Auf"-Taste 35a und
eine "Ab"-Taste 35b. Wenn der Kursor 31 auf der "Auf"-Taste
35a positioniert wird und die Taste 2 betätigt wird, wird
die Kanalnummer des Fernsehgeräts um Eins inkrementiert. Auf
ähnliche Weise wird die Kanalnummer um Eins dekrementiert,
wenn der Kursor auf der "Ab"-Taste 35b positioniert wird und
die Taste 2 betätigt wird. Die "Anderes"-Taste wird dazu
verwendet, ein Menü "Anderes" in Zusammenhang mit diesem
"TV-Menü" 34 anzuzeigen.
Fig. 11 zeigt das "VTR-Menü" mit vier Tasten "Abspielen",
"Schneller Vorlauf", "Zurückspulen" und "Vorige Seite" in
dieser Reihenfolge von oben nach unten auf dem Schirm in der
linken Hälfte des Schirms; und mit vier Tasten "Stop", "Kas
settenauswurf", "Aufzeichnen" und "Anderes" in dieser Rei
henfolge von oben nach unten in der rechten Hälfte des
Schirms. Diese Auswähltasten entsprechen jeweiligen Funktio
nen, und sie können dadurch ausgewählt werden, daß der Kur
sor 31 auf der gewünschten Taste positioniert wird und die
Taste 2 an der Sendeeinheit 10 betätigt wird.
Wenn z. B. bei diesem "VTR-Menü" der Kursor 31 auf die
"Schneller Vorlauf"-Taste 39 gesetzt wird, um diese Funktion
durch Betätigen der Taste 2 und der Sendeeinheit 10 aus zu
wählen, wird im mit dieser Empfangseinheit verbundenen Vi
deobandrecorder ein schneller Vorlauf ausgeführt.
Die Beschreibung wird nun auf das Prinzip der Positionser
fassung der Sendeeinheit 10 durch die Empfangseinheit 20 ge
richtet. Als erstes erfolgt eine Erläuterung zum Erfassen
einer eindimensionalen Position.
Wie es in Fig. 12 dargestellt ist, wird, wenn ein von der
Sendeeinheit 10 emittierter Strahl auf der optischen Achse
der Empfangseinheit liegt, dieser Strahl durch die Linse 3
des zweiten optischen Blocks 21 der Empfangseinheit 20 auf
das Zentrum des linearen Sensors 4 des Sensorblocks 22 kon
vergiert.
Dagegen zeigt Fig. 13 einen Fall, bei dem die Sendeeinheit
10 nicht auf der optischen Achse der Empfangseinheit 20
liegt. Wenn sich die Sendeeinheit 10 an einer Position P1
befindet, wird der von dieser Sendeeinheit 10 emittierte
Strahl durch die Linse 3 des zweiten optischen Blocks 21 der
Empfangseinheit 20 auf einen Punkt P3 des linearen Sensors 4
des Sensorblocks 22 konvergiert. Wenn die Sendeeinheit 10 an
einer Position P2 liegt, wird der von ihr emittierte Strahl
auf einen Punkt P4 des linearen Sensors 4 konvergiert.
Demgemäß kann die Position der Sendeeinheit 10 dadurch er
faßt werden, daß der Punkt überprüft wird, an dem der
Strahl konvergiert wird, d. h. die Position mit maximaler
Strahlhelligkeit.
Hierbei ist als linearer Sensor 4 ein CCD-Element verwendet.
Ein solches weist eindimensional angeordnete Lichtempfangs
elemente auf, wobei jedes Element eine elektrische Ladung
entsprechend der Lichtintensität erzeugt. Die elektrische
Ladung jedes Elements wird zur Ausgabe mit einem Taktsignal
synchronisiert.
Fig. 14 ist ein zeitbezogenes Diagramm eines Ausgangssi
gnals, wenn kein Licht an den das CCD verwendenden linearen
Sensor 4 gelangt. Das Ausgangssignal liegt in Impulsform
vor, da die Ausgabe aus dem CCD-Element entsprechend einem
Taktsignal erfolgt. Jeder Zyklus entspricht einem Element.
Wenn kein Licht zugeführt wird, ist die Amplitude des Aus
gangssignals klein und flach.
Fig. 15 ist ein zeitbezogenes Diagramm des Ausgangssignals
des linearen Sensors 4, wenn Licht auf einen Teil desselben
fällt. Das einfallende Licht wird erfaßt, und die Amplitude
des Ausgangssignals ist in negativer Richtung teilweise er
höht. D. h., daß die untere Einhüllende des Ausgangssignals
minimalen Wert aufweist.
Fig. 16 ist ein zeitbezogenes Diagramm des Ausgangssignals
des linearen Sensors 4, wenn Licht auf einen anderen Ort als
bei Fig. 15 trifft. Es zeigt sich eine ähnliche Änderung des
Signalverlaufs des Ausgangssignals, jedoch tritt die Ände
rung des Signalverlaufs an einer anderen Stelle auf.
Hierbei sind die Fig. 14, 15 und 16 zeitbezogene Diagramme,
die durch Auslesen des Ausgangssignals des linearen Sensors
4 in eindimensionaler Richtung entsprechend dem Taktsignal
erhalten wurden. Demgemäß entspricht die Zeitachse in diesen
drei Diagrammen der eindimensionalen Richtung, die die
Längsrichtung des linearen Sensors 4 ist.
Nun wird die Beschreibung auf einen Fall gerichtet, bei dem
der von der Sendeeinheit 10 emittierte Strahl durch die Emp
fangseinheit 20 empfangen wird und die Position der Sende
einheit 10 zweidimensional erfaßt wird.
Fig. 17 zeigt einen von der Sendeeinheit 10 emittierten und
von der Empfangseinheit 20 empfangenen Strahl. Dieser Strahl
wird über den zweiten optischen Block 21 mit der Linse 3
aufgenommen und auf den Sensorblock 22 mit dem linearen Sen
sor 23 in x-Richtung, einem ersten linearen Sensor 51 in y-Richtung
und einem zweiten linearen Sensor 52 in y-Richtung
konvergiert.
Der Sensorblock 22 verfügt über eine im wesentlichen quadra
tische Platte mit einer Hauptfläche, auf der lineare Senso
ren kreuzförmig angeordnet sind, wobei sie jeweils parallel
oder rechtwinklig oder unter einem anderen Winkel zur Seite
der quadratischen Platte verlaufen. Hierbei liegen der erste
lineare Sensor 51 in y-Richtung und der zweite lineare Sen
sor 52 in y-Richtung auf einer einzelnen Linie, und der li
neare Sensor 23 in x-Richtung liegt zwischen ihnen.
Wenn der von der Sendeeinheit 10 emittierte Lichtstrahl
nicht auf der durch die optische Achse der Empfangseinheit
20 und den linearen Sensor 23 in x-Richtung definierten Ebe
ne und auch nicht auf der durch die optische Achse und die
linearen Sensoren in y-Richtung definierten Ebene liegt,
wird der Strahl außerhalb der linearen Sensoren auf die
Hauptfläche des Sensorblocks konvergiert. Die Ausgangssigna
le der jeweiligen linearen Sensoren sind für diesen Fall un
ten angegeben. Es ist zu beachten, daß der Strahl nicht auf
die Sensoren des Sensorblocks 22 fokussiert sein muß.
Fig. 18 zeigt das Ausgangssignal des linearen Sensors 23 in
x-Richtung. Entsprechend der Intensität des einfallenden
Lichts ist die Amplitude in einem Teil des linearen Sensors
erhöht. Es ist zu beachten, daß das Ausgangssignal einen
Bezugspegel 10 aufweist, wie er durch eine gestrichelte Li
nie in der Figur gekennzeichnet ist, und daß sich die Am
plitude zur negativen Seite (unten in der Figur) hin ändert.
Dasselbe gilt für die anderen Ausgangssignale.
Fig. 19 zeigt das Ausgangssignal des ersten linearen Sensors
51 in y-Richtung. Die Ausgangsamplitude ist in einem Teil
dieses linearen Sensors leicht erhöht. Dies bedeutet, daß
Licht zu diesem ersten linearen Sensor 51 in y-Richtung ge
langt, es jedoch geringe Intensität aufweist.
Fig. 20 zeigt das Ausgangssignal des zweiten linearen Sen
sors 52 in y-Richtung. Die Amplitude ist in einem Teil die
ses zweiten linearen Sensors 52 in y-Richtung erhöht. Dies
bedeutet, daß die Lichtintensität in diesem Teil des linea
ren Sensors erhöht ist.
Es ist zu beachten, daß bei den obigen zeitbezogenen Dia
grammen die horizontale Achse, d. h. die Zeitachse, der Län
ge des linearen Sensors in eindimensionaler Richtung ent
spricht, da der lineare Sensor das Ausgangssignal der ein
dimensional angeordneten Empfangselemente entsprechend einem
Taktsignal ausgibt. D. h., daß der erste und der zweite li
neare Sensor in y-Richtung jeweils eine Länge aufweisen, die
der Hälfte der Länge des linearen Sensors in x-Richtung ent
spricht, weswegen die Zeitachse in den Fig. 19 und 20 unge
fähr der Hälfte der Zeitachse von Fig. 18 entspricht.
In der Empfangseinheit 20 kann die Fokussierungsposition des
auf den Sensorblock 22 fallenden Lichts aus dem Ausgangssi
gnal des linearen Sensors 4 erhalten werden. D. h., daß es
im Sensorblock 22 möglich ist, einen Punkt zu erkennen, an
dem die Ausgangssignalamplitude für sowohl die Komponente in
x-Richtung als auch die Komponente in y-Richtung maximal
ist.
Es sei darauf hingewiesen, daß es zum Erfassen einer zwei
dimensionalen Position möglich ist, anstelle mehrerer linea
rer Sensoren, wie im obigen Fall, einen zweidimensionalen
Sensor zu verwenden.
Nun erfolgt eine Erläuterung zu einem Verfahren zum Erkennen
des Punkts, an dem die Ausgangssignalamplitude maximal ist.
Wie es in Fig. 21 dargestellt ist, wird ein Schwellenpegel
Vth um eine vorbestimmte Spannung unter dem Boden V0 des
Ausgangssignals, wenn kein Licht zugeführt wird, definiert.
Wenn angenommen wird, daß A1 der Punkt ist, an dem das Aus
gangssignal dieses Schwellenpotential in negativer Richtung
übersteigt, und B1 der Punkt ist, an dem das Ausgangssignal
zur Innenseite des Schwellenpotentials hin zurückkehrt, ist
der Punkt, an dem die Amplitude des Ausgangssignals maximal
wird, ungefähr als Mittelpunkt C1 zwischen den Punkten A1
und B1 definiert.
In Fig. 22 ändert sich die Amplitude des Ausgangssignals um
die Maximalamplitude herum weniger abrupt, als dies beim
Ausgangssignal von Fig. 21 der Fall ist. Auch in diesem Fall
kann, auf dieselbe Weise wie bei Fig. 21, der Punkt, an dem
das Ausgangssignal seine maximale Amplitude aufweist, als
Mittelpunkt C2 von Punkten A2 und B2 definiert werden, wobei
angenommen wird, daß A2 der Punkt ist, an dem das Ausgangs
signal das Schwellenpotential in negativer Richtung über
schreitet, und B2 der Punkt ist, an dem das Ausgangssignal
zur Innenseite in bezug auf das Schwellenpotential zurück
kehrt.
Demgemäß ist es möglich, den Mittelpunkt zwischen dem Punkt,
an dem der Boden des Ausgangssignals ein Schwellenpotential
in negativer Richtung überschreitet, und dem Punkt, an dem
das Ausgangssignal zur Innenseite des Schwellenpotentials
zurückkehrt, zu erhalten, um den Punkt zu definieren, an dem
die Amplitude des Ausgangssignals des linearen Sensors 4 ma
ximal ist, d. h. den Punkt, an dem die Intensität des ein
fallenden Lichts maximal ist.
Es sei darauf hingewiesen, das der Unterschied zwischen den
Fig. 21 und 22, d. h., ob sich die Amplitude des Ausgangs
signals um die Maximalamplitude herum allmählich oder abrupt
ändert, von einigen Faktoren abhängt, zu denen gehört, ob
das einfallende Licht auf den Sensorblock 22 oder entfernt
von diesem fokussiert wird.
Fig. 23 zeigt ein Beispiel für die Konfiguration einer
Schaltung zum Erkennen der Maximalamplitude des obengenann
ten Ausgangssignals. Diese Schaltung ist eine Erkennungs
schaltung von digitalem Typ, die ein Ausgangssignal in ein
zu verarbeitendes digitales Signal umsetzt.
Wie es in Fig. 23 dargestellt ist, umfaßt diese Erkennungs
schaltung vom digitalen Typ folgendes: einen A/D-Umsetzer
41; einen Zeilenspeicher 42; einen Operationsverstärker 43;
einen Schwellenwertgenerator 47; einen ersten Zähler 47;
einen zweiten Zähler 45; einen Inverter 46; ein erstes Flip-
Flop 49; ein zweites Flip-Flop 50 und eine Mittelwert-Be
rechnungseinrichtung 48.
Das vom linearen Sensor 23 in x-Richtung des Sensorblocks 22
ausgegebene Signal wird an die Erkennungsschaltung 28 gelie
fert, in der das Signal durch den A/D-Umsetzer digitalisiert
wird, woraufhin es in den Zeilenspeicher 42 eingespeichert
wird. Aus diesem wird das Signal entsprechend einem Taktsi
gnal ausgelesen.
Das Signal von diesem Zeilenspeicher 42 wird an den Opera
tionsverstärker 43 gegeben, in dem das Signal mit einem vom
Schwellenwertgenerator 43 erzeugten Schwellenpotential ver
glichen wird, und das Vergleichsergebnis wird an das erste
Flip-Flop 49 und über den Inverter 46 an das zweite Flip-Flop
50 gegeben.
Das erste Flip-Flop 49 liefert sein Ausgangssignal zum Zeit
punkt des Punkts A (Punkt A1 in Fig. 21 und Punkt A2 in Fig.
22) an den ersten Zähler 44. Der erste Zähler 44 zählt den
Taktzählwert A ab dem Start einer Zeile bis zum Zeitpunkt
der Hinterflanke, wie vom ersten Flip-Flop 49 geliefert, und
er liefert den Taktzählwert A an die Mittelwert-Berechnungs
einrichtung 48. Das zweite Flip-Flop 50 versorgt den zweiten
Zähler 45 mit dem Zeitpunkt des Punkts B (Punkt B1 in Fig.
21 und Punkt B2 in Fig. 22).
Darüber hinaus versorgt der zweite Zähler 45 die Mittelwert-
Berechnungseinrichtung 48 mit dem Taktzählwert ab dem Start
der einen Zeile bis zum Punkt B, wie vom zweiten Flip-Flop
46 geliefert.
Die Mittelwert-Berechnungseinrichtung 48 berechnet den Mit
telwert aus dem Taktzählwert A bis zum Punkt A und dem Takt
zählwert B bis zum Punkt B, und sie gibt den Mittelwert aus.
Dieser Mittelwert entspricht dem Mittelpunkt zwischen dem
Punkt A und dem Punkt B, d. h. dem Punkt, an dem das Aus
gangssignal seine maximale Amplitude aufweist.
Nun wird die Beschreibung auf eine Erkennungsschaltung zum
Erkennen der Maximalamplitude des Ausgangssignals, das ein
analoges Signal bleibt, gerichtet.
Fig. 24 zeigt den Aufbau dieser Erkennungsschaltung vom ana
logen Typ, die folgendes aufweist: einen Operationsverstär
ker 43; einen Schwellenwertgenerator 47; einen Inverter 46;
ein erstes Flip-Flop 49; ein zweites Flip-Flop 50; einen
ersten Zähler 44, einen zweiten Zähler 45 und eine Mittel
wert-Berechnungseinrichtung 48.
Das vom linearen Sensor in x-Richtung des Sensorblocks 42
gelieferte Ausgangssignal wird an den Operationsverstärker
43 gegeben, in dem das Signal mit einem vom Schwellenwert
generator 47 gelieferten Schwellenpotential verglichen wird,
und das Ergebnis wird an das erste Flip-Flop 49 und über den
Inverter 46 an das zweite Flip-Flop 50 geliefert.
Der erste Zähler 44 wird zu einem Zeitpunkt rückgesetzt, zu
dem das Ausgangssignal aus dem Sensorblock ausgelesen wird,
und er zählt das Taktsignal, bis das erste Flip-Flop den
Punkt A erreicht (Punkt A1 in Fig. 21 und Punkt A2 in Fig.
22). Das Zählwertergebnis wird an die Mittelwert-Berech
nungseinrichtung 48 geliefert. Der zweite Zähler 45 zählt,
auf dieselbe Weise wie der erste Zähler 44, das Taktsignal
ab dem Start des Auslesens des Sensorblocks, bis das zweite
Flip-Flop den Punkt B erreicht (Punkt B1 in Fig. 21 und
Punkt B2 in Fig. 22), und er gibt das Zählwertergebnis B an
die Mittelwert-Berechnungseinrichtung 48 aus.
Die Mittelwert-Berechnungseinrichtung 48 berechnet den Mit
telwert aus dem durch den ersten Zähler 44 berechneten Zähl
wert A und dem durch den zweiten Zähler 45 berechneten Zähl
wert B. Der erhaltene Mittelwert ist am Mittelpunkt zwischen
dem Punkt A und dem Punkt B, und er entspricht dem Punkt, an
dem das Ausgangssignal seine Maximalamplitude aufweist.
Nun wird die Beschreibung auf den Sensorblock 22 und den
zweiten optischen Block 21 für den Fall gerichtet, daß die
Position der Sendeeinheit 10 dreidimensional erfaßt wird.
Der Sensorblock 22 ist mit drei linearen Sensoren versehen,
nämlich einem linearen Sensor 23 in x-Richtung; einem linea
ren Sensor 24 in y-Richtung und einem linearen Sensor in z-Richtung.
Entsprechend diesen drei Typen linearer Sensoren
verfügt der zweite optische Block 21 über eine erste Linse
5, eine zweite Linse 6 und eine dritte Linse 7. Jedoch exis
tiert auch der Fall, daß der zweite optische Block 21 über
zwei Linsen verfügt.
Nun erfolgt eine Erläuterung zum Sensorblock 22 und dem dem
selben entsprechenden zweiten optischen Block 21 zum dreidi
mensionalen Erfassen der Position der Sendeeinheit 10 gemäß
einem ersten Ausführungsbeispiel.
Wie es in Fig. 25 dargestellt ist, ist der Sensorblock 22
auf seiner Hauptfläche mit dem linearen Sensor 23 in x-Rich
tung, dem ersten linearen Sensor 51 in y-Richtung, dem zwei
ten linearen Sensor 52 in y-Richtung, einem ersten linearen
Sensor 53 in z-Richtung und einem zweiten linearen Sensor 54
in z-Richtung versehen.
Der erste lineare Sensor 51 in y-Richtung und der zweite li
neare Sensor 52 in y-Richtung sind so angeordnet, daß sie
von beiden Richtungen des linearen Sensors in x-Richtung an
dessen Zentrum rechtwinklig oder unter einem anderen Winkel
anstoßen. Der erste lineare Sensor 51 in y-Richtung ist in
der Figur über dem linearen Sensor in x-Richtung angeordnet,
während der zweite lineare Sensor 52 in y-Richtung darunter
angeordnet ist.
Der erste lineare Sensor 53 in z-Richtung und der zweite li
neare Sensor 54 in z-Richtung sind in einer Linie mit einem
gegenseitigen Abstand parallel oder ungefähr parallel zum
linearen Sensor in x-Richtung angeordnet. In der Figur ist
der erste lineare Sensor 53 in z-Richtung unten links ange
ordnet, während der zweite lineare Sensor 54 in z-Richtung
unten rechts liegt.
Wie es in Fig. 26 dargestellt ist, verfügt der zweite opti
sche Block 21 über eine erste Linse 5, eine zweite Linse 6,
eine dritte Linse 7 und ein Halteelement zum Halten dieser
Linsen.
Die erste Linse 5 entspricht dem linearen Sensor 23 in x-Richtung,
dem ersten linearen Sensor 51 in y-Richtung und
dem zweiten linearen Sensor 52 in y-Richtung am Sensorblock
22. Diese erste Linse 5 ist so angeordnet, daß ihre opti
sche Achse durch das Zentrum oder beinahe das Zentrum des
linearen Sensors in x-Richtung sowie den Mittelpunkt oder
beinahe den Mittelpunkt zwischen dem ersten und dem zweiten
linearen Sensor 51 bzw. 52 in y-Richtung verläuft.
Die zweite Linse 6 entspricht dem ersten linearen Sensor 53
in z-Richtung. Diese zweite Linse 6 ist so angeordnet, daß
ihre optische Achse durch das Zentrum oder beinahe das Zen
trum des ersten linearen Sensors in z-Richtung verläuft.
Die dritte Linse 7 entspricht dem zweiten linearen Sensor 54
in z-Richtung. Diese dritte Linse 7 ist so angeordnet, daß
ihre optische Achse durch das Zentrum oder beinahe das Zen
trum des zweiten linearen Sensors in z-Richtung verläuft.
Die Beschreibung wird nun auf den Sensorblock 22 und den
zweiten optischen Block 21, wie er diesem Sensorblock 22
entspricht, zum dreidimensionalen Erkennen der Position der
Sendeeinheit 10 gemäß einem zweiten Ausführungsbeispiel ge
richtet.
Wie es in Fig. 27 dargestellt ist, verfügt der Sensorblock
22 auf seiner Hauptfläche über einen ersten linearen Sensor
65 für die x- und die z-Richtung, einen zweiten linearen
Sensor 66 für die x- und die z-Richtung, einen ersten linea
ren Sensor 51 für die y-Richtung, einen zweiten linearen
Sensor 52 für die y-Richtung, einen dritten linearen Sensor
55 für die y-Richtung und einen vierten linearen Sensor 56
für die y-Richtung.
Der erste lineare Sensor 65 in x-Richtung und in z-Richtung
sowie der zweite lineare Sensor 66 in x-Richtung und in z-Richtung
sind in einer Linie beabstandet voneinander ange
ordnet. Der erste lineare Sensor 65 in x- und in z-Richtung
ist links in der Mitte angeordnet, während der zweite linea
re Sensor 66 in x- und in z-Richtung rechts in der Mitte in
der Figur angeordnet ist.
Der erste und der zweite lineare Sensor 51 bzw. 52 in y-Richtung
sind in der oberen bzw. der unteren Hälfte der Fi
gur so angeordnet, daß sie das Zentrum oder beinahe das
Zentrum des ersten linearen Sensors 65 in x- und in z-Rich
tung rechtwinklig oder unter einem anderen Winkel einbetten.
Der dritte und der vierte lineare Sensor 55 bzw. 56 in y-Richtung
sind in der oberen bzw. der unteren Hälfte in der
Figur so angeordnet, daß sie das Zentrum oder beinahe das
Zentrum des zweiten linearen Sensors 66 in x- und in z-Rich
tung rechtwinklig oder unter einem anderen Winkel einbetten.
Wie es in Fig. 28 dargestellt ist, umfaßt der zweite opti
sche Block eine erste Linse 5, eine zweite Linse 6 und ein
Halteelement zum Halten dieser Linsen.
Die erste Linse 5 entspricht dem ersten linearen Sensor 65
in x- und z-Richtung sowie dem ersten und dem zweiten linea
ren Sensor 51 bzw. 52 in y-Richtung im Sensorblock 22. Diese
erste Linse 5 ist so angeordnet, daß ihre optische Achse
durch das Zentrum oder beinahe das Zentrum des ersten linea
ren Sensors 65 in x- und in z-Richtung sowie durch den Mit
telpunkt oder beinahe den Mittelpunkt zwischen dem ersten
und dem zweiten linearen Sensor 51 bzw. 52 in y-Richtung
verläuft.
Die zweite Linse 6 entspricht dem zweiten linearen Sensor 66
in x- und z-Richtung sowie dem dritten und vierten linearen
Sensor 55 bzw. 56 in y-Richtung im Sensorblock 22. Diese
zweite Linse 6 ist so angeordnet, daß ihre optische Achse
durch das Zentrum oder beinahe das Zentrum des linearen Sen
sors 66 in x- und in z-Richtung sowie durch den Mittelpunkt
oder beinahe den Mittelpunkt zwischen dem dritten und dem
vierten linearen Sensor 55 bzw. 56 in y-Richtung verläuft.
Nun wird die Beschreibung auf einen Sensorblock 22 und einen
diesem entsprechenden zweiten optischen Block 21 zum dreidi
mensionalen Erkennen der Position der Sendeeinheit 10 gemäß
einem dritten Ausführungsbeispiel beschrieben.
Wie es in Fig. 29 dargestellt ist, verfügt der Sensorblock
22 auf seiner Hauptfläche über einen ersten und einen zwei
ten linearen Sensor 65 bzw. 66 in x- und in z-Richtung, so
wie über einen ersten und einen zweiten linearen Sensor 51
bzw. 52 in y-Richtung.
In der Figur sind der erste und der zweite lineare Sensor 65
bzw. 66 in x-Richtung und in z-Richtung sowie in der linken
bzw. der rechten Hälfte in einer Linie beabstandet voneinan
der angeordnet.
Der erste und der zweite lineare Sensor in y-Richtung sind
in der oberen bzw. der unteren Hälfte so angeordnet, daß
sie das Zentrum oder beinahe das Zentrum des ersten linearen
Sensors 65 in x- und in z-Richtung rechtwinklig oder unter
einem anderen Winkel einbetten.
Wie es in Fig. 30 dargestellt ist, verfügt der zweite opti
sche Block 21 über eine erste Linse 5, eine zweite Linse 6
und ein Halteelement zum Halten dieser Linsen.
Die erste Linse 5 entspricht dem ersten linearen Sensor 65
in x- und in z-Richtung sowie dem ersten und dem zweiten li
nearen Sensor 51 bzw. 52 in y-Richtung innerhalb des Sensor
blocks 22. Diese erste Linse 5 ist so angeordnet, daß ihre
optische Achse durch das Zentrum oder beinahe das Zentrum
des ersten linearen Sensors 65 in x- und in z-Richtung sowie
den Mittelpunkt oder beinahe den Mittelpunkt zwischen dem
ersten und dem zweiten linearen Sensor 51 bzw. 52 in y-Rich
tung verläuft.
Die zweite Linse 6 entspricht dem zweiten linearen Sensor 66
in x- und z-Richtung im Sensorblock 22. Diese zweite Linse 6
ist so angeordnet, daß ihre optische Achse durch das Zen
trum oder beinahe das Zentrum des zweiten linearen Sensors
66 in x- und in z-Richtung verläuft.
Nun wird die Beschreibung auf einen Sensorblock 22 und dem
ihm entsprechenden zweiten optischen Block 21 zum dreidimen
sionalen Erkennen der Position der Sendeeinheit 10 gemäß
einem vierten Ausführungsbeispiel gerichtet.
Wie es in Fig. 31 dargestellt ist, weist der Sensorblock 22
auf seiner Hauptfläche einen ersten und einen zweiten linea
ren Sensor 65 bzw. 66 in x- und in z-Richtung sowie einen
ersten und einen zweiten linearen Sensor 51 bzw. 52 in y-Richtung
auf.
In der Figur sind der erste und der zweite lineare Sensor in
x- und z-Richtung in der linken bzw. rechten Hälfte beab
standet voneinander in einer Linie angeordnet.
Der erste und der zweite lineare Sensor in y-Richtung sind
in der oberen bzw. unteren Hälfte der Figur so angeordnet,
daß sie das Zentrum oder beinahe das Zentrum des zweiten
linearen Sensors 66 in x- und z-Richtung unter Ausbildung
eines rechten Winkels oder eines anderen Winkels einbetten.
Wie es in Fig. 32 dargestellt ist, umfaßt der zweite opti
sche Block eine erste Linse 5, eine zweite Linse 6 und ein
Halteelement zum Halten dieser Linsen.
Die erste Linse 5 entspricht dem ersten linearen Sensor 65
in x- und in z-Richtung im Sensorblock 22. Diese erste Linse
5 ist so angeordnet, daß ihre optische Achse durch das Zen
trum oder beinahe das Zentrum dieses linearen Sensors ver
läuft.
Die zweite Linse 6 entspricht dem zweiten linearen Sensor 66
in x- und z-Richtung sowie dem ersten und dem zweiten linea
ren Sensor 51 und 52 in y-Richtung. Diese zweite Linse ist
so angeordnet, daß ihre optische Achse durch das Zentrum
oder beinahe das Zentrum des zweiten linearen Sensors 66 in
x- und z-Richtung sowie den Mittelpunkt oder beinahe den
Mittelpunkt zwischen dem ersten und dem zweiten linearen
Sensor 51 bzw. 52 verläuft.
Die erfindungsgemäße Positionserfassungsvorrichtung verwen
det mindestens zwei eindimensionale Lichtempfangselemente
zum zweidimensionalen Erkennen der Position einer Lichtquel
le, wodurch es möglich ist, die Größe und das Gewicht sowie
auch die Herstellkosten der Vorrichtung im Vergleich zum
Fall, bei dem ein einzelnes zweidimensionales Element ver
wendet wird, zu verringern.
Darüber hinaus sind bei der obengenannten Positionserfassungsvorrichtung
die eindimensionalen Lichtempfangselemente
so angeordnet, daß sie einander rechtwinklig oder kreuzend
schneiden, wodurch es möglich ist, einfallendes Licht wir
kungsvoll aufzutrennen und zu empfangen.
Ferner ist es auf dieselbe Weise wie beim zweidimensionalen
Erfassen einer Position möglich, die Größe und das Gewicht
zu verringern, wenn die obengenannte Positionserfassungsvor
richtung eine Position dreidimensional erfaßt, wobei drei
oder mehr eindimensionale Lichtempfangselemente verwendet
werden, wobei mindestens zwei Elemente in verschiedenen
Richtungen angeordnet sind. Auch können die Herstellkosten
verringert werden.
Die obengenannten eindimensionalen Lichtempfangselemente,
wie sie in der obengenannten Positionserfassungsvorrichtung
verwendet sind, sind CCD-Bildaufnahmeelemente oder BBD-Bild
aufnahmeelemente oder MOS-Bildaufnahmeelemente. Da diese
Elemente auf Halbleiterchips ausgebildet werden, können sie
mit geringer Größe und geringem Gewicht sowie vernünftigen
Kosten hergestellt werden. Die Elemente sind elektrisch sta
bil, und sie können mit einer niedrigen Spannung angesteuert
werden.
Die erfindungsgemäße Fernsteuerung ermöglicht es, eine durch
einen Kursor oder dergleichen auf einem Anzeigeschirm ange
zeigte, spezifizierte Position dadurch zu verstellen, daß
ein von Hand ergriffener Sendeblock räumlich bewegt wird.
Eine derartige Betätigung ist ähnlich dem üblichen Betäti
gungsmuster, wie es von Menschen ausgeführt wird, und die
Fernsteuerung kann auch von neuen Benutzern, die die Betäti
gung noch nicht geübt haben, leicht betätigt werden.
Darüber hinaus kann eine Funktionsauswahl, wie sie herkömm
licherweise seitens der Fernsteuerung vorgenommen wurde,
durch Auswählfunktionen mittels eines auf dem Anzeigeblock
dargestellten Auswählmenüs unter Verwendung der obengenann
ten Fernsteuerung ausgeführt werden. Dies vereinfacht die
Betätigung der Fernsteuerung, wodurch es z. B. möglich ist,
eine Funktion durch Betätigen einer einzelnen Taste auszu
wählen.
Ferner kann das obengenannte Betätigungsmenü auf einem gro
ßen Anzeigeschirm wie dem einer CRT, einem Flüssigkristall
schirm und einem LED-Schirm angezeigt werden, wodurch es
möglich ist, den Auswählvorgang visuell besser zu erkennen,
als dann, wenn verschiedene Tasten bei einer herkömmlichen
Fernsteuerung ausgewählt werden.
Durch Umsetzen des Ausgangssignals der obengenannten Fern
steuerung in ein Signal einer Fernsteuerungseinheit, wie sie
für am Markt befindliche Geräte speziell angeboten wird, ist
es möglich, verschiedene Geräte wie Fernsehgeräte, Video
bandrecoder, Videoplattenspieler, CD-Spieler und Videospiel
geräte in ein System unter Verwendung dieser Fernsteuerung
einzuschließen.
Darüber hinaus verwendet die erfindungsgemäße Fernsteuerung
ein eindimensionales Aufnahmeelement als Lichtempfangsblock
zum dreidimensionalen Erkennen der Position eines Sende
blocks. Dies ermöglicht es, die Größe und das Gewicht der
Vorrichtung wie auch die Herstellkosten zu verringern. Da
die Position dreidimensional erfaßt werden kann, was z. B.
bei einem dreidimensionalen Videospiel erforderlich ist,
kann diese Fernsteuerung anstelle eines herkömmlichen Joy
sticks als Zeigeeinrichtung zum Spezifizieren einer Position
in einem virtuellen Raum verwendet werden.
Claims (7)
1. Positionserfassungsvorrichtung, gekennzeichnet durch:
- - eine Lichtempfangseinrichtung mit mindestens zwei eindi mensionalen Lichtempfangselementen (23, 24, 25), die in ver schiedenen Richtungen zueinander angeordnet sind, um von einer Lichtquelle eingestrahltes Licht zu empfangen; und
- - eine Positionserkennungs-Verarbeitungseinrichtung (26) zum zweidimensionalen Erkennen der Position der Lichtquelle ab hängig vom Ausgangssignal der Lichtempfangseinrichtung.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die eindimensionalen Lichtempfangselemente (23, 24, 25)
so angeordnet sind, daß sie einander rechtwinklig schnei
den.
3. Vorrichtung nach einem der vorstehenden Ansprüche, da
durch gekennzeichnet, daß eines der eindimensionalen Licht
empfangselemente in zwei gleiche Abschnitte (51, 52) aufge
teilt ist, um das Zentrum des anderen Lichtempfangselements
(65) rechtwinklig einzubetten, wodurch insgesamt eine kreuz
förmige Konfiguration gebildet ist.
4. Vorrichtung nach einem der vorstehenden Ansprüche, da
durch gekennzeichnet, daß
- - die Lichtempfangseinrichtung (23, 24, 25) drei oder mehr eindimensionale Lichtempfangselemente aufweist, wobei min destens zwei Elemente in voneinander verschiedenen Richtun gen angeordnet sind; und
- - die Positionserkennungs-Verarbeitungseinrichtung (26) die Position der Lichtquelleneinrichtung dreidimensional ent sprechend dem Ausgangssignal der Lichtempfangseinrichtung erkennt.
5. Vorrichtung nach einem der vorstehenden Ansprüche, da
durch gekennzeichnet, daß die eindimensionalen Lichtemp
fangselemente (23, 24, 25) aus CCD-, BBD- oder MOS-Bildauf
nahmeelementen bestehen.
6. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet,
daß die Positionserkennungs-Verarbeitungseinrichtung (26)
den Maximalpunkt der Amplitude des Ausgangssignals der
Lichterkennungseinrichtung (22) erkennt.
7. Fernsteuerung, gekennzeichnet durch
- - einen Sendeblock (10) mit einer Lichtquelle (12) zum Emit tieren von Licht und mit einem EIN/AUS-Schalter zum Ein- und Ausschalten der Lichtquelle;
- - eine Positionserkennungsvorrichtung nach einem der vorste henden Ansprüche und
- - einen Anzeigeblock (27) zum Anzeigen der durch die Posi tionserfassungsvorrichtung erkannten zweidimensionalen Posi tion des Sendeblocks auf einem Anzeigeschirm.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP34611796A JP3814904B2 (ja) | 1996-12-25 | 1996-12-25 | 位置検出装置及び遠隔操作装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE19757674A1 true DE19757674A1 (de) | 1998-07-02 |
Family
ID=18381257
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE19757674A Withdrawn DE19757674A1 (de) | 1996-12-25 | 1997-12-23 | Positionserfassungsvorrichtung und Fernsteuerung |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US6081255A (de) |
| JP (1) | JP3814904B2 (de) |
| CN (1) | CN1149466C (de) |
| DE (1) | DE19757674A1 (de) |
| FR (1) | FR2757660B1 (de) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0933721A1 (de) * | 1998-01-30 | 1999-08-04 | Canon Kabushiki Kaisha | Anordnung, Verfahren und Speichermedium zum Eingeben von Koordinatenwerten |
| FR2799915A1 (fr) * | 1999-10-15 | 2001-04-20 | Yves Jean Paul Guy Reza | Ensemble d'interface entre un utilisateur et un dispositif electronique |
| DE20117645U1 (de) * | 2001-10-31 | 2003-03-20 | Siemens Ag | Bedieneinrichtung |
| US6618035B1 (en) | 1999-10-15 | 2003-09-09 | Yves Jean-Paul Guy Reza | Interface unit between a user and an electronic device |
Families Citing this family (37)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20000015637A (ko) * | 1998-08-31 | 2000-03-15 | 윤종용 | 영상표시기기의 원격제어신호 입력장치 |
| JP4422851B2 (ja) * | 1999-03-17 | 2010-02-24 | キヤノン株式会社 | 座標入力装置及び方法 |
| KR20010001005A (ko) * | 1999-06-01 | 2001-01-05 | 전주범 | 텔레비전의 메뉴 제어 방법 및 그 장치 |
| KR100803585B1 (ko) * | 2001-12-05 | 2008-02-15 | 삼성전자주식회사 | 원격 포인팅 입력 방법 및 그 장치 |
| GB0213215D0 (en) * | 2002-06-08 | 2002-07-17 | Lipman Robert M | Computer navigation |
| US7952570B2 (en) * | 2002-06-08 | 2011-05-31 | Power2B, Inc. | Computer navigation |
| US7623115B2 (en) * | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
| KR100501379B1 (ko) * | 2002-12-04 | 2005-07-18 | 현대자동차주식회사 | 원격 조작 장치 |
| US20220261097A1 (en) * | 2003-06-09 | 2022-08-18 | Power2B, Inc. | Input system for controlling electronic device |
| US7038661B2 (en) * | 2003-06-13 | 2006-05-02 | Microsoft Corporation | Pointing device and cursor for use in intelligent computing environments |
| KR100512616B1 (ko) | 2003-07-18 | 2005-09-05 | 엘지전자 주식회사 | 화면 비율 가변 기능을 갖는 영상표시기기 및 그 제어방법 |
| JP4281453B2 (ja) * | 2003-07-31 | 2009-06-17 | ソニー株式会社 | 信号処理装置および信号処理方法 |
| US7444005B2 (en) * | 2003-11-04 | 2008-10-28 | Becton, Dickinson And Company | Apparatus and method for using optical mouse engine to determine speed, direction, position of scanned device and to obtain quantitative or qualitative data from same |
| GB2424269A (en) | 2004-04-01 | 2006-09-20 | Robert Michael Lipman | Control apparatus |
| JP2006155346A (ja) * | 2004-11-30 | 2006-06-15 | Sharp Corp | 遠隔制御装置及び表示装置 |
| JP2006155345A (ja) * | 2004-11-30 | 2006-06-15 | Sharp Corp | 遠隔制御装置及び表示装置 |
| JP2006157638A (ja) * | 2004-11-30 | 2006-06-15 | Sharp Corp | 遠隔制御装置、電子デバイス、表示装置およびゲーム機用コントロール装置 |
| JP2006189701A (ja) * | 2005-01-07 | 2006-07-20 | Pentax Corp | 二次元位置検出装置 |
| US9317170B2 (en) | 2005-05-18 | 2016-04-19 | Power2B, Inc. | Interactive devices |
| US10452207B2 (en) | 2005-05-18 | 2019-10-22 | Power2B, Inc. | Displays and information input devices |
| US9569093B2 (en) | 2005-05-18 | 2017-02-14 | Power2B, Inc. | Displays and information input devices |
| US8610675B2 (en) * | 2007-03-14 | 2013-12-17 | Power2B, Inc. | Interactive devices |
| KR100714722B1 (ko) * | 2005-06-17 | 2007-05-04 | 삼성전자주식회사 | 광원의 신호를 사용하여 포인팅 사용자 인터페이스를구현하는 장치 및 방법 |
| US9494972B2 (en) * | 2005-09-08 | 2016-11-15 | Power2B, Inc. | Displays and information input devices |
| US7541566B2 (en) | 2005-12-29 | 2009-06-02 | Nokia Corporation | Transmitter, receiver, and system with relative position detecting functionality between transmitters and receivers |
| JP2007222322A (ja) * | 2006-02-22 | 2007-09-06 | Toshiba Corp | 超音波診断装置 |
| JP2010521732A (ja) | 2007-03-14 | 2010-06-24 | パワー2ビー,インコーポレイティド | 表示装置および情報入力装置 |
| KR101182286B1 (ko) * | 2007-09-19 | 2012-09-14 | 삼성전자주식회사 | 움직임을 감지하는 리모트 컨트롤러 및, 리모트 컨트롤러에의해 포인터를 제어하는 영상디스플레이장치 및 그들의제어방법 |
| US8451224B2 (en) * | 2008-07-23 | 2013-05-28 | Sony Corporation | Mapping detected movement of an interference pattern of a coherent light beam to cursor movement to effect navigation of a user interface |
| WO2010035170A1 (en) * | 2008-09-23 | 2010-04-01 | Nxp B.V. | Detection system for the detection of movements of a movable object, a method of detecting movements of a movable object, and an ic having implemented therein the detection system |
| CN104655160A (zh) * | 2009-06-16 | 2015-05-27 | 百安托国际有限公司 | 二维位置感测系统及其传感器 |
| JP4824798B2 (ja) * | 2009-08-06 | 2011-11-30 | セイコーインスツル株式会社 | ポインティングシステム |
| US9402997B1 (en) * | 2009-09-14 | 2016-08-02 | Tomasz Andrzej Kosierkiewicz | System and method for stimulating medical electrode with a measurement capability |
| KR101672343B1 (ko) | 2009-12-10 | 2016-11-04 | 삼성전자주식회사 | 광터치 패널 및 그 구동 방법 |
| US20120127012A1 (en) * | 2010-11-24 | 2012-05-24 | Samsung Electronics Co., Ltd. | Determining user intent from position and orientation information |
| WO2013067526A1 (en) | 2011-11-04 | 2013-05-10 | Remote TelePointer, LLC | Method and system for user interface for interactive devices using a mobile device |
| CN103196362B (zh) * | 2012-01-09 | 2016-05-11 | 西安智意能电子科技有限公司 | 一种用于确定发射装置相对检测装置的三维位置的系统 |
Family Cites Families (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2399033A1 (fr) * | 1977-07-29 | 1979-02-23 | Thomson Csf | Dispositif de localisation d'une source rayonnante et systeme de reperage de direction comportant un tel dispositif |
| US4328516A (en) * | 1980-11-17 | 1982-05-04 | The United States Of America As Represented By The Secretary Of The Army | Integral test input for electro-optically multiplexed FLIR system |
| DE3133641A1 (de) * | 1981-08-26 | 1983-03-10 | Philips Patentverwaltung Gmbh, 2000 Hamburg | Ir-sichtgeraet |
| US4480918A (en) * | 1982-03-04 | 1984-11-06 | The Charles Stark Draper Laboratory, Inc. | Non-contact displacement sensing system for a compliance device |
| US4639774A (en) * | 1985-06-21 | 1987-01-27 | D. L. Fried Associates, Inc. | Moving target indication system |
| JPH03158705A (ja) * | 1989-11-17 | 1991-07-08 | Toshiba Corp | 位置検出用ccd装置 |
| JPH0435365A (ja) * | 1990-05-28 | 1992-02-06 | Matsushita Electric Ind Co Ltd | 遠隔操作装置 |
| US5521373A (en) * | 1990-08-02 | 1996-05-28 | Vpl Research, Inc. | Position tracking system using a radiation director which directs radiation from a radiation source onto a radiation sensor, depending on the position of the radiation source |
| US5396282A (en) * | 1991-11-26 | 1995-03-07 | Nec Corporation | Image mapping radiometer with a band-to-band registration device |
| US5448261A (en) * | 1992-06-12 | 1995-09-05 | Sanyo Electric Co., Ltd. | Cursor control device |
| JP3400485B2 (ja) * | 1993-03-23 | 2003-04-28 | 株式会社ワコム | 光学式位置検出装置および光学式座標入力装置 |
| CA2161126C (en) * | 1993-04-22 | 2007-07-31 | Waldean A. Schulz | System for locating relative positions of objects |
| WO1995014286A1 (en) * | 1993-11-17 | 1995-05-26 | Microsoft Corporation | Wireless pen computer input system |
| JP3473988B2 (ja) * | 1994-05-20 | 2003-12-08 | 株式会社ワコム | 情報入力装置 |
| GB2289756B (en) * | 1994-05-26 | 1998-11-11 | Alps Electric Co Ltd | Space coordinates detecting device and input apparatus using same |
| US5926168A (en) * | 1994-09-30 | 1999-07-20 | Fan; Nong-Qiang | Remote pointers for interactive televisions |
| US5907405A (en) * | 1995-09-01 | 1999-05-25 | Nikon Corporation | Alignment method and exposure system |
| US5587583A (en) * | 1995-09-06 | 1996-12-24 | Hughes Electronics | Thermal imaging device |
-
1996
- 1996-12-25 JP JP34611796A patent/JP3814904B2/ja not_active Expired - Fee Related
-
1997
- 1997-12-17 US US08/992,463 patent/US6081255A/en not_active Expired - Lifetime
- 1997-12-23 DE DE19757674A patent/DE19757674A1/de not_active Withdrawn
- 1997-12-24 FR FR9716485A patent/FR2757660B1/fr not_active Expired - Fee Related
- 1997-12-25 CN CNB97125687XA patent/CN1149466C/zh not_active Expired - Fee Related
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0933721A1 (de) * | 1998-01-30 | 1999-08-04 | Canon Kabushiki Kaisha | Anordnung, Verfahren und Speichermedium zum Eingeben von Koordinatenwerten |
| US6229601B1 (en) | 1998-01-30 | 2001-05-08 | Canon Kabushiki Kaisha | Coordinate input apparatus and method, and storage medium |
| FR2799915A1 (fr) * | 1999-10-15 | 2001-04-20 | Yves Jean Paul Guy Reza | Ensemble d'interface entre un utilisateur et un dispositif electronique |
| US6618035B1 (en) | 1999-10-15 | 2003-09-09 | Yves Jean-Paul Guy Reza | Interface unit between a user and an electronic device |
| DE20117645U1 (de) * | 2001-10-31 | 2003-03-20 | Siemens Ag | Bedieneinrichtung |
| US7495655B2 (en) | 2001-10-31 | 2009-02-24 | Siemens Aktiengesellschaft | Control device |
Also Published As
| Publication number | Publication date |
|---|---|
| CN1149466C (zh) | 2004-05-12 |
| US6081255A (en) | 2000-06-27 |
| JP3814904B2 (ja) | 2006-08-30 |
| FR2757660B1 (fr) | 1999-04-30 |
| FR2757660A1 (fr) | 1998-06-26 |
| JPH10187340A (ja) | 1998-07-14 |
| CN1192007A (zh) | 1998-09-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE19757674A1 (de) | Positionserfassungsvorrichtung und Fernsteuerung | |
| DE69431221T2 (de) | Fernbedienung für Video- und Audiogeräte | |
| DE69521782T2 (de) | Drahtlose Führungsvorrichtung für eine Cursorfernsteuerung | |
| DE69620531T2 (de) | Methode und System zum Verfolgen der Stellung einer Anzeigevorrichtung | |
| DE68921859T2 (de) | Bild-im-Bild-Fernsehempfängersteuerung. | |
| DE69608805T2 (de) | Eingabevorrichtung zum liefern multidimensionaler positionskoordinatesignale an einen rechner | |
| DE69632585T2 (de) | Vorrichtung zur verbesserung der fernsehdarstellung eines objekts bei einer sportveranstaltung | |
| DE3805108C2 (de) | ||
| EP0377055B1 (de) | Elektrooptische Anordnung zur Fernbedienung elektronischer Geräte | |
| EP0355172A1 (de) | Fernbedienungssystem | |
| DE69125654T2 (de) | Fernsteueranordnung zur Steuerung eines Fernsehempfängers | |
| EP0410194B1 (de) | Fernbedienungsgeber | |
| DE3305090A1 (de) | Fernsteuersystem | |
| DE10060666A1 (de) | Verfahren und Vorrichtung zum Unterstützen eines Benutzers beim Herstellen einer Verbindung zwischen einem Hauptgerät und einem Peripheriegerät | |
| DE3805109A1 (de) | Fernsteuersystem fuer eine bildwiedergabeeinrichtung | |
| DE69910161T2 (de) | Vorrichtung zum empfangen von signalen | |
| DE3202765A1 (de) | Videosystem | |
| DE4203591A1 (de) | Drahtlose eingabeeinrichtung fuer computer | |
| DE4121314A1 (de) | Schaltungsanordnung zur automatischen bild-im-bild-wiedergabe von proben aus fernsehkanaelen | |
| EP0357909B1 (de) | Fernbedienbares elektrisches Gerät | |
| DE69816320T2 (de) | Profilmessung mit hoher Geschwindigkeit durch CCD, das Profillinien per Bildperiode aufgreift | |
| DE3017658A1 (de) | Bildwiedergabegeraet | |
| DE4105114A1 (de) | Standbildaufnahmevorrichtung | |
| DE69525160T2 (de) | Cursorführungsvorrichtung unter Verwendung von Dünnfilm-Interferenzfiltern | |
| DE69425499T2 (de) | Bilderzeugungsverfahren und dazugehöriges gerät |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8110 | Request for examination paragraph 44 | ||
| R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
| R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20140701 |