[go: up one dir, main page]

DE19757674A1 - Positionserfassungsvorrichtung und Fernsteuerung - Google Patents

Positionserfassungsvorrichtung und Fernsteuerung

Info

Publication number
DE19757674A1
DE19757674A1 DE19757674A DE19757674A DE19757674A1 DE 19757674 A1 DE19757674 A1 DE 19757674A1 DE 19757674 A DE19757674 A DE 19757674A DE 19757674 A DE19757674 A DE 19757674A DE 19757674 A1 DE19757674 A1 DE 19757674A1
Authority
DE
Germany
Prior art keywords
block
light
linear sensor
dimensional
light receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19757674A
Other languages
English (en)
Inventor
Tadakuni Narabu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE19757674A1 publication Critical patent/DE19757674A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Description

Die Erfindung betrifft eine Positionserfassungsvorrichtung zum Erfassen von von einer Lichtquelle emittiertem Licht und zum Erfassen der Position der Lichtquelle, und sie betrifft eine Fernsteuerung zum Fernsteuern einer Empfangseinheit ausgehend von einer Sendeeinheit mit einer Lichtquelle und einem EIN/AUS-Schalter.
Bekannterweise existieren sogenannte schnurlose Fernsteue­ rungen zum Fernsteuern von Geräten wie Fernsehgeräten, Vi­ deobandrecodern (VTR), Videoplattenspielern, CD-Spielern, Audiobandrecordern und dergleichen.
Die obengenannte Fernsteuerung besteht aus dem Folgenden:
  • - einer Sendeeinheit mit einem Bedienungsblock, an dem Tas­ ten so angeordnet sind, daß sie von einem Benutzer betätigt werden können, und mit einem Lichtemissionsblock zum Modu­ lieren von durch den Benutzer über die Tasten eingegebenen Daten unter Verwendung von Licht wie Infrarotstrahlung als zu emittierendes Medium; und
  • - einer Empfangseinheit zum Empfangen des von der Sendeein­ heit gesendeten Lichts und zum Demodulieren desselben, um einen entsprechenden Vorgang auszuführen.
Die Sendeeinheit und die Empfangseinheit sind elektrisch voneinander getrennt, und sie werden normalerweise an räum­ lich entfernten Positionen verwendet.
Fig. 1 zeigt schematisch die obengenannte Sendeeinheit 10. Sie verfügt im wesentlichen über ein quaderförmiges, flaches Gehäuse, das eine solche Größe aufweist, daß es von einem Benutzer mit der Hand ergriffen werden kann, und es verfügt über eine Hauptfläche, auf der ein Eingabeblock 11 und meh­ rere Tasten angeordnet sind. Darüber hinaus ist ein Licht­ emissionsblock 13 an einer Seitenfläche vorhanden, die an eine lange Seite anschließt, um Licht in der Längsrichtung des Gehäuses zu emittieren.
Fig. 2 zeigt schematisch die obengenannte Empfangseinheit. Diese Empfangseinheit 20 ist an einem Fernseher vorhanden und verfügt über einen Lichterfassungsblock 72, der unter einem Anzeigeblock 27 angeordnet ist, um das von der obenge­ nannten Sendeeinheit 10 emittierte Licht zu empfangen und zu demodulieren, um dann diejenige Funktion auszuführen, die durch die Betätigung des Betätigungsblocks 11 an der Sende­ einheit ausgewählt wurde. Z. B. wird der Empfangskanal des Fernsehers geändert, oder es wird die Lautstärke erhöht oder verringert.
Andererseits ist bei einem PC, einem Videospielgerät und dergleichen eine Zeigeeinrichtung vorhanden, um die Position auf einem Anzeigeschirm wie einer CRT (Kathodenstrahlröhre) und einer Flüssigkristalltafel zu spezifizieren, um eine Funktion auszuwählen.
Als obengenannte Zeigevorrichtung ist z. B. eine Maus vor­ handen. Diese verfügt über eine solche Größe, daß sie unter der Handfläche Platz findet, und sie kann auf einer ebenen Fläche wie einem Tisch verstellt werden, und abhängig von der Position der Maus wird durch einen Kursor oder derglei­ chen auf dem obengenannten Anzeigeschirm eine spezielle Po­ sition angezeigt. Die Maus verfügt über eine bis drei Tasten am Gehäuse zum Eingeben eines Befehls, um z. B. eine Funk­ tion an der spezifizierten Position auszuwählen.
Darüber hinaus existiert als Zeigeeinrichtung, wie sie bei Videospielgeräten verwendet wird, eine Einheit mit einem Ge­ häuse, an dem ein Knopf für oben, unten, links und rechts sowie eine Taste angeordnet sind. Bei einer derartigen Ein­ richtung wird die obengenannte spezifizierte Position da­ durch verstellt, daß die Knöpfe für oben, unten, links und rechts betätigt werden, und ein Verstellweg wird abhängig von der Zeitdauer eingestellt, über die ein entsprechender Knopf gedrückt wird. Die Auswahl der obengenannten spezifi­ zierten Position erfolgt durch Betätigen der Taste.
Ferner existieren Joysticks als Zeigeeinrichtungen. Ein Joy­ stick besteht aus einer einzelnen Schicht, die durch einen Kardanmechanismus gelagert ist. Wenn der Hebel schräg ge­ stellt wird, wird die obengenannte spezifizierte, durch einen Kursor oder dergleichen angezeigte Position abhängig von der Neigungsrichtung und dem Neigungswinkel auf dem obengenannten Anzeigeschirm verstellt. Darüber hinaus kann, wenn der Joystick mit einer Auswähltaste versehen ist, eine Funktion an der obengenannten spezifizierten Position ausge­ wählt werden.
Fig. 3 zeigt einen Joystick 100, wie er im Dokument JP-A-61- 27 6014 offenbart ist, der über einen am Hebel 101 angeordne­ ten Lichtquellenblock mit einer Lichtquelle 102 sowie über einen Lichtempfangsblock mit einer Linse 103 zum Empfangen des von diesem Lichtquellenblock eingestrahlten Lichts sowie mit einem zweidimensionalen Lichtempfangselement 104 zum Er­ fassen des Lichts aufweist.
Der obengenannte Joystick 100 ist als einheitlicher Teil eines Gehäuses mit ungefähr Würfelform ausgebildet. Die Lichtquelle 102 ist am unteren Ende des Hebels 101 angeord­ net, und sie emittiert Licht, das durch die Linse 103 auf das zweidimensionale Lichtempfangselement 104 konvergiert wird, das eine Betätigung des Hebels 101 abhängig von der Position erfaßt, an der das Licht konvergiert. Darüber hin­ aus verstellt der Joystick 100 die durch einen Kursor oder dergleichen auf dem Anzeigeschirm spezifizierte Position ab­ hängig von der Richtung und dem Winkel der Schrägstellung des Hebels 101.
Sogenannte audiovisuelle (AV) Geräte wie Fernseher, Video­ bandrecorder, Videoplattenspieler, CD-Spieler und Audioband­ recorder wie auch PCs und Videospielgeräte werden mit weiter Verbreitung genutzt.
Da diese Geräte eine Vielfalt von Funktionen aufweisen, kann es einem gewöhnlichen Benutzer ohne technische Kenntnisse so erscheinen, als seien diese Geräte zu kompliziert in der Be­ nutzung. Darüber hinaus können, wegen der Begrenzung des Be­ dienungsblocks, unter Umständen die Funktionen der Geräte hinsichtlich der Bedienung nicht vollständig zur Verfügung stehen.
Z. B. sollte bei einer sogenannten Fernsteuerung, wie sie zum Fernbetätigen der obengenannten Geräte verwendet wird, eine Anzahl von Tasten vorhanden sein, um die Funktionen der Empfangseinheit 20, die z. B. ein Fernseher sein kann, aus­ reichend auslösen zu können. Wenn jedoch die Anzahl von Tas­ ten erhöht wird, kann der Benutzer die erforderliche Taste nicht ohne Zeit und Sorgfalt auswählen.
Darüber hinaus ist es im Fall der obengenannten Maus erfor­ derlich, eine ebene Platte zum Betätigen der Maus zur Verfü­ gung zu stellen und die Maus über ein Kabel zu verbinden. Es wurde eine sogenannte optische Maus vorgeschlagen, die zum Anschluß kein Kabel benötigt, jedoch erfordert eine opti­ sche Maus ein spezielles Mauspad. So sind Mäuse, einschließ­ lich optischer Mäuse, im Vergleich mit der obengenannten Fernsteuerung unpraktisch.
Darüber hinaus ist es bei einer Einheit mit Knöpfen für oben, unten, links und rechts sowie mit Auswahltasten, die an einem Gehäuse angeordnet sind, erforderlich, die vier Knöpfe und die Auswahltasten zu betätigen. Dies kann nicht als gute Bedienbarkeit bezeichnet werden.
Darüber hinaus wird beim obengenannten Joystick eine Posi­ tion abhängig von der Richtung und dem Winkel des am Joy­ stick vorhandenen Hebels ausgewählt. D. h., daß es erfor­ derlich ist, den Hebel unter einem speziellen Winkel zu kip­ pen, um eine Bewegung an die spezifizierte Position auf der Anzeige auszulösen, weswegen die Bedienung nicht einfach ist und ein gewisses Training erfordert.
Der Erfindung liegt die Aufgabe zugrunde, eine Positionser­ fassungsvorrichtung zum Erfassen des von einer Lichtquelle emittierten Lichts zu schaffen, um die Position der Licht­ quelle zu erkennen. Eine andere Aufgabe der Erfindung ist es, eine Fernsteuerung unter Verwendung der obengenannten Positionserfassungsvorrichtung zu schaffen, um eine einfache Bedienung der obengenannten Geräte zu ermöglichen.
Diese Aufgaben sind hinsichtlich der Positionserfassungsvor­ richtung durch die Lehre von Anspruch 1 sowie hinsichtlich der Fernsteuerung durch die Lehre von Anspruch 7 gelöst.
Die erfindungsgemäße Positionserfassungsvorrichtung empfängt von einer Lichtquelle emittiertes Licht durch mindestens zwei eindimensionale Lichtempfangselemente, die in verschie­ denen Richtungen in bezug aufeinander in der Lichtempfangs­ einrichtung angeordnet sind, um die Position der Lichtquelle entsprechend dem Ausgangssignal des Lichtempfangsblocks zu erfassen.
Bei den Positionserfassungsvorrichtungen gemäß den Ansprü­ chen 2 und 3 liegt ein Lichtempfangsblock vor, bei dem min­ destens zwei eindimensionale Elemente so angeordnet sind, daß sie sich einander rechtwinklig schneiden, und Komponen­ ten sind für jede der Schnittrichtungen in zwei Dimensionen angeordnet. Darüber hinaus ist es möglich, da die eindimen­ sionalen Lichtempfangselemente kreuzförmig angeordnet sind, einfallendes Licht von einer näheren Position zu erfassen. Alternativ können Komponenten, wenn die eindimensionalen Lichtelemente in Richtungen angeordnet sind, die sich einan­ der unter einem anderen als einem rechten Winkel schneiden, in jeder der Richtungen voneinander getrennt sein, um eine Erfassung zu ermöglichen.
Bei der Positionserfassungsvorrichtung gemäß Anspruch 4 wird von einer Lichtquelle emittiertes Licht durch drei oder mehr eindimensionale Lichtempfangselemente empfangen, die in der Lichtempfangseinrichtung vorhanden sind, wobei mindestens zwei Elemente in voneinander verschiedenen Richtungen ange­ ordnet sind, und eine dreidimensionale Position der Licht­ quelle wird abhängig vom Ausgangssignal dieser Lichtemp­ fangseinrichtung erfaßt. Wenn diese Positionserfassungsvor­ richtung in eine Fernsteuerung eingebaut ist, wird die er­ faßte dreidimensionale Position in eine zweidimensionale Position umgesetzt, um auf dem Anzeigeschirm eines Anzeige­ blocks angezeigt zu werden.
Die Lichtempfangsvorrichtung gemäß Anspruch 5 verwendet CCD-Bildaufnahmeelemente, BBD-Bildaufnahmeelemente oder MOS-Bildaufnahmeelemente als eindimensionale Lichtempfangsele­ mente der Lichtempfangseinrichtungen.
Bei der erfindungsgemäßen Fernsteuerung gemäß Anspruch 7 wird Licht von einer Lichtquelle, die vom Sendeblock ein- und ausgeschaltet wird, durch die zweidimensionalen Licht­ empfangselemente empfangen, die in voneinander verschiedenen Richtungen im Lichtempfangsblock angeordnet sind; die zwei­ dimensionale Position des Sendeblocks wird durch den Posi­ tionserfassungsblock abhängig vom Ausgangssignal des Licht­ empfangsblocks erfaßt, und der Anzeigeblock zeigt die zwei­ dimensionale Position des Sendeblocks auf dem Anzeigeschirm an.
Ausführungsbeispiele einer erfindungsgemäßen Positionserfas­ sungsvorrichtung und einer erfindungsgemäßen Fernsteuerung werden nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen näher beschrieben.
Fig. 1 ist eine Draufsicht, die eine herkömmliche Sendeein­ heit zeigt.
Fig. 2 ist eine Draufsicht, die eine herkömmliche Empfangs­ einheit zeigt.
Fig. 3 ist eine schematische Ansicht, die ein Beispiel eines herkömmlichen Joysticks zeigt.
Fig. 4 ist ein Blockdiagramm, das den Aufbau einer Fern­ steuerung gemäß einem Ausführungsbeispiel der Erfindung zeigt.
Fig. 5 ist eine perspektivische Ansicht, die eine Sendeein­ heit gemäß einem Ausführungsbeispiel der Erfindung zeigt.
Fig. 6 zeigt schematisch die Anordnung eines linearen Sen­ sors in einer Empfangseinheit gemäß einem Ausführungsbei­ spiel.
Fig. 7 ist eine schematische Ansicht, die eine Empfangsein­ heit gemäß einem Ausführungsbeispiel zeigt.
Fig. 8 ist eine Draufsicht, die ein "Anfangsmenü" auf einem Anzeigeblock zeigt.
Fig. 9 ist eine Draufsicht, die veranschaulicht, daß eine "TV-Taste" im Anfangsmenüschirm betätigt wird.
Fig. 10 ist eine Draufsicht, die veranschaulicht, daß eine "Kanal-Taste" in einem "TV-Menü"-Schirm betätigt wird.
Fig. 11 ist eine Draufsicht, die veranschaulicht, daß eine "Schneller Vorlauf"-Taste in einem "VTR-Menü"-Schirm ausge­ wählt wird.
Fig. 12 ist eine Seitenansicht, die zeigt, daß eine Emp­ fangseinheit ein von einer Sendeeinheit, die auf der opti­ schen Achse der Empfangseinheit liegt, emittierten Strahl erfaßt.
Fig. 13 ist eine Seitenansicht, die zeigt, daß eine Emp­ fangseinheit einen von einer Sendeeinheit, die außerhalb der optischen Achse der Empfangseinheit liegt, emittierten Strahl erfaßt.
Fig. 14 ist ein zeitbezogenes Diagramm zu einem Ausgangssi­ gnal des linearen Sensors, wenn kein Licht erfaßt wird.
Fig. 15 ist ein zeitbezogenes Diagramm zum Ausgangssignal des linearen Sensors, wenn Licht in einem Teil desselben er­ faßt wird.
Fig. 16 ist ein zeitbezogenes Diagramm zum Ausgangssignal des linearen Sensors, wenn Licht in einem anderen Teil des­ selben erfaßt wird.
Fig. 17 ist eine schematische Ansicht, die veranschaulicht, wie die Empfangseinheit zweidimensional einen von der Sende­ einheit emittierten Strahl erfaßt.
Fig. 18 ist ein zeitbezogenes Diagramm, das das Ausgangssi­ gnal des linearen Sensors in x-Richtung zeigt.
Fig. 19 ist ein zeitbezogenes Diagramm, das das Ausgangssi­ gnal des linearen Sensors in einer ersten y-Richtung zeigt.
Fig. 20 ist ein zeitbezogenes Diagramm, das das Ausgangssi­ gnal des linearen Sensors in einer zweiten y-Richtung zeigt.
Fig. 21 ist ein zeitbezogenes Diagramm, das die Beziehung zwischen einem Schwellenpotential und einem Beispiel des Ausgangssignals vom linearen Sensor, der Licht erfaßt hat, zeigt.
Fig. 22 ist ein zeitbezogenes Diagramm, das die Beziehung zwischen dem Schwellenpotential und einem anderen Beispiel eines Ausgangssignals des linearen Sensors, der Licht er­ faßt hat, zeigt.
Fig. 23 ist ein Blockdiagramm, das ein Konfigurationsbei­ spiel für eine Schaltung eines Erkennungsblocks vom digita­ len Typ zeigt.
Fig. 24 ist ein Blockdiagramm, das ein Konfigurationsbei­ spiel einer Schaltung eines Erkennungsblocks vom analogen Typ zeigt.
Fig. 25, 27, 29 und 31 sind Draufsichten, die jeweils einen Sensorblock der Empfangseinheit zum dreidimensionalen Erken­ nen der Position der Sendeeinheit gemäß einem ersten, zwei­ ten, dritten bzw. vierten Ausführungsbeispiel zeigen.
Fig. 26, 28, 30 und 32 sind Draufsichten jeweils eines zwei­ ten optischen Blocks der Empfangseinheit zum dreidimensiona­ len Erkennen der Position der Sendeeinheit gemäß dem ersten, zweiten, dritten bzw. vierten Ausführungsbeispiel.
Fig. 4 ist ein Blockdiagramm, das eine Fernsteuerung gemäß einem Ausführungsbeispiel der Erfindung zeigt, die eine Sen­ deeinheit 10, eine Empfangseinheit 20 und einen Anzeigeblock 27 aufweist. Zwischen der Sendeeinheit 10 und der Empfangs­ einheit 20, die räumlich voneinander getrennt sind, ist kei­ ne elektrische Verbindung vorhanden.
Die Sendeeinheit 10 der Fernsteuerung 1 verfügt über einen Eingabeblock 11, einen Lichtquellenblock 12 und einen ersten optischen Block 13. Der Eingabeblock 11 ist mit einer Taste zum Eingeben eines Befehls, der den Lichtquellenblock 12 steuert, versehen. Wenn z. B. die Taste betätigt wird, emit­ tiert der Lichtquellenblock 12 Licht. Der erste optische Lichtquellenblock 12 verwendet eine Lichtemissionsdiode oder dergleichen, die durch Steuerung durch den Eingabeblock ein- oder ausgeschaltet wird, und das emittierte Licht wird in den ersten optischen Block 13 eingeleitet, der so das vom Lichtquellenblock 12 emittierte Licht empfängt und dieses in einen Strahl umsetzt.
Die Empfangseinheit 20 verfügt über einen zweiten optischen Block 21, einen Sensorblock 22 und einen Steuerungsblock 26. Der zweite optische Block 21 empfängt den von der Sendeein­ heit 10 emittierten Strahl und konvergiert ihn auf Sensoren im Sensorblock 22. Der Sensorblock 22 besteht aus mindestens zwei Sensoren, nämlich einem linearen Sensor 23 in x-Rich­ tung und einem linearen Sensor 24 in y-Richtung, wenn eine Position zweidimensional erfaßt wird, oder es existiert noch ein Sensor 25 für die z-Richtung, also mindestens drei Sensoren, wenn eine Position dreidimensional erfaßt wird. Jeder dieser linearen Sensoren erfaßt die Verteilung der Strahlintensität in der entsprechenden Richtung, und er lie­ fert das Ergebnis an den Steuerungsblock 26. Dieser Steue­ rungsblock 26 verfügt über einen Erfassungsblock 28, der Si­ gnale von den linearen Sensoren analysiert, um die Position der Sendeeinheit 10 zu erfassen. Die erfaßte Position der Sendeeinheit 10 wird an den Anzeigeblock geliefert, und falls erforderlich, werden Daten nach außen ausgegeben.
Der Anzeigeblock 27 verfügt über einen Anzeigeschirm, der vom Empfangsblock gelieferte Daten anzeigt.
Wie es in Fig. 5 dargestellt ist, verfügt die Sendeeinheit 10 über ein im wesentlichen quaderförmiges Gehäuse, wobei die optische Achse des vom ersten optischen Block 3 emit­ tierten Strahls in der Längsrichtung des Gehäuses ausgerich­ tet ist. Das Gehäuse verfügt über eine solche Größe, daß es zur Bedienung gut von Hand gehalten werden kann. Als Einga­ beblock 11 ist eine Taste 2 an einer Position in der vorde­ ren Hälfte vorhanden, so daß sie leicht durch einen Finger betätigt werden kann, wenn das Gehäuse mit der Hand ergrif­ fen ist. Normalerweise verfügt die Sendeeinheit 10 über eine Spannungsquelle wie eine Batterie, um ohne äußere Spannungs­ versorgung betrieben werden zu können.
Die Sendeeinheit 10 wird so gesteuert, daß der Lichtquel­ lenblock 12 dann Licht emittiert, wenn die Sendeeinheit 10 ergriffen wird oder die Taste 2 betätigt wird. Das von die­ sem Lichtquellenblock emittierte Licht wird durch den ersten optischen Block 13 zu einem Strahl konvergiert.
Fig. 6 zeigt die Empfangseinheit 20 gemäß einem ersten Aus­ führungsbeispiel, die aus einem linearen Sensor 23 in x-Richtung und einem linearen Sensor 24 in y-Richtung besteht, die außerhalb des oberen linken Teils des Anzeigeblocks 27 liegen und jeweils in einem quaderförmigen Gehäuse angeord­ net sind. Der Sensor 23 in x-Richtung ist so ausgebildet, daß seine Längsrichtung parallel zur Oberseite des Anzeige­ blocks verläuft, wohingegen der Sensor 24 in y-Richtung so angeordnet sind, daß seine Längsrichtung parallel zur Seite des Anzeigeblocks verläuft.
Fig. 7 zeigt eine Empfangseinheit gemäß einem zweiten Aus­ führungsbeispiel. Anstelle des linearen Sensors 23 in x-Richtung und des linearen Sensors in y-Richtung oben links vom Anzeigeblock 27, beim ersten Ausführungsbeispiel, be­ steht die Empfangseinheit 20 beim zweiten Ausführungsbei­ spiel aus dem obengenannten zweiten optischen Block 21 mit einer Linse 3, der unter dem Anzeigeblock liegt. Der Sensor­ block 22 mit dem obengenannten linearen Sensor 23 in x-Rich­ tung und dem linearen Sensor 24 in y-Richtung ist innerhalb dieser Empfangseinheit 20 angeordnet.
In der Empfangseinheit 20 wird der von der Sendeeinheit 10 herkommende Strahl durch die Linse 3 des zweiten optischen Blocks 21 auf den Sensorblock 22 mit den obengenannten li­ nearen Sensoren konvergiert. Der Sensorblock 22 verfügt über mindestens zwei Sensoren, nämlich den linearen Sensor in x-Richtung und den linearen Sensor in y-Richtung. Diese Senso­ ren sind in jeweiligen Richtungen angeordnet, so daß sie wirkungsvoll eine Komponente in x-Richtung und eine Kompo­ nente in y-Richtung innerhalb des Strahls trennen können. Die Richtungen dieser Sensoren können einen rechten Winkel oder einen anderen Winkel bilden.
Hierbei repräsentiert die Richtung eines linearen Sensors (eindimensionales Lichtempfangselement) die Längsrichtung des linearen Sensors, in der Lichtempfangselemente eindimen­ sional angeordnet sind.
Fig. 8 zeigt ein Beispiel für das Anfangsbild auf dem Anzei­ geschirm des Anzeigeblocks 27. Die Empfangseinheit 20 zeigt ein Menü mit geschichteter Konfiguration auf dem Anzeige­ schirm des Anzeigeblocks 27 an. Eine Funktion kann aus die­ sem Menü durch Betätigen der Sendeeinheit 10 ausgewählt wer­ den.
D. h., daß dann, wenn die Sendeeinheit 10 mit einer Hand ergriffen wird oder die Taste 2 durch einen Finger betätigt wird, der erste optische Block 13 einen Strahl emittiert. Dieser Betrieb der Sendeeinheit 10 wird zur Empfangseinheit 20 hin ausgeführt. Wenn die Empfangseinheit 20 den von der Sendeeinheit 10 emittierten Strahl erfaßt, zeigt sie auf dem Anzeigeschirm ein "Anfangsmenü" 32 an.
Dieses "Anfangsmenü" 32 zeigt in der linken Hälfte vier Aus­ wähltasten "TV", "VTR", "Videoplatte" und "Hilfe" in dieser Reihenfolge von oben nach unten. In der rechten Hälfte des Schirms sind vier Tasten "CD", "Audioplatte", "Audioband" und "Option" in dieser Reihenfolge von oben nach unten auf dem Schirm angeordnet. Wenn dieses "Anfangsmenü" geöffnet wird, wird ein Kursor 31 im Zentrum des Schirms positio­ niert.
Der Anzeigeblock 27 zeigt den Inhalt der jeweiligen Funktio­ nen. Wenn eine der Auswähltasten ausgewählt wird, erscheint ein entsprechender Schirm, durch den eine entscheidende Be­ dienung ausgeführt werden kann. D. h., daß dann, wenn die entsprechende Taste ausgewählt wird, "TV-Menü", "VTR-Menü", "Videoplattenmenü", "Hilfemenü", "CD-Menü", "Audioplatten­ menü", "Audiobandmenü" oder "Optionenmenü" erscheint, und mittels dieser Schirme kann unter Verwendung des Kursors 31 eine weitere Auswahl ausgeführt werden.
Fig. 9 zeigt, daß die "TV"-Taste 33 durch den Kursor 31 im Anfangsmenü 32 des Anzeigeblocks 27 ausgewählt wird. Der Kursor 31 kann vom Zentrum des Anzeigeblocks 27 dadurch nach oben links verstellt werden, daß der Strahl von der Sende­ einheit 10 vom Zentrum des Anzeigeblocks 27 nach oben links bewegt wird.
D. h., daß der Kursor 31 dadurch auf dem Anzeigeblock 27 bewegt werden kann, daß die Richtung der Anzeigeeinheit 10 geändert wird, und die durch den Kursor 31 ausgewählte Aus­ wähltaste kann dadurch spezifiziert werden, daß die Taste 2 an der Sendeeinheit 10 betätigt wird.
Wenn diese Taste 2 an der Sendeeinheit 10 betätigt wird, während der Kursor 31 auf die "TV"-Taste auf dem Anfangs­ schirm zeigt, wird diese ausgewählt, und das "Anfangsmenü" 32 wird auf dem Anzeigeblock 27 durch das "TV-Menü" ersetzt.
Das "TV-Menü" zeigt in der linken Hälfte des Schirms vier Tasten "Kanal", "Kanal 1", "Vorige Seite" und "Anderes" in dieser Reihenfolge von oben nach unten auf dem Schirm, wo­ hingegen die rechte Hälfte des Schirms vier Tasten "Laut­ stärke", "Kanal 4", "Anfangsmenü" und "Hilfe" in dieser Rei­ henfolge von oben nach unten zeigt. Wenn eine dieser Aus­ wähltasten unter Verwendung des Kursors 31 ausgewählt wird, kann die entsprechende Funktion ausgeführt werden.
D. h., daß die "Kanal"-Taste 35 die Kanalnummer ändert, die "Kanal 1"-Taste den Kanal 1 auswählt; die "Vorige Seite"-Taste das zuvor angezeigte Menü zeigt; die "Anderes"-Taste "Anderes Menü" zeigt; die "Lautstärke"-Taste die Lautstärke ändert; die "Kanal 4"-Taste den Kanal auf den Kanal 4 wech­ selt; die "Anfangsmenü"-Taste das Anfangsmenü zeigt und die "Hilfe"-Taste den Hilfetext anzeigt.
Z. B. verfügt, wie es in Fig. 10 dargestellt ist, die "Ka­ nal"-Taste 35 im "TV-Menü" über eine "Auf"-Taste 35a und eine "Ab"-Taste 35b. Wenn der Kursor 31 auf der "Auf"-Taste 35a positioniert wird und die Taste 2 betätigt wird, wird die Kanalnummer des Fernsehgeräts um Eins inkrementiert. Auf ähnliche Weise wird die Kanalnummer um Eins dekrementiert, wenn der Kursor auf der "Ab"-Taste 35b positioniert wird und die Taste 2 betätigt wird. Die "Anderes"-Taste wird dazu verwendet, ein Menü "Anderes" in Zusammenhang mit diesem "TV-Menü" 34 anzuzeigen.
Fig. 11 zeigt das "VTR-Menü" mit vier Tasten "Abspielen", "Schneller Vorlauf", "Zurückspulen" und "Vorige Seite" in dieser Reihenfolge von oben nach unten auf dem Schirm in der linken Hälfte des Schirms; und mit vier Tasten "Stop", "Kas­ settenauswurf", "Aufzeichnen" und "Anderes" in dieser Rei­ henfolge von oben nach unten in der rechten Hälfte des Schirms. Diese Auswähltasten entsprechen jeweiligen Funktio­ nen, und sie können dadurch ausgewählt werden, daß der Kur­ sor 31 auf der gewünschten Taste positioniert wird und die Taste 2 an der Sendeeinheit 10 betätigt wird.
Wenn z. B. bei diesem "VTR-Menü" der Kursor 31 auf die "Schneller Vorlauf"-Taste 39 gesetzt wird, um diese Funktion durch Betätigen der Taste 2 und der Sendeeinheit 10 aus zu­ wählen, wird im mit dieser Empfangseinheit verbundenen Vi­ deobandrecorder ein schneller Vorlauf ausgeführt.
Die Beschreibung wird nun auf das Prinzip der Positionser­ fassung der Sendeeinheit 10 durch die Empfangseinheit 20 ge­ richtet. Als erstes erfolgt eine Erläuterung zum Erfassen einer eindimensionalen Position.
Wie es in Fig. 12 dargestellt ist, wird, wenn ein von der Sendeeinheit 10 emittierter Strahl auf der optischen Achse der Empfangseinheit liegt, dieser Strahl durch die Linse 3 des zweiten optischen Blocks 21 der Empfangseinheit 20 auf das Zentrum des linearen Sensors 4 des Sensorblocks 22 kon­ vergiert.
Dagegen zeigt Fig. 13 einen Fall, bei dem die Sendeeinheit 10 nicht auf der optischen Achse der Empfangseinheit 20 liegt. Wenn sich die Sendeeinheit 10 an einer Position P1 befindet, wird der von dieser Sendeeinheit 10 emittierte Strahl durch die Linse 3 des zweiten optischen Blocks 21 der Empfangseinheit 20 auf einen Punkt P3 des linearen Sensors 4 des Sensorblocks 22 konvergiert. Wenn die Sendeeinheit 10 an einer Position P2 liegt, wird der von ihr emittierte Strahl auf einen Punkt P4 des linearen Sensors 4 konvergiert.
Demgemäß kann die Position der Sendeeinheit 10 dadurch er­ faßt werden, daß der Punkt überprüft wird, an dem der Strahl konvergiert wird, d. h. die Position mit maximaler Strahlhelligkeit.
Hierbei ist als linearer Sensor 4 ein CCD-Element verwendet. Ein solches weist eindimensional angeordnete Lichtempfangs­ elemente auf, wobei jedes Element eine elektrische Ladung entsprechend der Lichtintensität erzeugt. Die elektrische Ladung jedes Elements wird zur Ausgabe mit einem Taktsignal synchronisiert.
Fig. 14 ist ein zeitbezogenes Diagramm eines Ausgangssi­ gnals, wenn kein Licht an den das CCD verwendenden linearen Sensor 4 gelangt. Das Ausgangssignal liegt in Impulsform vor, da die Ausgabe aus dem CCD-Element entsprechend einem Taktsignal erfolgt. Jeder Zyklus entspricht einem Element. Wenn kein Licht zugeführt wird, ist die Amplitude des Aus­ gangssignals klein und flach.
Fig. 15 ist ein zeitbezogenes Diagramm des Ausgangssignals des linearen Sensors 4, wenn Licht auf einen Teil desselben fällt. Das einfallende Licht wird erfaßt, und die Amplitude des Ausgangssignals ist in negativer Richtung teilweise er­ höht. D. h., daß die untere Einhüllende des Ausgangssignals minimalen Wert aufweist.
Fig. 16 ist ein zeitbezogenes Diagramm des Ausgangssignals des linearen Sensors 4, wenn Licht auf einen anderen Ort als bei Fig. 15 trifft. Es zeigt sich eine ähnliche Änderung des Signalverlaufs des Ausgangssignals, jedoch tritt die Ände­ rung des Signalverlaufs an einer anderen Stelle auf.
Hierbei sind die Fig. 14, 15 und 16 zeitbezogene Diagramme, die durch Auslesen des Ausgangssignals des linearen Sensors 4 in eindimensionaler Richtung entsprechend dem Taktsignal erhalten wurden. Demgemäß entspricht die Zeitachse in diesen drei Diagrammen der eindimensionalen Richtung, die die Längsrichtung des linearen Sensors 4 ist.
Nun wird die Beschreibung auf einen Fall gerichtet, bei dem der von der Sendeeinheit 10 emittierte Strahl durch die Emp­ fangseinheit 20 empfangen wird und die Position der Sende­ einheit 10 zweidimensional erfaßt wird.
Fig. 17 zeigt einen von der Sendeeinheit 10 emittierten und von der Empfangseinheit 20 empfangenen Strahl. Dieser Strahl wird über den zweiten optischen Block 21 mit der Linse 3 aufgenommen und auf den Sensorblock 22 mit dem linearen Sen­ sor 23 in x-Richtung, einem ersten linearen Sensor 51 in y-Richtung und einem zweiten linearen Sensor 52 in y-Richtung konvergiert.
Der Sensorblock 22 verfügt über eine im wesentlichen quadra­ tische Platte mit einer Hauptfläche, auf der lineare Senso­ ren kreuzförmig angeordnet sind, wobei sie jeweils parallel oder rechtwinklig oder unter einem anderen Winkel zur Seite der quadratischen Platte verlaufen. Hierbei liegen der erste lineare Sensor 51 in y-Richtung und der zweite lineare Sen­ sor 52 in y-Richtung auf einer einzelnen Linie, und der li­ neare Sensor 23 in x-Richtung liegt zwischen ihnen.
Wenn der von der Sendeeinheit 10 emittierte Lichtstrahl nicht auf der durch die optische Achse der Empfangseinheit 20 und den linearen Sensor 23 in x-Richtung definierten Ebe­ ne und auch nicht auf der durch die optische Achse und die linearen Sensoren in y-Richtung definierten Ebene liegt, wird der Strahl außerhalb der linearen Sensoren auf die Hauptfläche des Sensorblocks konvergiert. Die Ausgangssigna­ le der jeweiligen linearen Sensoren sind für diesen Fall un­ ten angegeben. Es ist zu beachten, daß der Strahl nicht auf die Sensoren des Sensorblocks 22 fokussiert sein muß.
Fig. 18 zeigt das Ausgangssignal des linearen Sensors 23 in x-Richtung. Entsprechend der Intensität des einfallenden Lichts ist die Amplitude in einem Teil des linearen Sensors erhöht. Es ist zu beachten, daß das Ausgangssignal einen Bezugspegel 10 aufweist, wie er durch eine gestrichelte Li­ nie in der Figur gekennzeichnet ist, und daß sich die Am­ plitude zur negativen Seite (unten in der Figur) hin ändert. Dasselbe gilt für die anderen Ausgangssignale.
Fig. 19 zeigt das Ausgangssignal des ersten linearen Sensors 51 in y-Richtung. Die Ausgangsamplitude ist in einem Teil dieses linearen Sensors leicht erhöht. Dies bedeutet, daß Licht zu diesem ersten linearen Sensor 51 in y-Richtung ge­ langt, es jedoch geringe Intensität aufweist.
Fig. 20 zeigt das Ausgangssignal des zweiten linearen Sen­ sors 52 in y-Richtung. Die Amplitude ist in einem Teil die­ ses zweiten linearen Sensors 52 in y-Richtung erhöht. Dies bedeutet, daß die Lichtintensität in diesem Teil des linea­ ren Sensors erhöht ist.
Es ist zu beachten, daß bei den obigen zeitbezogenen Dia­ grammen die horizontale Achse, d. h. die Zeitachse, der Län­ ge des linearen Sensors in eindimensionaler Richtung ent­ spricht, da der lineare Sensor das Ausgangssignal der ein­ dimensional angeordneten Empfangselemente entsprechend einem Taktsignal ausgibt. D. h., daß der erste und der zweite li­ neare Sensor in y-Richtung jeweils eine Länge aufweisen, die der Hälfte der Länge des linearen Sensors in x-Richtung ent­ spricht, weswegen die Zeitachse in den Fig. 19 und 20 unge­ fähr der Hälfte der Zeitachse von Fig. 18 entspricht.
In der Empfangseinheit 20 kann die Fokussierungsposition des auf den Sensorblock 22 fallenden Lichts aus dem Ausgangssi­ gnal des linearen Sensors 4 erhalten werden. D. h., daß es im Sensorblock 22 möglich ist, einen Punkt zu erkennen, an dem die Ausgangssignalamplitude für sowohl die Komponente in x-Richtung als auch die Komponente in y-Richtung maximal ist.
Es sei darauf hingewiesen, daß es zum Erfassen einer zwei­ dimensionalen Position möglich ist, anstelle mehrerer linea­ rer Sensoren, wie im obigen Fall, einen zweidimensionalen Sensor zu verwenden.
Nun erfolgt eine Erläuterung zu einem Verfahren zum Erkennen des Punkts, an dem die Ausgangssignalamplitude maximal ist. Wie es in Fig. 21 dargestellt ist, wird ein Schwellenpegel Vth um eine vorbestimmte Spannung unter dem Boden V0 des Ausgangssignals, wenn kein Licht zugeführt wird, definiert. Wenn angenommen wird, daß A1 der Punkt ist, an dem das Aus­ gangssignal dieses Schwellenpotential in negativer Richtung übersteigt, und B1 der Punkt ist, an dem das Ausgangssignal zur Innenseite des Schwellenpotentials hin zurückkehrt, ist der Punkt, an dem die Amplitude des Ausgangssignals maximal wird, ungefähr als Mittelpunkt C1 zwischen den Punkten A1 und B1 definiert.
In Fig. 22 ändert sich die Amplitude des Ausgangssignals um die Maximalamplitude herum weniger abrupt, als dies beim Ausgangssignal von Fig. 21 der Fall ist. Auch in diesem Fall kann, auf dieselbe Weise wie bei Fig. 21, der Punkt, an dem das Ausgangssignal seine maximale Amplitude aufweist, als Mittelpunkt C2 von Punkten A2 und B2 definiert werden, wobei angenommen wird, daß A2 der Punkt ist, an dem das Ausgangs­ signal das Schwellenpotential in negativer Richtung über­ schreitet, und B2 der Punkt ist, an dem das Ausgangssignal zur Innenseite in bezug auf das Schwellenpotential zurück­ kehrt.
Demgemäß ist es möglich, den Mittelpunkt zwischen dem Punkt, an dem der Boden des Ausgangssignals ein Schwellenpotential in negativer Richtung überschreitet, und dem Punkt, an dem das Ausgangssignal zur Innenseite des Schwellenpotentials zurückkehrt, zu erhalten, um den Punkt zu definieren, an dem die Amplitude des Ausgangssignals des linearen Sensors 4 ma­ ximal ist, d. h. den Punkt, an dem die Intensität des ein­ fallenden Lichts maximal ist.
Es sei darauf hingewiesen, das der Unterschied zwischen den Fig. 21 und 22, d. h., ob sich die Amplitude des Ausgangs­ signals um die Maximalamplitude herum allmählich oder abrupt ändert, von einigen Faktoren abhängt, zu denen gehört, ob das einfallende Licht auf den Sensorblock 22 oder entfernt von diesem fokussiert wird.
Fig. 23 zeigt ein Beispiel für die Konfiguration einer Schaltung zum Erkennen der Maximalamplitude des obengenann­ ten Ausgangssignals. Diese Schaltung ist eine Erkennungs­ schaltung von digitalem Typ, die ein Ausgangssignal in ein zu verarbeitendes digitales Signal umsetzt.
Wie es in Fig. 23 dargestellt ist, umfaßt diese Erkennungs­ schaltung vom digitalen Typ folgendes: einen A/D-Umsetzer 41; einen Zeilenspeicher 42; einen Operationsverstärker 43; einen Schwellenwertgenerator 47; einen ersten Zähler 47; einen zweiten Zähler 45; einen Inverter 46; ein erstes Flip- Flop 49; ein zweites Flip-Flop 50 und eine Mittelwert-Be­ rechnungseinrichtung 48.
Das vom linearen Sensor 23 in x-Richtung des Sensorblocks 22 ausgegebene Signal wird an die Erkennungsschaltung 28 gelie­ fert, in der das Signal durch den A/D-Umsetzer digitalisiert wird, woraufhin es in den Zeilenspeicher 42 eingespeichert wird. Aus diesem wird das Signal entsprechend einem Taktsi­ gnal ausgelesen.
Das Signal von diesem Zeilenspeicher 42 wird an den Opera­ tionsverstärker 43 gegeben, in dem das Signal mit einem vom Schwellenwertgenerator 43 erzeugten Schwellenpotential ver­ glichen wird, und das Vergleichsergebnis wird an das erste Flip-Flop 49 und über den Inverter 46 an das zweite Flip-Flop 50 gegeben.
Das erste Flip-Flop 49 liefert sein Ausgangssignal zum Zeit­ punkt des Punkts A (Punkt A1 in Fig. 21 und Punkt A2 in Fig. 22) an den ersten Zähler 44. Der erste Zähler 44 zählt den Taktzählwert A ab dem Start einer Zeile bis zum Zeitpunkt der Hinterflanke, wie vom ersten Flip-Flop 49 geliefert, und er liefert den Taktzählwert A an die Mittelwert-Berechnungs­ einrichtung 48. Das zweite Flip-Flop 50 versorgt den zweiten Zähler 45 mit dem Zeitpunkt des Punkts B (Punkt B1 in Fig. 21 und Punkt B2 in Fig. 22).
Darüber hinaus versorgt der zweite Zähler 45 die Mittelwert- Berechnungseinrichtung 48 mit dem Taktzählwert ab dem Start der einen Zeile bis zum Punkt B, wie vom zweiten Flip-Flop 46 geliefert.
Die Mittelwert-Berechnungseinrichtung 48 berechnet den Mit­ telwert aus dem Taktzählwert A bis zum Punkt A und dem Takt­ zählwert B bis zum Punkt B, und sie gibt den Mittelwert aus. Dieser Mittelwert entspricht dem Mittelpunkt zwischen dem Punkt A und dem Punkt B, d. h. dem Punkt, an dem das Aus­ gangssignal seine maximale Amplitude aufweist.
Nun wird die Beschreibung auf eine Erkennungsschaltung zum Erkennen der Maximalamplitude des Ausgangssignals, das ein analoges Signal bleibt, gerichtet.
Fig. 24 zeigt den Aufbau dieser Erkennungsschaltung vom ana­ logen Typ, die folgendes aufweist: einen Operationsverstär­ ker 43; einen Schwellenwertgenerator 47; einen Inverter 46; ein erstes Flip-Flop 49; ein zweites Flip-Flop 50; einen ersten Zähler 44, einen zweiten Zähler 45 und eine Mittel­ wert-Berechnungseinrichtung 48.
Das vom linearen Sensor in x-Richtung des Sensorblocks 42 gelieferte Ausgangssignal wird an den Operationsverstärker 43 gegeben, in dem das Signal mit einem vom Schwellenwert­ generator 47 gelieferten Schwellenpotential verglichen wird, und das Ergebnis wird an das erste Flip-Flop 49 und über den Inverter 46 an das zweite Flip-Flop 50 geliefert.
Der erste Zähler 44 wird zu einem Zeitpunkt rückgesetzt, zu dem das Ausgangssignal aus dem Sensorblock ausgelesen wird, und er zählt das Taktsignal, bis das erste Flip-Flop den Punkt A erreicht (Punkt A1 in Fig. 21 und Punkt A2 in Fig. 22). Das Zählwertergebnis wird an die Mittelwert-Berech­ nungseinrichtung 48 geliefert. Der zweite Zähler 45 zählt, auf dieselbe Weise wie der erste Zähler 44, das Taktsignal ab dem Start des Auslesens des Sensorblocks, bis das zweite Flip-Flop den Punkt B erreicht (Punkt B1 in Fig. 21 und Punkt B2 in Fig. 22), und er gibt das Zählwertergebnis B an die Mittelwert-Berechnungseinrichtung 48 aus.
Die Mittelwert-Berechnungseinrichtung 48 berechnet den Mit­ telwert aus dem durch den ersten Zähler 44 berechneten Zähl­ wert A und dem durch den zweiten Zähler 45 berechneten Zähl­ wert B. Der erhaltene Mittelwert ist am Mittelpunkt zwischen dem Punkt A und dem Punkt B, und er entspricht dem Punkt, an dem das Ausgangssignal seine Maximalamplitude aufweist.
Nun wird die Beschreibung auf den Sensorblock 22 und den zweiten optischen Block 21 für den Fall gerichtet, daß die Position der Sendeeinheit 10 dreidimensional erfaßt wird.
Der Sensorblock 22 ist mit drei linearen Sensoren versehen, nämlich einem linearen Sensor 23 in x-Richtung; einem linea­ ren Sensor 24 in y-Richtung und einem linearen Sensor in z-Richtung. Entsprechend diesen drei Typen linearer Sensoren verfügt der zweite optische Block 21 über eine erste Linse 5, eine zweite Linse 6 und eine dritte Linse 7. Jedoch exis­ tiert auch der Fall, daß der zweite optische Block 21 über zwei Linsen verfügt.
Nun erfolgt eine Erläuterung zum Sensorblock 22 und dem dem­ selben entsprechenden zweiten optischen Block 21 zum dreidi­ mensionalen Erfassen der Position der Sendeeinheit 10 gemäß einem ersten Ausführungsbeispiel.
Wie es in Fig. 25 dargestellt ist, ist der Sensorblock 22 auf seiner Hauptfläche mit dem linearen Sensor 23 in x-Rich­ tung, dem ersten linearen Sensor 51 in y-Richtung, dem zwei­ ten linearen Sensor 52 in y-Richtung, einem ersten linearen Sensor 53 in z-Richtung und einem zweiten linearen Sensor 54 in z-Richtung versehen.
Der erste lineare Sensor 51 in y-Richtung und der zweite li­ neare Sensor 52 in y-Richtung sind so angeordnet, daß sie von beiden Richtungen des linearen Sensors in x-Richtung an dessen Zentrum rechtwinklig oder unter einem anderen Winkel anstoßen. Der erste lineare Sensor 51 in y-Richtung ist in der Figur über dem linearen Sensor in x-Richtung angeordnet, während der zweite lineare Sensor 52 in y-Richtung darunter angeordnet ist.
Der erste lineare Sensor 53 in z-Richtung und der zweite li­ neare Sensor 54 in z-Richtung sind in einer Linie mit einem gegenseitigen Abstand parallel oder ungefähr parallel zum linearen Sensor in x-Richtung angeordnet. In der Figur ist der erste lineare Sensor 53 in z-Richtung unten links ange­ ordnet, während der zweite lineare Sensor 54 in z-Richtung unten rechts liegt.
Wie es in Fig. 26 dargestellt ist, verfügt der zweite opti­ sche Block 21 über eine erste Linse 5, eine zweite Linse 6, eine dritte Linse 7 und ein Halteelement zum Halten dieser Linsen.
Die erste Linse 5 entspricht dem linearen Sensor 23 in x-Richtung, dem ersten linearen Sensor 51 in y-Richtung und dem zweiten linearen Sensor 52 in y-Richtung am Sensorblock 22. Diese erste Linse 5 ist so angeordnet, daß ihre opti­ sche Achse durch das Zentrum oder beinahe das Zentrum des linearen Sensors in x-Richtung sowie den Mittelpunkt oder beinahe den Mittelpunkt zwischen dem ersten und dem zweiten linearen Sensor 51 bzw. 52 in y-Richtung verläuft.
Die zweite Linse 6 entspricht dem ersten linearen Sensor 53 in z-Richtung. Diese zweite Linse 6 ist so angeordnet, daß ihre optische Achse durch das Zentrum oder beinahe das Zen­ trum des ersten linearen Sensors in z-Richtung verläuft.
Die dritte Linse 7 entspricht dem zweiten linearen Sensor 54 in z-Richtung. Diese dritte Linse 7 ist so angeordnet, daß ihre optische Achse durch das Zentrum oder beinahe das Zen­ trum des zweiten linearen Sensors in z-Richtung verläuft.
Die Beschreibung wird nun auf den Sensorblock 22 und den zweiten optischen Block 21, wie er diesem Sensorblock 22 entspricht, zum dreidimensionalen Erkennen der Position der Sendeeinheit 10 gemäß einem zweiten Ausführungsbeispiel ge­ richtet.
Wie es in Fig. 27 dargestellt ist, verfügt der Sensorblock 22 auf seiner Hauptfläche über einen ersten linearen Sensor 65 für die x- und die z-Richtung, einen zweiten linearen Sensor 66 für die x- und die z-Richtung, einen ersten linea­ ren Sensor 51 für die y-Richtung, einen zweiten linearen Sensor 52 für die y-Richtung, einen dritten linearen Sensor 55 für die y-Richtung und einen vierten linearen Sensor 56 für die y-Richtung.
Der erste lineare Sensor 65 in x-Richtung und in z-Richtung sowie der zweite lineare Sensor 66 in x-Richtung und in z-Richtung sind in einer Linie beabstandet voneinander ange­ ordnet. Der erste lineare Sensor 65 in x- und in z-Richtung ist links in der Mitte angeordnet, während der zweite linea­ re Sensor 66 in x- und in z-Richtung rechts in der Mitte in der Figur angeordnet ist.
Der erste und der zweite lineare Sensor 51 bzw. 52 in y-Richtung sind in der oberen bzw. der unteren Hälfte der Fi­ gur so angeordnet, daß sie das Zentrum oder beinahe das Zentrum des ersten linearen Sensors 65 in x- und in z-Rich­ tung rechtwinklig oder unter einem anderen Winkel einbetten.
Der dritte und der vierte lineare Sensor 55 bzw. 56 in y-Richtung sind in der oberen bzw. der unteren Hälfte in der Figur so angeordnet, daß sie das Zentrum oder beinahe das Zentrum des zweiten linearen Sensors 66 in x- und in z-Rich­ tung rechtwinklig oder unter einem anderen Winkel einbetten.
Wie es in Fig. 28 dargestellt ist, umfaßt der zweite opti­ sche Block eine erste Linse 5, eine zweite Linse 6 und ein Halteelement zum Halten dieser Linsen.
Die erste Linse 5 entspricht dem ersten linearen Sensor 65 in x- und z-Richtung sowie dem ersten und dem zweiten linea­ ren Sensor 51 bzw. 52 in y-Richtung im Sensorblock 22. Diese erste Linse 5 ist so angeordnet, daß ihre optische Achse durch das Zentrum oder beinahe das Zentrum des ersten linea­ ren Sensors 65 in x- und in z-Richtung sowie durch den Mit­ telpunkt oder beinahe den Mittelpunkt zwischen dem ersten und dem zweiten linearen Sensor 51 bzw. 52 in y-Richtung verläuft.
Die zweite Linse 6 entspricht dem zweiten linearen Sensor 66 in x- und z-Richtung sowie dem dritten und vierten linearen Sensor 55 bzw. 56 in y-Richtung im Sensorblock 22. Diese zweite Linse 6 ist so angeordnet, daß ihre optische Achse durch das Zentrum oder beinahe das Zentrum des linearen Sen­ sors 66 in x- und in z-Richtung sowie durch den Mittelpunkt oder beinahe den Mittelpunkt zwischen dem dritten und dem vierten linearen Sensor 55 bzw. 56 in y-Richtung verläuft.
Nun wird die Beschreibung auf einen Sensorblock 22 und einen diesem entsprechenden zweiten optischen Block 21 zum dreidi­ mensionalen Erkennen der Position der Sendeeinheit 10 gemäß einem dritten Ausführungsbeispiel beschrieben.
Wie es in Fig. 29 dargestellt ist, verfügt der Sensorblock 22 auf seiner Hauptfläche über einen ersten und einen zwei­ ten linearen Sensor 65 bzw. 66 in x- und in z-Richtung, so­ wie über einen ersten und einen zweiten linearen Sensor 51 bzw. 52 in y-Richtung.
In der Figur sind der erste und der zweite lineare Sensor 65 bzw. 66 in x-Richtung und in z-Richtung sowie in der linken bzw. der rechten Hälfte in einer Linie beabstandet voneinan­ der angeordnet.
Der erste und der zweite lineare Sensor in y-Richtung sind in der oberen bzw. der unteren Hälfte so angeordnet, daß sie das Zentrum oder beinahe das Zentrum des ersten linearen Sensors 65 in x- und in z-Richtung rechtwinklig oder unter einem anderen Winkel einbetten.
Wie es in Fig. 30 dargestellt ist, verfügt der zweite opti­ sche Block 21 über eine erste Linse 5, eine zweite Linse 6 und ein Halteelement zum Halten dieser Linsen.
Die erste Linse 5 entspricht dem ersten linearen Sensor 65 in x- und in z-Richtung sowie dem ersten und dem zweiten li­ nearen Sensor 51 bzw. 52 in y-Richtung innerhalb des Sensor­ blocks 22. Diese erste Linse 5 ist so angeordnet, daß ihre optische Achse durch das Zentrum oder beinahe das Zentrum des ersten linearen Sensors 65 in x- und in z-Richtung sowie den Mittelpunkt oder beinahe den Mittelpunkt zwischen dem ersten und dem zweiten linearen Sensor 51 bzw. 52 in y-Rich­ tung verläuft.
Die zweite Linse 6 entspricht dem zweiten linearen Sensor 66 in x- und z-Richtung im Sensorblock 22. Diese zweite Linse 6 ist so angeordnet, daß ihre optische Achse durch das Zen­ trum oder beinahe das Zentrum des zweiten linearen Sensors 66 in x- und in z-Richtung verläuft.
Nun wird die Beschreibung auf einen Sensorblock 22 und dem ihm entsprechenden zweiten optischen Block 21 zum dreidimen­ sionalen Erkennen der Position der Sendeeinheit 10 gemäß einem vierten Ausführungsbeispiel gerichtet.
Wie es in Fig. 31 dargestellt ist, weist der Sensorblock 22 auf seiner Hauptfläche einen ersten und einen zweiten linea­ ren Sensor 65 bzw. 66 in x- und in z-Richtung sowie einen ersten und einen zweiten linearen Sensor 51 bzw. 52 in y-Richtung auf.
In der Figur sind der erste und der zweite lineare Sensor in x- und z-Richtung in der linken bzw. rechten Hälfte beab­ standet voneinander in einer Linie angeordnet.
Der erste und der zweite lineare Sensor in y-Richtung sind in der oberen bzw. unteren Hälfte der Figur so angeordnet, daß sie das Zentrum oder beinahe das Zentrum des zweiten linearen Sensors 66 in x- und z-Richtung unter Ausbildung eines rechten Winkels oder eines anderen Winkels einbetten.
Wie es in Fig. 32 dargestellt ist, umfaßt der zweite opti­ sche Block eine erste Linse 5, eine zweite Linse 6 und ein Halteelement zum Halten dieser Linsen.
Die erste Linse 5 entspricht dem ersten linearen Sensor 65 in x- und in z-Richtung im Sensorblock 22. Diese erste Linse 5 ist so angeordnet, daß ihre optische Achse durch das Zen­ trum oder beinahe das Zentrum dieses linearen Sensors ver­ läuft.
Die zweite Linse 6 entspricht dem zweiten linearen Sensor 66 in x- und z-Richtung sowie dem ersten und dem zweiten linea­ ren Sensor 51 und 52 in y-Richtung. Diese zweite Linse ist so angeordnet, daß ihre optische Achse durch das Zentrum oder beinahe das Zentrum des zweiten linearen Sensors 66 in x- und z-Richtung sowie den Mittelpunkt oder beinahe den Mittelpunkt zwischen dem ersten und dem zweiten linearen Sensor 51 bzw. 52 verläuft.
Die erfindungsgemäße Positionserfassungsvorrichtung verwen­ det mindestens zwei eindimensionale Lichtempfangselemente zum zweidimensionalen Erkennen der Position einer Lichtquel­ le, wodurch es möglich ist, die Größe und das Gewicht sowie auch die Herstellkosten der Vorrichtung im Vergleich zum Fall, bei dem ein einzelnes zweidimensionales Element ver­ wendet wird, zu verringern.
Darüber hinaus sind bei der obengenannten Positionserfassungsvorrichtung die eindimensionalen Lichtempfangselemente so angeordnet, daß sie einander rechtwinklig oder kreuzend schneiden, wodurch es möglich ist, einfallendes Licht wir­ kungsvoll aufzutrennen und zu empfangen.
Ferner ist es auf dieselbe Weise wie beim zweidimensionalen Erfassen einer Position möglich, die Größe und das Gewicht zu verringern, wenn die obengenannte Positionserfassungsvor­ richtung eine Position dreidimensional erfaßt, wobei drei oder mehr eindimensionale Lichtempfangselemente verwendet werden, wobei mindestens zwei Elemente in verschiedenen Richtungen angeordnet sind. Auch können die Herstellkosten verringert werden.
Die obengenannten eindimensionalen Lichtempfangselemente, wie sie in der obengenannten Positionserfassungsvorrichtung verwendet sind, sind CCD-Bildaufnahmeelemente oder BBD-Bild­ aufnahmeelemente oder MOS-Bildaufnahmeelemente. Da diese Elemente auf Halbleiterchips ausgebildet werden, können sie mit geringer Größe und geringem Gewicht sowie vernünftigen Kosten hergestellt werden. Die Elemente sind elektrisch sta­ bil, und sie können mit einer niedrigen Spannung angesteuert werden.
Die erfindungsgemäße Fernsteuerung ermöglicht es, eine durch einen Kursor oder dergleichen auf einem Anzeigeschirm ange­ zeigte, spezifizierte Position dadurch zu verstellen, daß ein von Hand ergriffener Sendeblock räumlich bewegt wird. Eine derartige Betätigung ist ähnlich dem üblichen Betäti­ gungsmuster, wie es von Menschen ausgeführt wird, und die Fernsteuerung kann auch von neuen Benutzern, die die Betäti­ gung noch nicht geübt haben, leicht betätigt werden.
Darüber hinaus kann eine Funktionsauswahl, wie sie herkömm­ licherweise seitens der Fernsteuerung vorgenommen wurde, durch Auswählfunktionen mittels eines auf dem Anzeigeblock dargestellten Auswählmenüs unter Verwendung der obengenann­ ten Fernsteuerung ausgeführt werden. Dies vereinfacht die Betätigung der Fernsteuerung, wodurch es z. B. möglich ist, eine Funktion durch Betätigen einer einzelnen Taste auszu­ wählen.
Ferner kann das obengenannte Betätigungsmenü auf einem gro­ ßen Anzeigeschirm wie dem einer CRT, einem Flüssigkristall­ schirm und einem LED-Schirm angezeigt werden, wodurch es möglich ist, den Auswählvorgang visuell besser zu erkennen, als dann, wenn verschiedene Tasten bei einer herkömmlichen Fernsteuerung ausgewählt werden.
Durch Umsetzen des Ausgangssignals der obengenannten Fern­ steuerung in ein Signal einer Fernsteuerungseinheit, wie sie für am Markt befindliche Geräte speziell angeboten wird, ist es möglich, verschiedene Geräte wie Fernsehgeräte, Video­ bandrecoder, Videoplattenspieler, CD-Spieler und Videospiel­ geräte in ein System unter Verwendung dieser Fernsteuerung einzuschließen.
Darüber hinaus verwendet die erfindungsgemäße Fernsteuerung ein eindimensionales Aufnahmeelement als Lichtempfangsblock zum dreidimensionalen Erkennen der Position eines Sende­ blocks. Dies ermöglicht es, die Größe und das Gewicht der Vorrichtung wie auch die Herstellkosten zu verringern. Da die Position dreidimensional erfaßt werden kann, was z. B. bei einem dreidimensionalen Videospiel erforderlich ist, kann diese Fernsteuerung anstelle eines herkömmlichen Joy­ sticks als Zeigeeinrichtung zum Spezifizieren einer Position in einem virtuellen Raum verwendet werden.

Claims (7)

1. Positionserfassungsvorrichtung, gekennzeichnet durch:
  • - eine Lichtempfangseinrichtung mit mindestens zwei eindi­ mensionalen Lichtempfangselementen (23, 24, 25), die in ver­ schiedenen Richtungen zueinander angeordnet sind, um von einer Lichtquelle eingestrahltes Licht zu empfangen; und
  • - eine Positionserkennungs-Verarbeitungseinrichtung (26) zum zweidimensionalen Erkennen der Position der Lichtquelle ab­ hängig vom Ausgangssignal der Lichtempfangseinrichtung.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die eindimensionalen Lichtempfangselemente (23, 24, 25) so angeordnet sind, daß sie einander rechtwinklig schnei­ den.
3. Vorrichtung nach einem der vorstehenden Ansprüche, da­ durch gekennzeichnet, daß eines der eindimensionalen Licht­ empfangselemente in zwei gleiche Abschnitte (51, 52) aufge­ teilt ist, um das Zentrum des anderen Lichtempfangselements (65) rechtwinklig einzubetten, wodurch insgesamt eine kreuz­ förmige Konfiguration gebildet ist.
4. Vorrichtung nach einem der vorstehenden Ansprüche, da­ durch gekennzeichnet, daß
  • - die Lichtempfangseinrichtung (23, 24, 25) drei oder mehr eindimensionale Lichtempfangselemente aufweist, wobei min­ destens zwei Elemente in voneinander verschiedenen Richtun­ gen angeordnet sind; und
  • - die Positionserkennungs-Verarbeitungseinrichtung (26) die Position der Lichtquelleneinrichtung dreidimensional ent­ sprechend dem Ausgangssignal der Lichtempfangseinrichtung erkennt.
5. Vorrichtung nach einem der vorstehenden Ansprüche, da­ durch gekennzeichnet, daß die eindimensionalen Lichtemp­ fangselemente (23, 24, 25) aus CCD-, BBD- oder MOS-Bildauf­ nahmeelementen bestehen.
6. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, daß die Positionserkennungs-Verarbeitungseinrichtung (26) den Maximalpunkt der Amplitude des Ausgangssignals der Lichterkennungseinrichtung (22) erkennt.
7. Fernsteuerung, gekennzeichnet durch
  • - einen Sendeblock (10) mit einer Lichtquelle (12) zum Emit­ tieren von Licht und mit einem EIN/AUS-Schalter zum Ein- und Ausschalten der Lichtquelle;
  • - eine Positionserkennungsvorrichtung nach einem der vorste­ henden Ansprüche und
  • - einen Anzeigeblock (27) zum Anzeigen der durch die Posi­ tionserfassungsvorrichtung erkannten zweidimensionalen Posi­ tion des Sendeblocks auf einem Anzeigeschirm.
DE19757674A 1996-12-25 1997-12-23 Positionserfassungsvorrichtung und Fernsteuerung Withdrawn DE19757674A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34611796A JP3814904B2 (ja) 1996-12-25 1996-12-25 位置検出装置及び遠隔操作装置

Publications (1)

Publication Number Publication Date
DE19757674A1 true DE19757674A1 (de) 1998-07-02

Family

ID=18381257

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19757674A Withdrawn DE19757674A1 (de) 1996-12-25 1997-12-23 Positionserfassungsvorrichtung und Fernsteuerung

Country Status (5)

Country Link
US (1) US6081255A (de)
JP (1) JP3814904B2 (de)
CN (1) CN1149466C (de)
DE (1) DE19757674A1 (de)
FR (1) FR2757660B1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0933721A1 (de) * 1998-01-30 1999-08-04 Canon Kabushiki Kaisha Anordnung, Verfahren und Speichermedium zum Eingeben von Koordinatenwerten
FR2799915A1 (fr) * 1999-10-15 2001-04-20 Yves Jean Paul Guy Reza Ensemble d'interface entre un utilisateur et un dispositif electronique
DE20117645U1 (de) * 2001-10-31 2003-03-20 Siemens Ag Bedieneinrichtung
US6618035B1 (en) 1999-10-15 2003-09-09 Yves Jean-Paul Guy Reza Interface unit between a user and an electronic device

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000015637A (ko) * 1998-08-31 2000-03-15 윤종용 영상표시기기의 원격제어신호 입력장치
JP4422851B2 (ja) * 1999-03-17 2010-02-24 キヤノン株式会社 座標入力装置及び方法
KR20010001005A (ko) * 1999-06-01 2001-01-05 전주범 텔레비전의 메뉴 제어 방법 및 그 장치
KR100803585B1 (ko) * 2001-12-05 2008-02-15 삼성전자주식회사 원격 포인팅 입력 방법 및 그 장치
GB0213215D0 (en) * 2002-06-08 2002-07-17 Lipman Robert M Computer navigation
US7952570B2 (en) * 2002-06-08 2011-05-31 Power2B, Inc. Computer navigation
US7623115B2 (en) * 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
KR100501379B1 (ko) * 2002-12-04 2005-07-18 현대자동차주식회사 원격 조작 장치
US20220261097A1 (en) * 2003-06-09 2022-08-18 Power2B, Inc. Input system for controlling electronic device
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
KR100512616B1 (ko) 2003-07-18 2005-09-05 엘지전자 주식회사 화면 비율 가변 기능을 갖는 영상표시기기 및 그 제어방법
JP4281453B2 (ja) * 2003-07-31 2009-06-17 ソニー株式会社 信号処理装置および信号処理方法
US7444005B2 (en) * 2003-11-04 2008-10-28 Becton, Dickinson And Company Apparatus and method for using optical mouse engine to determine speed, direction, position of scanned device and to obtain quantitative or qualitative data from same
GB2424269A (en) 2004-04-01 2006-09-20 Robert Michael Lipman Control apparatus
JP2006155346A (ja) * 2004-11-30 2006-06-15 Sharp Corp 遠隔制御装置及び表示装置
JP2006155345A (ja) * 2004-11-30 2006-06-15 Sharp Corp 遠隔制御装置及び表示装置
JP2006157638A (ja) * 2004-11-30 2006-06-15 Sharp Corp 遠隔制御装置、電子デバイス、表示装置およびゲーム機用コントロール装置
JP2006189701A (ja) * 2005-01-07 2006-07-20 Pentax Corp 二次元位置検出装置
US9317170B2 (en) 2005-05-18 2016-04-19 Power2B, Inc. Interactive devices
US10452207B2 (en) 2005-05-18 2019-10-22 Power2B, Inc. Displays and information input devices
US9569093B2 (en) 2005-05-18 2017-02-14 Power2B, Inc. Displays and information input devices
US8610675B2 (en) * 2007-03-14 2013-12-17 Power2B, Inc. Interactive devices
KR100714722B1 (ko) * 2005-06-17 2007-05-04 삼성전자주식회사 광원의 신호를 사용하여 포인팅 사용자 인터페이스를구현하는 장치 및 방법
US9494972B2 (en) * 2005-09-08 2016-11-15 Power2B, Inc. Displays and information input devices
US7541566B2 (en) 2005-12-29 2009-06-02 Nokia Corporation Transmitter, receiver, and system with relative position detecting functionality between transmitters and receivers
JP2007222322A (ja) * 2006-02-22 2007-09-06 Toshiba Corp 超音波診断装置
JP2010521732A (ja) 2007-03-14 2010-06-24 パワー2ビー,インコーポレイティド 表示装置および情報入力装置
KR101182286B1 (ko) * 2007-09-19 2012-09-14 삼성전자주식회사 움직임을 감지하는 리모트 컨트롤러 및, 리모트 컨트롤러에의해 포인터를 제어하는 영상디스플레이장치 및 그들의제어방법
US8451224B2 (en) * 2008-07-23 2013-05-28 Sony Corporation Mapping detected movement of an interference pattern of a coherent light beam to cursor movement to effect navigation of a user interface
WO2010035170A1 (en) * 2008-09-23 2010-04-01 Nxp B.V. Detection system for the detection of movements of a movable object, a method of detecting movements of a movable object, and an ic having implemented therein the detection system
CN104655160A (zh) * 2009-06-16 2015-05-27 百安托国际有限公司 二维位置感测系统及其传感器
JP4824798B2 (ja) * 2009-08-06 2011-11-30 セイコーインスツル株式会社 ポインティングシステム
US9402997B1 (en) * 2009-09-14 2016-08-02 Tomasz Andrzej Kosierkiewicz System and method for stimulating medical electrode with a measurement capability
KR101672343B1 (ko) 2009-12-10 2016-11-04 삼성전자주식회사 광터치 패널 및 그 구동 방법
US20120127012A1 (en) * 2010-11-24 2012-05-24 Samsung Electronics Co., Ltd. Determining user intent from position and orientation information
WO2013067526A1 (en) 2011-11-04 2013-05-10 Remote TelePointer, LLC Method and system for user interface for interactive devices using a mobile device
CN103196362B (zh) * 2012-01-09 2016-05-11 西安智意能电子科技有限公司 一种用于确定发射装置相对检测装置的三维位置的系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2399033A1 (fr) * 1977-07-29 1979-02-23 Thomson Csf Dispositif de localisation d'une source rayonnante et systeme de reperage de direction comportant un tel dispositif
US4328516A (en) * 1980-11-17 1982-05-04 The United States Of America As Represented By The Secretary Of The Army Integral test input for electro-optically multiplexed FLIR system
DE3133641A1 (de) * 1981-08-26 1983-03-10 Philips Patentverwaltung Gmbh, 2000 Hamburg Ir-sichtgeraet
US4480918A (en) * 1982-03-04 1984-11-06 The Charles Stark Draper Laboratory, Inc. Non-contact displacement sensing system for a compliance device
US4639774A (en) * 1985-06-21 1987-01-27 D. L. Fried Associates, Inc. Moving target indication system
JPH03158705A (ja) * 1989-11-17 1991-07-08 Toshiba Corp 位置検出用ccd装置
JPH0435365A (ja) * 1990-05-28 1992-02-06 Matsushita Electric Ind Co Ltd 遠隔操作装置
US5521373A (en) * 1990-08-02 1996-05-28 Vpl Research, Inc. Position tracking system using a radiation director which directs radiation from a radiation source onto a radiation sensor, depending on the position of the radiation source
US5396282A (en) * 1991-11-26 1995-03-07 Nec Corporation Image mapping radiometer with a band-to-band registration device
US5448261A (en) * 1992-06-12 1995-09-05 Sanyo Electric Co., Ltd. Cursor control device
JP3400485B2 (ja) * 1993-03-23 2003-04-28 株式会社ワコム 光学式位置検出装置および光学式座標入力装置
CA2161126C (en) * 1993-04-22 2007-07-31 Waldean A. Schulz System for locating relative positions of objects
WO1995014286A1 (en) * 1993-11-17 1995-05-26 Microsoft Corporation Wireless pen computer input system
JP3473988B2 (ja) * 1994-05-20 2003-12-08 株式会社ワコム 情報入力装置
GB2289756B (en) * 1994-05-26 1998-11-11 Alps Electric Co Ltd Space coordinates detecting device and input apparatus using same
US5926168A (en) * 1994-09-30 1999-07-20 Fan; Nong-Qiang Remote pointers for interactive televisions
US5907405A (en) * 1995-09-01 1999-05-25 Nikon Corporation Alignment method and exposure system
US5587583A (en) * 1995-09-06 1996-12-24 Hughes Electronics Thermal imaging device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0933721A1 (de) * 1998-01-30 1999-08-04 Canon Kabushiki Kaisha Anordnung, Verfahren und Speichermedium zum Eingeben von Koordinatenwerten
US6229601B1 (en) 1998-01-30 2001-05-08 Canon Kabushiki Kaisha Coordinate input apparatus and method, and storage medium
FR2799915A1 (fr) * 1999-10-15 2001-04-20 Yves Jean Paul Guy Reza Ensemble d'interface entre un utilisateur et un dispositif electronique
US6618035B1 (en) 1999-10-15 2003-09-09 Yves Jean-Paul Guy Reza Interface unit between a user and an electronic device
DE20117645U1 (de) * 2001-10-31 2003-03-20 Siemens Ag Bedieneinrichtung
US7495655B2 (en) 2001-10-31 2009-02-24 Siemens Aktiengesellschaft Control device

Also Published As

Publication number Publication date
CN1149466C (zh) 2004-05-12
US6081255A (en) 2000-06-27
JP3814904B2 (ja) 2006-08-30
FR2757660B1 (fr) 1999-04-30
FR2757660A1 (fr) 1998-06-26
JPH10187340A (ja) 1998-07-14
CN1192007A (zh) 1998-09-02

Similar Documents

Publication Publication Date Title
DE19757674A1 (de) Positionserfassungsvorrichtung und Fernsteuerung
DE69431221T2 (de) Fernbedienung für Video- und Audiogeräte
DE69521782T2 (de) Drahtlose Führungsvorrichtung für eine Cursorfernsteuerung
DE69620531T2 (de) Methode und System zum Verfolgen der Stellung einer Anzeigevorrichtung
DE68921859T2 (de) Bild-im-Bild-Fernsehempfängersteuerung.
DE69608805T2 (de) Eingabevorrichtung zum liefern multidimensionaler positionskoordinatesignale an einen rechner
DE69632585T2 (de) Vorrichtung zur verbesserung der fernsehdarstellung eines objekts bei einer sportveranstaltung
DE3805108C2 (de)
EP0377055B1 (de) Elektrooptische Anordnung zur Fernbedienung elektronischer Geräte
EP0355172A1 (de) Fernbedienungssystem
DE69125654T2 (de) Fernsteueranordnung zur Steuerung eines Fernsehempfängers
EP0410194B1 (de) Fernbedienungsgeber
DE3305090A1 (de) Fernsteuersystem
DE10060666A1 (de) Verfahren und Vorrichtung zum Unterstützen eines Benutzers beim Herstellen einer Verbindung zwischen einem Hauptgerät und einem Peripheriegerät
DE3805109A1 (de) Fernsteuersystem fuer eine bildwiedergabeeinrichtung
DE69910161T2 (de) Vorrichtung zum empfangen von signalen
DE3202765A1 (de) Videosystem
DE4203591A1 (de) Drahtlose eingabeeinrichtung fuer computer
DE4121314A1 (de) Schaltungsanordnung zur automatischen bild-im-bild-wiedergabe von proben aus fernsehkanaelen
EP0357909B1 (de) Fernbedienbares elektrisches Gerät
DE69816320T2 (de) Profilmessung mit hoher Geschwindigkeit durch CCD, das Profillinien per Bildperiode aufgreift
DE3017658A1 (de) Bildwiedergabegeraet
DE4105114A1 (de) Standbildaufnahmevorrichtung
DE69525160T2 (de) Cursorführungsvorrichtung unter Verwendung von Dünnfilm-Interferenzfiltern
DE69425499T2 (de) Bilderzeugungsverfahren und dazugehöriges gerät

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140701