[go: up one dir, main page]

JP3939709B2 - Information input method and information input / output device - Google Patents

Information input method and information input / output device Download PDF

Info

Publication number
JP3939709B2
JP3939709B2 JP2004134972A JP2004134972A JP3939709B2 JP 3939709 B2 JP3939709 B2 JP 3939709B2 JP 2004134972 A JP2004134972 A JP 2004134972A JP 2004134972 A JP2004134972 A JP 2004134972A JP 3939709 B2 JP3939709 B2 JP 3939709B2
Authority
JP
Japan
Prior art keywords
input
dimensional
display
operator
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004134972A
Other languages
Japanese (ja)
Other versions
JP2005316790A (en
Inventor
篤 中平
豊 國田
大介 越智
肇 能登
尚文 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
NTT Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT Inc filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004134972A priority Critical patent/JP3939709B2/en
Publication of JP2005316790A publication Critical patent/JP2005316790A/en
Application granted granted Critical
Publication of JP3939709B2 publication Critical patent/JP3939709B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、情報入力方法および情報入出力装置に係り、特に、ATM(Automatic Teller Machine)やキオスク端末に多く用いられるタッチコントロールを利用した情報入力方法およびタッチコントロール入力部を有する情報入出力装置に関する。 The present invention relates to an information input method and an information input and output equipment, in particular, ATM (Automatic Teller Machine) or information by using a number touch for use in the kiosk terminal input method and touch input unit information input and output device having About.

現在、タッチコントロール入力とLCD(液晶表示パネル)やCRTなどの表示装置を組み合わせた端末は、券売機やATM等に広く用いられており、入力画面を容易に切り替えられることから、多種多様な入力を受け付けることができる特徴がある。
また、表示されたメニューボタン等を直接手で触れて入力することができるため、マウスやキーボードなど間接的な入力装置に比べて、実際のボタン操作に似ているため初めて使う人にとっても使い勝手の良い端末であると考えられている。
しかしながら、タッチコントロールと表示装置の物理的位置が異なるため、視点によって表示物とタッチコントロールによる入力位置がずれてしまい、多くの誤入力を招くという問題がある。
さらに、タッチコントロールに用いられるデバイス自体の性質として、実際のパネルに触れる前に反応してしまう、指をしっかり触れないと反応しないなどの問題があり、押しにくいといった印象や、押し間違いを助長し、多くの利用者にとっては必ずしも使い易いとは言えないのが現状である。
端末が触れたと感知したことを利用者に分かりやすくするために、触れたことに対する反応を早くすることも考えられるが、迷いながら無意識に触ってしまった場合にも感知してしまうことにつながるため、かえって誤入力の機会を増やしてしまうことにもなっている。
このような現状で誤入力を減らす対策として、反応時間を長くして誤操作に気づいた時点で指を離すための時間的猶予を与えることなどが施されている。
Currently, terminals that combine touch control input and display devices such as LCD (liquid crystal display panel) and CRT are widely used in ticket vending machines and ATMs. There is a feature that can accept.
In addition, since the displayed menu buttons can be directly touched and input, it is similar to the actual button operation compared to an indirect input device such as a mouse or keyboard, so it is convenient for first-time users. It is considered a good terminal.
However, since the physical positions of the touch control and the display device are different, there is a problem that the input position by the display object and the touch control is shifted depending on the viewpoint, which causes many erroneous inputs.
Furthermore, the nature of the device itself used for touch control has problems such as reacting before touching the actual panel, and not responding unless the finger is touched firmly. However, it is not always easy for many users to use.
In order to make it easier for the user to detect that the terminal has been touched, it may be possible to react quickly to touching it, but it may also be detected if the user touches it unconsciously. On the contrary, it also increases the chances of incorrect input.
As a measure to reduce erroneous input under such circumstances, there is a time delay for releasing a finger when a reaction time is increased and a misoperation is noticed.

反応時間を長くすることによって、どこを触るかを迷っている間に入力を受け付けてしまうことによる誤入力を減らす対策にはなっているが、どこを触っているかを利用者自身が認知することが難しいため、誤入力を減らす根本的な解決にはなっていない。
また、どの場所を触っているのかを利用者自身に認知させるための方法として、触った箇所の色を変化させる、振動させる、或いは入力を受け付けた時に音を発するなどがある。
これらの方法では、触っているかいないか、入力を受け付けたか否かを認知することは可能である。
しかし、色の変化や振動、音は、触るという入力に対する自然な反応とは言い難いため、それらが入力に対する反応であることを瞬時に判断することは難しく、その操作にはある程度の慣れが必要である。
このため、初めて利用する場合や、利用頻度が少ない利用者にとっては利便性を大きく向上させることができない、という問題がある。
これに対して、タッチパネルを2層にしてタッチコントロールの操作性を向上させようとする試みがある(下記、非特許文献1参照)。
この試みは、タッチコントロールを二層にすることで、どこを触ろうとしているか、を拡大表示することで表し、最終的な入力は下層のタッチパネルで検出するという二層のタッチコントロールと標示を組み合わせた入力端末を提案している。
Although it is a measure to reduce erroneous input by accepting input while wondering where to touch by extending the reaction time, the user himself recognizes where he is touching However, it is not a fundamental solution to reduce erroneous input.
In addition, as a method for allowing the user himself / herself to recognize which place is being touched, there are methods such as changing the color of the touched part, vibrating, or generating a sound when receiving an input.
With these methods, it is possible to recognize whether the user is touching or whether an input is accepted.
However, since it is difficult to say that color changes, vibrations, and sounds are natural responses to touch input, it is difficult to instantly determine that they are responses to input, and that operation requires some familiarity. It is.
For this reason, there is a problem that the convenience cannot be greatly improved for the first time use or for a user who uses less frequently.
On the other hand, there is an attempt to improve the operability of touch control by using two touch panels (see Non-Patent Document 1 below).
This attempt is made by combining the two-layer touch control and the indication that the touch input is detected by the lower touch panel by displaying the enlarged part of the touch control by making it two layers and displaying the final input. Have proposed input terminals.

なお、本願発明に関連する先行技術文献としては以下のものがある。
暦本純一 偏、「インタラクティブシステムとソフトウェアIX」 日本ソフトウェア科学会 WISS2001、近代科学社、2001年、 p.215-216)
As prior art documents related to the invention of the present application, there are the following.
Junichi Kyokumoto, “Interactive Systems and Software IX” Japan Software Science Society WISS2001, Modern Science, 2001, p.215-216)

しかしながら、前述の非特許文献1に記載されている端末では、二つのタッチコントロールで検出される検出位置を一致させる必要があるが、視点を変えた時にずれてしまうことは避けられない。
また、上層で位置を検出した時にその付近を拡大表示することが提案されているが、単に拡大すると全体像を見失うことになる。また、部分的に拡大すると表示できない部分が現れる、あるいは、大きく歪んでしまう部分が出てしまうなどの問題が新たに発生してしまっていた。
本発明は、前記従来技術の問題点を解決するためになされたものであり、本発明の目的は、タッチコントロール入力で入力する際に、適切に入力されているかを利用者自身が分からないために、誤入力を誘発してしまう欠点を、利便性を低下させることなく解決したタッチコントロールによる情報入力方法及び情報入出力装置を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかにする。

However, in the terminal described in Non-Patent Document 1 described above, it is necessary to match the detection positions detected by the two touch controls. However, it is inevitable that the position is shifted when the viewpoint is changed.
Further, it has been proposed to enlarge and display the vicinity when a position is detected in the upper layer, but if the image is simply enlarged, the entire image will be lost. In addition, when the image is partially enlarged, a problem that a portion that cannot be displayed appears or a portion that is greatly distorted appears.
The present invention has been made to solve the above-described problems of the prior art, and the object of the present invention is that the user himself / herself does not know whether the input is properly performed when inputting by touch control input. in the thus induce erroneous input drawbacks, Ru near to provide an information input method and an information input-output device by the touch control that solves without reducing convenience.
The above and other objects and novel features of the present invention will become apparent from the description of this specification and the accompanying drawings.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記の通りである。
本発明は、タッチコントロールによる入力の反応を、3次元表示を用いて表現することを最も主要な特徴とする。
即ち、タッチコントロールが検出した位置情報を、入力画面に表示されたオブジェクトの奥行き方向の位置や形状を変えて表示し、さらにタッチコントロールが受け付けた入力情報に対する反応を上記と異なる方法で提示する。
本発明の情報入出力装置では、入力のメニュー項目を表示し、その中から操作者が選んで指し示したメニューが操作者からは沈んで(あるいは、浮かんで)表示される。
即ち、3次元表示装置に表示されるメニューの奥行き位置を変化させて、操作者に情報入出力装置が検出している位置を認知させる。3次元表示装置に表示されるメニューの奥行き位置が連続的に変化していれば、入力が続いて受け付けられていることも確認できる。
3次元表示装置に表示されるメニューの奥行き位置を変化させる過程で、操作者は、自分が選択したいオブジェクトを装置が選択しているかを確認し、選択したいオブジェクトであればその状態を続けることにより入力が実行される。
従来の技術とは、3次元表示によりオブジェクトの奥行き位置を変化させることによって操作者が、操作しようとしている場所を情報入出力装置が感知しているかを確認できる点およびその後所定時間経過後、情報入出力装置が入力を受け付ける点が異なる。
Of the inventions disclosed in this application, the outline of typical ones will be briefly described as follows.
The most important feature of the present invention is that the response of input by touch control is expressed using a three-dimensional display.
That is, the position information detected by the touch control is displayed by changing the position and shape of the object displayed in the depth direction on the input screen, and the response to the input information received by the touch control is presented by a method different from the above.
In the information input / output device of the present invention, input menu items are displayed, and the menu selected and pointed out by the operator is sunk (or floated) from the operator.
That is, by changing the depth position of the menu displayed on the three-dimensional display device, the operator is made to recognize the position detected by the information input / output device. If the depth position of the menu displayed on the three-dimensional display device changes continuously, it can be confirmed that the input is continuously received.
In the process of changing the depth position of the menu displayed on the three-dimensional display device, the operator confirms whether the device has selected the object he / she wants to select, and continues the state if the object is to be selected. Input is executed.
The conventional technique is that the operator can confirm whether the information input / output device senses the place to be operated by changing the depth position of the object by three-dimensional display, and after a predetermined time has passed, the information The difference is that the input / output device accepts input.

従来のタッチパネルを用いた入力方法においては、装置が感知している場所の情報を操作者に直感的に与えること無く入力を決定しているため、誤動作を起こしやすい。
これに対して、本発明の情報入力方法では、操作者が指し示す位置に対して、情報入出力装置が感知している場所を、感知しているオブジェクトの3次元表示装置に表示される奥行き方向を変化させる方法で操作者に提示することができる。
奥行き位置を変化させるため、二次元平面内での歪みを与えるなど表示形状変化を伴うことがないため、操作者に違和感を与えることなく自分の指し示す場所が適切であるかの判断を行うことができる。
操作者が意図した場所に適合する場合に操作を所定時間続けることにより入力が装置に受け付けられる。
この結果、誤入力を大幅に低減することが可能となり、本発明の目的である誤入力の少ないタッチコントロール入力を行うことができるようになる。
In an input method using a conventional touch panel, an input is determined without intuitively giving the operator information on the location sensed by the apparatus, and therefore, malfunctions are likely to occur.
On the other hand, in the information input method of the present invention, the position sensed by the information input / output device with respect to the position indicated by the operator is displayed in the depth direction displayed on the three-dimensional display device of the sensed object. Can be presented to the operator by a method of changing.
Since the depth position is changed, there is no display shape change such as distortion in the two-dimensional plane, so it is possible to determine whether the location pointed to is appropriate without giving the operator a sense of incongruity it can.
The input is accepted by the device by continuing the operation for a predetermined time when it is suitable for the place intended by the operator.
As a result, erroneous input can be greatly reduced, and touch control input with few erroneous inputs, which is an object of the present invention, can be performed.

本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。
本発明によれば、操作者が触っている場所と、情報入出力装置が感知している場所とを確認できるため、操作者は入力オブジェクトを確認してから入力を実行することができるため、誤入力を大幅に低減することが可能である。
入力オブジェクトを確認した後に所定時間同じ動作を続けることによって入力を受け付けるため、複雑なタッチコントロール入力部を必要としない利点がある。
さらに、表示位置と入力受付位置が精確に一致していない場合でも誤入力の少ない適切な入力を行うことができる利点もある。
さらに、タッチコントロール入力では比較的大きなオブジェクトしか指し示すことができなかったが、本発明によると小さく密に配置されたオブジェクトでも的確に入力することが可能となる利点もある。
さらに、オブジェクトの奥行き位置が変化する方法は実物体のボタンを押すという動作事象に近いため、初めて使う人にとっても自然で利用しやすいという利点もある。
The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.
According to the present invention, since the place where the operator is touching and the place where the information input / output device is sensing can be confirmed, the operator can execute input after confirming the input object. It is possible to greatly reduce erroneous input.
Since the input is accepted by continuing the same operation for a predetermined time after confirming the input object, there is an advantage that a complicated touch control input unit is not required.
Further, there is an advantage that appropriate input with few erroneous inputs can be performed even when the display position and the input reception position do not exactly match.
Furthermore, only a relatively large object can be indicated by touch control input. However, according to the present invention, there is an advantage that even a small and densely arranged object can be input accurately.
Furthermore, since the method of changing the depth position of an object is close to the action phenomenon of pressing a button of a real object, there is an advantage that it is natural and easy to use even for a first-time user.

以下、図面を参照して本発明の実施例を詳細に説明する。
なお、実施例を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
[実施例1]
図1は、本発明の実施例の情報入出力装置の概略構成を示すブロック図である。
図1において、1は情報入出力装置、2はタッチパネルコントロール入力デバイス、3は3次元表示装置である。
本実施例では、3次元表示装置3として、2枚の液晶表示パネルを使用したDFD(Depth-Fused 3D)型の3次元表示装置、タッチパネルコントロール入力デバイス2として、超音波式タッチパネルを使用した。
情報入出力装置1として、市販のパーソナルコンピュータ(PC)を使用し、パーソナルコンピュータ(PC)により、3次元表示装置3に表示するメニュー画面を、タッチコントロールデバイス2からの入力位置データに基づき制御した。
本実施例の情報入出力装置は、自動券売機やキオスク端末などに適用することができる。
初めに、2枚の液晶表示パネルを使用したDFD型の3次元表示装置について説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
In all the drawings for explaining the embodiments, parts having the same functions are given the same reference numerals, and repeated explanation thereof is omitted.
[Example 1]
FIG. 1 is a block diagram showing a schematic configuration of an information input / output device according to an embodiment of the present invention.
In FIG. 1, 1 is an information input / output device, 2 is a touch panel control input device, and 3 is a three-dimensional display device.
In the present embodiment, a DFD (Depth-Fused 3D) type three-dimensional display device using two liquid crystal display panels as the three-dimensional display device 3 and an ultrasonic touch panel as the touch panel control input device 2 are used.
A commercially available personal computer (PC) is used as the information input / output device 1, and the menu screen displayed on the three-dimensional display device 3 is controlled by the personal computer (PC) based on the input position data from the touch control device 2. .
The information input / output device of the present embodiment can be applied to an automatic ticket vending machine, a kiosk terminal or the like.
First, a DFD type three-dimensional display device using two liquid crystal display panels will be described.

[DFD型の3次元表示装置の一例]
図2は、DFD型の3次元表示装置の一例を説明するための図である。
図2に示す3次元表示装置は、観察者100の前面に複数の面、例えば、表示面(101,102)(表示面101が表示面102より観察者100に近い)を設定し、これらの表示面(101,102)に複数の2次元像を表示するために、2次元表示装置と種々の光学素子を用いて光学系103を構築する。
前記2次元表示装置としては、例えば、CRT、液晶ディスプレイ、LEDディスプレイ、プラズマディスプレイ、ELディスプレイ、FEDディスプレイ、DMD、プロジェクション方式ディスプレイ、オシロスコープのような線描画型ディスプレイなどを用い、光学素子としては、例えば、レンズ、全反射鏡、部分反射鏡、曲鏡、プリズム、偏光素子、波長板などを用いる。
なお、図1は、特許第302258号明細書に記載されているものと同じ構成のものであり、また、この表示面の設定方法については、特許第302258号明細書を参照されたい。
図2に示す3次元表示装置では、図3に示すように、観察者100に提示したい3次元物体104を、観察者100の両眼の視線方向から、前述の表示面(101,102)へ射影した像(以下、「2D化像」と呼ぶ)(105,106)を生成する。
この2D化像の生成方法としては、例えば、視線方向から3次元物体104をカメラで撮影した2次元像を用いる方法、あるいは別の方向から撮影した複数枚の2次元像から合成する方法、あるいはコンピュータグラフィックによる合成技術やモデル化を用いる方法など種々の方法がある。
[Example of DFD type 3D display device]
FIG. 2 is a diagram for explaining an example of a DFD type three-dimensional display device.
The three-dimensional display device shown in FIG. 2 sets a plurality of surfaces, for example, display surfaces (101, 102) (the display surface 101 is closer to the viewer 100 than the display surface 102) on the front surface of the viewer 100. In order to display a plurality of two-dimensional images on the display surfaces (101, 102), an optical system 103 is constructed using a two-dimensional display device and various optical elements.
Examples of the two-dimensional display device include a CRT, a liquid crystal display, an LED display, a plasma display, an EL display, an FED display, a DMD, a projection display, a line drawing type display such as an oscilloscope, and the like as an optical element. For example, a lens, a total reflection mirror, a partial reflection mirror, a curved mirror, a prism, a polarizing element, a wave plate, or the like is used.
1 has the same configuration as that described in Japanese Patent No. 302258, and for the method of setting the display surface, refer to Japanese Patent No. 302258.
In the three-dimensional display device shown in FIG. 2, as shown in FIG. 3, a three-dimensional object 104 desired to be presented to the observer 100 is transferred from the line of sight of both eyes of the observer 100 to the display surface (101, 102). Projected images (hereinafter referred to as “2D images”) (105, 106) are generated.
As a method for generating the 2D image, for example, a method using a two-dimensional image obtained by photographing a three-dimensional object 104 with a camera from the line-of-sight direction, a method of combining from a plurality of two-dimensional images taken from different directions, or There are various methods such as a computer graphic synthesis technique and a method using modeling.

図2に示すように、前記2D化像(105,106)を、各々表示面101と表示面102の双方に、観察者100の右眼と左眼とを結ぶ線上の一点から見て重なるように表示する。これは、例えば、2D化像(105,106)の各々の中心位置や重心位置の配置と、各々の像の拡大・縮小を制御することで可能となる。
かかる構成を有する装置上で、2D化像(105,106)の各々の輝度を、観察者100から見た総体的な輝度を一定に保ちつつ、3次元物体104の奥行き位置に対応して変えることで、3次元物体104の3次元立体像を表示する。
その2D化像(105,106)の各々の輝度の変え方の一例について説明する。なお、ここでは、白黒図面であるため、分かりやすいように、以下の図面では、輝度の高い方を濃く示してある。
例えば、3次元物体104が表示面101上にある場合には、図4に示すように、この上の2D化像105の輝度を3次元物体104の輝度に等しくし、表示面102上の2D化像106の輝度はゼロとする。
次に、例えば、3次元物体104が観察者100より少し遠ざかって表示面101より表示面102側に少し寄った位置にある場合には、図5に示すように、2D化像105の輝度を少し下げ、2D化像106の輝度を少し上げる。
As shown in FIG. 2, the 2D image (105, 106) overlaps both the display surface 101 and the display surface 102 as viewed from a point on the line connecting the right eye and the left eye of the viewer 100. To display. This can be achieved, for example, by controlling the arrangement of the center position and the gravity center position of each 2D image (105, 106) and the enlargement / reduction of each image.
On the apparatus having such a configuration, the luminance of each of the 2D images (105, 106) is changed in accordance with the depth position of the three-dimensional object 104 while keeping the overall luminance viewed from the observer 100 constant. Thus, a three-dimensional stereoscopic image of the three-dimensional object 104 is displayed.
An example of how to change the luminance of each 2D image (105, 106) will be described. Here, since it is a black and white drawing, for the sake of easy understanding, in the following drawings, the higher luminance is shown darker.
For example, when the three-dimensional object 104 is on the display surface 101, as shown in FIG. 4, the luminance of the 2D image 105 above is made equal to the luminance of the three-dimensional object 104, and 2D on the display surface 102 is displayed. The luminance of the converted image 106 is zero.
Next, for example, when the three-dimensional object 104 is slightly away from the observer 100 and is slightly closer to the display surface 102 than the display surface 101, the brightness of the 2D image 105 is increased as shown in FIG. Slightly lower the brightness of the 2D image 106 slightly.

次に、例えば、3次元物体104が観察者100よりさらに遠ざかって表示面101より表示面102側にさらに寄った位置にある場合には、図6に示すように、2D化像105の輝度をさらに下げ、2D化像106の輝度をさらに上げる。
さらに、例えば、3次元物体104が表示面102上にある場合には、図7に示すように、この上の2D化像106の輝度を3次元物体104の輝度に等しくし、表示面101上の2D化像105の輝度はゼロとする。
このように表示することにより、観察者(人)100の生理的あるいは心理的要因あるいは錯覚により、表示しているのが2D化像(105,106)であっても、観察者100にはあたかも表示面(101,102)の中間に3次元物体104が位置しているように感じられる。
例えば、表示面(101,102)にほぼ等輝度の2D化像(105,106)を表示した場合には、表示面(101,102)の奥行き位置の中間付近に3次元物体104があるように感じられる。この場合に、この3次元物体104は、観察者100には立体感を伴って知覚される。
Next, for example, when the three-dimensional object 104 is further away from the viewer 100 and is further away from the display surface 101 toward the display surface 102, the brightness of the 2D image 105 is increased as shown in FIG. Further down, the brightness of the 2D image 106 is further increased.
Further, for example, when the three-dimensional object 104 is on the display surface 102, the luminance of the 2D image 106 on the display surface 102 is made equal to the luminance of the three-dimensional object 104 as shown in FIG. The brightness of the 2D image 105 is zero.
By displaying in this way, even if the 2D image (105, 106) is displayed due to the physiological or psychological factors or illusions of the observer (person) 100, it is as if the observer 100 It feels as if the three-dimensional object 104 is located in the middle of the display surface (101, 102).
For example, when a 2D image (105, 106) having substantially the same luminance is displayed on the display surface (101, 102), the three-dimensional object 104 appears near the middle of the depth position of the display surface (101, 102). I can feel it. In this case, the three-dimensional object 104 is perceived by the observer 100 with a stereoscopic effect.

なお、前記説明においては、例えば、3次元物体全体の奥行き位置を、例えば、表示面(101,102)に表示した2次元像を用いて表現する方法について主に述べたが、図1に示す3次元表示装置は、例えば、3次元物体自体が有する奥行きを表現する方法としても使用できることは明らかである。
3次元物体自体が有する奥行きを表現する場合における重要な要点は、図1に示す構成を有する装置上で、2D化像(105,106)の各々の部位の輝度を、観察者100から見た総体的な輝度を一定に保ちつつ、3次元物体104の各部位が有する奥行き位置に対応して変えることである。
なお、前述の説明では、2次元像を配置する面の中で主に2つの面に関してのみ記述し、かつ観察者に提示する物体が2つの面の間にある場合について述べたが、2次元像を配置する面の個数がこれよりも多く、あるいは提示する物体の位置が異なる場合であっても、同様な手法により3次元立体像を表示することが可能であることは明らかである。
例えば、面が3つで、観察者100に近い面と、中間の面との間に第1の3次元物体が、中間の面と、観察者100に遠い面との間に第2の3次元物体が存在する場合には、観察者100に近い面と、中間の面とに、第1の3次元物体の2D化像を表示し、中間の面と、観察者100に遠い面とに第2の3次元物体の2D化像を表示することで、第1および第2の3次元物体の3次元立体像を表示することができる。
In the above description, for example, the method of expressing the depth position of the entire three-dimensional object using, for example, a two-dimensional image displayed on the display surface (101, 102) has been described. It is obvious that the 3D display device can be used as a method of expressing the depth of the 3D object itself, for example.
An important point in expressing the depth of the three-dimensional object itself is that the luminance of each part of the 2D image (105, 106) is viewed from the observer 100 on the apparatus having the configuration shown in FIG. It is to change corresponding to the depth position of each part of the three-dimensional object 104 while keeping the overall luminance constant.
In the above description, the description has been given of the case where only two surfaces are mainly described among the surfaces on which the two-dimensional image is arranged, and the object to be presented to the observer is between the two surfaces. It is obvious that a three-dimensional stereoscopic image can be displayed by a similar method even when the number of surfaces on which images are arranged is larger than this or when the position of an object to be presented is different.
For example, there are three surfaces, a first three-dimensional object between the surface close to the observer 100 and the intermediate surface, and a second 3 between the intermediate surface and the surface far from the observer 100. When a three-dimensional object exists, a 2D image of the first three-dimensional object is displayed on a surface close to the observer 100 and an intermediate surface, and on the intermediate surface and a surface far from the observer 100. By displaying the 2D image of the second 3D object, it is possible to display 3D images of the first and second 3D objects.

さらに、2D化像が3次元的に移動する場合に関しては、観察者の左右上下方向への移動に関しては通常の2次元表示装置の場合と同様に表示面内での動画再生によって可能であり、奥行き方向への移動に関しては、2D化像(105,106)の各々の輝度を、観察者100から見た総体的な輝度を一定に保ちつつ、3次元立体像の奥行き位置の時間的変化に対応して変化させることにより、3次元像の動画を表現できることは明らかである。
例えば、3次元立体像が表示面101より表示面102まで時間的に移動する場合について説明する。
3次元立体像が表示面101上にある場合には、図4に示すように、表示面101上の2D化像105の輝度を3次元立体像の輝度に等しくし、表示面102上の2D化像106の輝度はゼロとする。
次に、例えば、3次元立体像が、次第に観察者100より時間的に少し遠ざかり、表示面101より表示面102側に時間的に少し寄ってくる場合には、図5に示すように、3次元立体像の奥行き位置の移動に対応させて2D化像105の輝度を時間的に少し下げ、かつ2D化像106の輝度を時間的に少し上げる。
Furthermore, regarding the case where the 2D image is moved three-dimensionally, the movement of the observer in the horizontal and vertical directions can be achieved by moving image reproduction on the display surface as in the case of a normal two-dimensional display device. Regarding the movement in the depth direction, the luminance of each of the 2D images (105, 106) is changed with time in the depth position of the three-dimensional stereoscopic image while keeping the overall luminance viewed from the observer 100 constant. It is clear that a moving image of a three-dimensional image can be expressed by changing it correspondingly.
For example, a case where a three-dimensional stereoscopic image moves from the display surface 101 to the display surface 102 in time will be described.
When the three-dimensional stereoscopic image is on the display surface 101, the luminance of the 2D image 105 on the display surface 101 is made equal to the luminance of the three-dimensional stereoscopic image, as shown in FIG. The luminance of the converted image 106 is zero.
Next, for example, when the three-dimensional stereoscopic image gradually moves away from the viewer 100 in time and slightly approaches in time from the display surface 101 toward the display surface 102, as shown in FIG. Corresponding to the movement of the depth position of the three-dimensional stereoscopic image, the luminance of the 2D image 105 is slightly lowered in time, and the luminance of the 2D image 106 is slightly increased in time.

次に、例えば、3次元立体像が観察者100より時間的にさらに遠ざかり、表示面101より表示面102側にさらに寄った位置に時間的に移動する場合には、図6に示すように、3次元立体像の奥行き位置の移動に対応させて2D化像105の輝度を時間的にさらに下げ、かつ2D化像106の輝度を時間的にさらに上げる。
さらに、例えば、3次元立体像が表示面102上まで時間的に移動してきた場合には、図7に示すように、3次元立体像の奥行き位置の移動に対応させてこの上の2D化像106の輝度を3次元立体像の輝度に等しくなるまで時間的に変化させ、かつ表示面101上の2D化像105の輝度がゼロとなるまで変化させる。
このように表示することにより、人の生理的あるいは心理的要因あるいは錯覚により、表示しているのが2D化像(105,106)であっても、観察者100にはあたかも表示面(101,102)の間を、表示面101から表示面102に3次元立体像が奥行き方向に移動するように感じられる。
Next, for example, when the three-dimensional stereoscopic image is further distant from the observer 100 in time and moved to a position closer to the display surface 102 than the display surface 101, as shown in FIG. Corresponding to the movement of the depth position of the three-dimensional stereoscopic image, the luminance of the 2D image 105 is further lowered in time, and the luminance of the 2D image 106 is further raised in time.
Furthermore, for example, when the three-dimensional stereoscopic image has moved to the display surface 102 over time, as shown in FIG. 7, the 2D image above this corresponding to the movement of the depth position of the three-dimensional stereoscopic image. The luminance of 106 is changed over time until it becomes equal to the luminance of the three-dimensional stereoscopic image, and is changed until the luminance of the 2D image 105 on the display surface 101 becomes zero.
By displaying in this way, even if a 2D image (105, 106) is displayed due to a human physiological or psychological factor or illusion, the viewer 100 is as if the display surface (101, 101) is displayed. 102), it is felt that the three-dimensional stereoscopic image moves from the display surface 101 to the display surface 102 in the depth direction.

なお、前述の説明では、3次元立体像が表示面101から表示面102まで移動する場合について述べたが、これが表示面(101,102)の間の途中の奥行き位置から表示面102まで移動する場合や、表示面101から表示面(101,102)の間の途中の奥行き位置まで移動する場合や、表示面(101,102)の間の途中の奥行き位置から表示面(101,102)の間の途中の別な奥行き位置まで移動する場合であっても、同様なことが可能なことは明らかである。
なお、前述の説明では、2D化像を配置する面の中で主に2つの面に関してのみ記述し、かつ観察者100に提示する3次元立体像が2つの面の間を移動する場合について述べたが、2次元像を配置する面の個数がこれよりも多く、あるいは提示する3次元物体が複数の面をまたがって移動する場合であっても、同様な手法により、3次元立体像を表示可能であり、同様な効果が期待できることは明らかである。
また、前述の説明では、1個の3次元立体像が2次元像を配置する二つの面内で移動する場合について説明したが、複数個の3次元物体が移動する場合、即ち、表示される2次元像が、それぞれ移動方向の異なる複数の物体像を含む場合には、各表示面に表示される物体像の輝度を、物体像毎に、その物体の移動方向および移動速度に応じて変化させればよいことは明らかである。
In the above description, the case where the three-dimensional stereoscopic image moves from the display surface 101 to the display surface 102 has been described, but this moves from the halfway position between the display surfaces (101, 102) to the display surface 102. In the case of moving to a depth position in the middle between the display surface 101 and the display surface (101, 102) or from the depth position in the middle between the display surfaces (101, 102). It is clear that the same can be done even when moving to another depth position in the middle.
In the above description, a description is given of a case where only two surfaces are mainly described among surfaces on which a 2D image is arranged, and a three-dimensional stereoscopic image presented to the observer 100 moves between the two surfaces. However, even if the number of planes on which a two-dimensional image is arranged is larger than this, or even when a three-dimensional object to be presented moves across multiple planes, a three-dimensional stereoscopic image is displayed using the same method. Obviously, similar effects can be expected.
In the above description, the case where one three-dimensional stereoscopic image moves in two planes on which two-dimensional images are arranged has been described. However, when a plurality of three-dimensional objects move, that is, displayed. When the two-dimensional image includes a plurality of object images having different movement directions, the luminance of the object image displayed on each display surface changes for each object image according to the movement direction and movement speed of the object. Obviously, you can do that.

[DFD型の3次元表示装置の他の例]
図8は、本発明の前提となるDFD型の3次元表示装置の他の例を説明するための図である。
図8に示す3次元表示装置は、観察者100の前方に、複数の透過型表示装置、例えば、透過型表示装置(111,112)(透過型表示装置111が透過型表示装置112より観察者100に近い)と、種々の光学素子と、光源110を用いて光学系103を構築する。即ち、本実施例では、前述の図2における表示面(101,102)に代えて、透過形表示装置(111,112)を用いるものである。
前記透過型表示装置(111,112)としては、例えば、ツイストネマティック型液晶ディスプレイ、イン・プレイン型液晶ディスプレイ、ホモジニアス型液晶ディスプレイ、強誘電液晶ディスプレイ、ゲスト−ホスト型液晶ディスプレイ、高分子分散型液晶ディスプレイ、ホログラフィック高分子分散型液晶ディスプレイ、あるいはこれらの組み合わせなどを使用する。また、光学素子としては、例えば、レンズ、全反射鏡、部分反射鏡、曲面鏡、プリズム、偏光素子、波長板などを用いる。
なお、図8では、光源110が、観察者100から見て最も後方に配置された場合を示し、また、図8は、特開2001−54144号公報に記載されているものと同じ構成のものである。
[Other examples of DFD type 3D display devices]
FIG. 8 is a diagram for explaining another example of the DFD type three-dimensional display device as a premise of the present invention.
The three-dimensional display device shown in FIG. 8 has a plurality of transmissive display devices, for example, transmissive display devices (111, 112) (the transmissive display device 111 is more observable than the transmissive display device 112 in front of the viewer 100. The optical system 103 is constructed using various optical elements and a light source 110. That is, in this embodiment, the transmissive display device (111, 112) is used instead of the display surface (101, 102) in FIG.
Examples of the transmissive display device (111, 112) include a twisted nematic liquid crystal display, an in-plane liquid crystal display, a homogeneous liquid crystal display, a ferroelectric liquid crystal display, a guest-host liquid crystal display, and a polymer dispersed liquid crystal. A display, a holographic polymer dispersed liquid crystal display, or a combination thereof is used. In addition, as the optical element, for example, a lens, a total reflection mirror, a partial reflection mirror, a curved mirror, a prism, a polarization element, a wave plate, or the like is used.
8 shows a case where the light source 110 is arranged at the rearmost position when viewed from the observer 100, and FIG. 8 has the same configuration as that described in Japanese Patent Laid-Open No. 2001-54144. It is.

図8に示す3次元表示装置においても、前述の図3に示すように、観察者100に提示したい3次元物体104を、観察者100から見て、前記透過型表示装置(111,112)へ射影した2D化像(107,108)を生成する。
前記2D化像(107,108)を、図8に示すように、各々透過型表示装置111と透過型表示装置112との双方に、観察者100の右眼と左眼を結ぶ線上の一点から見て重なるように、2D化像(107,108)として表示する。
これは、例えば、2D化像(107,108)の各々の中心位置や重心位置の配置と、各々の像の拡大/縮小率を制御することで可能となる。
前記構成を有する装置上で、観察者100が見る像は、光源110から射出された光で、2D化像108を透過し、さらに2D化像107を透過した光によって生成される。
図8に示す3次元表示装置では、前記構成を有する装置上で、2D化像(107,108)の各々の透過度の配分を、観察者100から見た総体的な輝度を一定に保ちつつ、3次元物体104の奥行き位置に対応して変えて、透過型表示装置111と透過型表示装置112との間に存在する3次元物体の3次元立体像を表示する。
Also in the three-dimensional display device shown in FIG. 8, as shown in FIG. 3 described above, the three-dimensional object 104 desired to be presented to the viewer 100 is viewed from the viewer 100 to the transmissive display device (111, 112). A projected 2D image (107, 108) is generated.
As shown in FIG. 8, the 2D image (107, 108) is obtained from one point on the line connecting the right eye and the left eye of the viewer 100 on both the transmissive display device 111 and the transmissive display device 112. The two-dimensional images (107, 108) are displayed so as to overlap.
This can be achieved, for example, by controlling the arrangement of the center position and the gravity center position of each 2D image (107, 108) and the enlargement / reduction ratio of each image.
On the apparatus having the above-described configuration, an image viewed by the observer 100 is generated by light emitted from the light source 110, transmitted through the 2D image 108, and further transmitted through the 2D image 107.
In the three-dimensional display device shown in FIG. 8, the distribution of the transmittance of each of the 2D images (107, 108) is kept constant on the device having the above-described configuration while keeping the overall luminance as viewed from the observer 100 constant. A three-dimensional stereoscopic image of the three-dimensional object existing between the transmissive display device 111 and the transmissive display device 112 is displayed in accordance with the depth position of the three-dimensional object 104.

その2D化像(107,108)の各々の透過度の変え方の一例について説明する。
例えば、3次元物体104が透過型表示装置111上にある場合には、透過型表示装置111上の透過度を、2D化像107の輝度が3次元物体104の輝度に等しくなるように設定し、透過型表示装置112上の2D化像108の部分の透過度を、例えば、その透過型表示装置112の最大値とする。
次に、例えば、3次元物体104が観察者100より少し遠ざかって、透過型表示装置111より透過型表示装置112側に少し寄った位置にある場合には、透過型表示装置111上の2D化像107の部分の透過度を少し増加させ、透過型表示装置112上の2D化像108の部分の透過度を少し減少させる。
次に、例えば、3次元物体104が観察者100よりさらに遠ざかって、透過型表示装置111より透過型表示装置112側にさらに寄った位置にある場合には、透過型表示装置111上の2D化像107の部分の透過度をさらに増加させ、透過型表示装置112上の2D化像108の部分の透過度をさらに減少させる。
さらに、例えば、3次元物体104が透過型表示装置112上にある場合には、透過型表示装置112上の透過度を、2D化像108の輝度が3次元物体104の輝度に等しくなるように設定し、透過型表示装置111上の2D化像107の部分の透過度を、例えば、透過型表示装置111の最大値とする。
An example of how to change the transparency of each of the 2D images (107, 108) will be described.
For example, when the three-dimensional object 104 is on the transmissive display device 111, the transparency on the transmissive display device 111 is set so that the luminance of the 2D image 107 is equal to the luminance of the three-dimensional object 104. For example, the transparency of the portion of the 2D image 108 on the transmissive display device 112 is set to the maximum value of the transmissive display device 112.
Next, for example, when the three-dimensional object 104 is slightly away from the observer 100 and is slightly closer to the transmissive display device 112 than the transmissive display device 111, the 2D display on the transmissive display device 111 is performed. The transmittance of the portion of the image 107 is slightly increased, and the transmittance of the portion of the 2D image 108 on the transmissive display device 112 is slightly decreased.
Next, for example, when the three-dimensional object 104 is further away from the viewer 100 and is closer to the transmissive display device 112 than the transmissive display device 111, 2D conversion on the transmissive display device 111 is performed. The transmittance of the portion of the image 107 is further increased, and the transmittance of the portion of the 2D image 108 on the transmissive display device 112 is further decreased.
Further, for example, when the three-dimensional object 104 is on the transmissive display device 112, the transmittance on the transmissive display device 112 is set so that the luminance of the 2D image 108 is equal to the luminance of the three-dimensional object 104. For example, the transparency of the portion of the 2D image 107 on the transmissive display device 111 is set to the maximum value of the transmissive display device 111.

このように表示することにより、観察者(人)100の生理的あるいは心理的要因あるいは錯覚により、表示しているのが2D化像(107,108)であっても、観察者100にはあたかも透過型表示装置(111,112)の中間に3次元物体104が位置しているように感じられる。
即ち、例えば、透過型表示装置(111,112)にほぼ等輝度の2D化像(107,108)を表示した場合には、透過型表示装置(111,112)の奥行き位置の中間付近に3次元物体104があるように感じられる。この場合に、この3次元物体104は、観察者100には立体感を伴って知覚される。
なお、前述の説明においては、例えば、3次元物体全体の奥行き位置を、例えば、透過型表示装置(111,112)に表示した2次元像を用いて表現する方法について主に述べたが、図8に示す3次元表示装置においても、図2に示す3次元表示装置で説明した方法と同様の手法により、例えば、3次元物体自体が有する奥行きを表現する方法としても使用できることは明らかである。
また、図8に示す3次元表示装置においても、図2に示す3次元表示装置で説明した方法と同様の手法により、2D化像が3次元的に移動する場合には、観察者100の左右上下方向への移動に関しては通常の2次元表示装置の場合と同様に透過型表示装置内での動画再生によって可能であり、また、奥行き方向への移動に関しては、複数の透過型表示装置における透過度の変化を時間的に行うことで、3次元立体像の動画を表現することができることは明らかである。
By displaying in this way, even if a 2D image (107, 108) is displayed due to a physiological or psychological factor or illusion of the observer (person) 100, the observer 100 is as if it is displayed. It feels as if the three-dimensional object 104 is located in the middle of the transmissive display device (111, 112).
That is, for example, when a 2D image (107, 108) having substantially the same luminance is displayed on the transmissive display device (111, 112), 3 near the middle of the depth position of the transmissive display device (111, 112). A dimensional object 104 is felt. In this case, the three-dimensional object 104 is perceived by the observer 100 with a stereoscopic effect.
In the above description, for example, the method of expressing the depth position of the entire three-dimensional object using, for example, a two-dimensional image displayed on the transmissive display device (111, 112) has been mainly described. It is obvious that the three-dimensional display device shown in FIG. 8 can also be used as a method of expressing the depth of the three-dimensional object itself, for example, by a method similar to the method described in the three-dimensional display device shown in FIG.
In the three-dimensional display device shown in FIG. 8, when the 2D image is moved three-dimensionally by the same method as the method described in the three-dimensional display device shown in FIG. The movement in the vertical direction is possible by moving image reproduction in the transmissive display device as in the case of a normal two-dimensional display device, and the movement in the depth direction is transmitted through a plurality of transmissive display devices. It is obvious that a moving image of a three-dimensional stereoscopic image can be expressed by temporally changing the degree.

DFD型の3次元表示装置では、各表示面における観察者100から見た輝度を、各表示面毎に変化させて3次元立体像を表示する。
即ち、図2に示す3次元表示装置では、2D化像(105,106)の各々の輝度の配分を、観察者100から見た総体的な輝度を一定に保ちつつ、3次元物体104の奥行き位置に対応して変化させて3次元立体像を表示する。
また、図8に示す3次元表示装置では、2D化像(107,108)の各々の透過度の配分を、観察者100から見た総体的な輝度を一定に保ちつつ、3次元物体104の奥行き位置に対応して変化させて3次元立体像を表示する。
このように、図2に示す3次元表示装置では、3次元物体104に近い方の面に表示される2D化像の輝度を、3次元物体104に遠い方の面に表示される2D化像の輝度よりも増加させるのに対して、図8に示す3次元表示装置では、3次元物体104に近い方の透過型表示装置に表示される2D化像の透過度を、3次元物体104に遠い方の透過型表示装置に表示される2D化像の透過度よりも減少させる点で異なっている。
したがって、図8に示す3次元表示装置において、図2に示す3次元表示装置と同様の手法を用いて、3次元物体自体が有する奥行きを表現する場合、あるいは、3次元立体像の動画を表現する場合には、図2に示す3次元表示装置において、各表示面に表示される2D化像の輝度を増加させる場合には、各透過型表示装置に表示される2D化像の透過度を減少させ、また、図2に示す3次元表示装置において、各表示面に表示される2D化像の輝度を減少させる場合には、各透過型表示装置に表示される2D化像の透過度を増加させるようにすればよい。
In the DFD type three-dimensional display device, the luminance viewed from the viewer 100 on each display surface is changed for each display surface to display a three-dimensional stereoscopic image.
That is, in the three-dimensional display device shown in FIG. 2, the depth of the three-dimensional object 104 is maintained while keeping the overall luminance viewed from the observer 100 constant in the distribution of the luminance of each of the 2D images (105, 106). A three-dimensional stereoscopic image is displayed in accordance with the position.
Further, in the three-dimensional display device shown in FIG. 8, the distribution of the transparency of each of the 2D images (107, 108) is kept constant for the three-dimensional object 104 while keeping the overall luminance viewed from the observer 100 constant. A three-dimensional stereoscopic image is displayed by changing in accordance with the depth position.
As described above, in the 3D display device shown in FIG. 2, the luminance of the 2D image displayed on the surface closer to the 3D object 104 is set to the 2D image displayed on the surface far from the 3D object 104. In contrast, in the three-dimensional display device shown in FIG. 8, the transparency of the 2D image displayed on the transmission type display device closer to the three-dimensional object 104 is given to the three-dimensional object 104. The difference is that the transmittance of the 2D image displayed on the farther transmissive display device is reduced.
Therefore, in the 3D display device shown in FIG. 8, when the depth of the 3D object itself is expressed using the same method as the 3D display device shown in FIG. 2, or a moving image of a 3D stereoscopic image is expressed. In the case where the luminance of the 2D image displayed on each display surface is increased in the 3D display device shown in FIG. 2, the transmittance of the 2D image displayed on each transmissive display device is increased. In the three-dimensional display device shown in FIG. 2, when the luminance of the 2D image displayed on each display surface is decreased, the transparency of the 2D image displayed on each transmissive display device is reduced. It may be increased.

図9は、本実施例の情報入出力装置1の概略構成を示す機能ブロック図である。
図10は、本実施例の情報入出力装置1の処理手順を示すフローチャートである。
以下、図9、図10を用いて、本実施例の情報入出力装置1の処理手順について説明する。
始めに、制御手段10の制御の基に表示制御手段12が、3次元表示装置3にメニュー画面を表示する(ステップ201)。
次に、位置検出手段11が、タッチパネルコントロール入力部2から位置データに基づき、利用者が触れた位置を検出し(ステップ202)、制御手段10が、当該検出した検出位置付近にメニューボタンがあるか否かを判断する(ステップ203)。
ステップ203での判断結果がNoの場合はステップ202に戻り、ステップ203での判断結果がYesの場合は、制御手段10が表示制御手段12を制御し、表示制御手段12が、3次元表示装置3に、前記検出位置からの距離に応じた奥行き位置でメニューボタンを表示する(ステップ204)。
次に、制御手段10が、位置検出手段11においてタッチパネルコントロール入力部2から位置データに基づき検出した検出位置が変化したか否かを判断する(ステップ205)。
ステップ205での判断結果がYesの場合はステップ204に戻り、ステップ205での判断結果がNoの場合は、メニューボタン内に位置が検出されてから所定時間経過したかを判断する(ステップ206)。
ステップ206で判断結果がNoの場合はステップ205に戻り、ステップ206での判断結果がYesの場合は、制御手段10が、メニューボタンの入力を受け付け、選択されたメニューボタン表示を変化させ、音を鳴らす(ステップ207)。
FIG. 9 is a functional block diagram showing a schematic configuration of the information input / output device 1 of the present embodiment.
FIG. 10 is a flowchart showing the processing procedure of the information input / output device 1 of this embodiment.
Hereinafter, the processing procedure of the information input / output device 1 of this embodiment will be described with reference to FIGS. 9 and 10.
First, the display control means 12 displays a menu screen on the three-dimensional display device 3 under the control of the control means 10 (step 201).
Next, the position detection means 11 detects the position touched by the user based on the position data from the touch panel control input unit 2 (step 202), and the control means 10 has a menu button near the detected detection position. Whether or not (step 203).
If the determination result in Step 203 is No, the process returns to Step 202. If the determination result in Step 203 is Yes, the control means 10 controls the display control means 12, and the display control means 12 is the three-dimensional display device. 3. A menu button is displayed at a depth position corresponding to the distance from the detection position (step 204).
Next, the control means 10 determines whether or not the detection position detected based on the position data from the touch panel control input unit 2 in the position detection means 11 has changed (step 205).
If the determination result in step 205 is Yes, the process returns to step 204. If the determination result in step 205 is No, it is determined whether a predetermined time has elapsed since the position was detected in the menu button (step 206). .
If the determination result in Step 206 is No, the process returns to Step 205. If the determination result in Step 206 is Yes, the control means 10 accepts the input of the menu button, changes the display of the selected menu button, and changes the sound. Is sounded (step 207).

以下、本実施例の情報入出力装置1で、アルファベットの文字を入力する例について説明する。
図11に示すように、3次元表示装置3に、アルファベット各文字に対するキーに見せた二次元画像(所謂、メニューボタン)を利用者(即ち、操作者)から見て遠い奥行き位置に表示する。
利用者が文字を入力する場合は各表示キーに対応した位置を触ることで入力を行うことができる。ここでは文字「D」を入力する場合について示す。
利用者が「D」キーの位置と思った場所を触ると、情報入出力装置1の表示制御手段12が3次元表示装置3に、情報入出力装置1の位置検出手段11が検知した位置に相当するキーを中心として、周りのキーを含めて、キーが利用者に近づく奥行き方向に表示する。
この例では、「D」を検知して、図12に示すように、3次元表示装置3に、「D」が利用者に一番近く、その周りの「E」「R」「S」「F」「X」「C」キーがその次に利用者に近い奥行き位置に表示される。
「D」キーを中心としたキー群が利用者に近づいてくるため、利用者は、情報入出力装置1がどこの位置を検出しているかを認識することができる。
もしここで、利用者が意図したキーと異なるキーが利用者に近づいてくれば、利用者は自分が触っている位置は、自分が押したいキーの場所と認識されないことを、その時点で気付くことができる。
Hereinafter, an example of inputting alphabetic characters in the information input / output device 1 of the present embodiment will be described.
As shown in FIG. 11, a two-dimensional image (so-called menu button) shown as a key for each letter of the alphabet is displayed on the three-dimensional display device 3 at a depth position far from the user (that is, the operator).
When the user inputs characters, the user can input characters by touching the position corresponding to each display key. Here, a case where the character “D” is input will be described.
When the user touches a place that the user thinks is the position of the “D” key, the display control means 12 of the information input / output device 1 moves to the position detected by the three-dimensional display device 3 and the position detection means 11 of the information input / output device 1 With the corresponding key as the center, including the surrounding keys, the key is displayed in the depth direction approaching the user.
In this example, “D” is detected, and “D” is closest to the user on the three-dimensional display device 3 as shown in FIG. 12, and “E”, “R”, “S”, “ The “F”, “X”, and “C” keys are displayed at a depth position next to the user.
Since the key group centering on the “D” key approaches the user, the user can recognize where the information input / output device 1 is detecting.
If a key different from the one intended by the user approaches the user, the user notices that the touched position is not recognized as the location of the key he / she wants to press. be able to.

このため、利用者が意図したキーと異なるキーを情報入出力装置1が認識したと、利用者が分かれば、その時点で触る位置を変える、もしくはタッチコントロールから手を離すことによって、利用者が意図しない文字の入力を防ぐことができる。
利用者が意図したキーと同じキーが反応した場合には、利用者はそのままタッチコントロールを触りつづけることにより、キーの入力が受け付けられる。
この受付が完了した時にはそれを利用者に認識させるために、図13に示すように、3次元表示装置3の表示状態を、キーを押したような表示やキーの色を変化させ、あるいは音を鳴らす等を行う。
前述の例の場合における、キーの奥行き位置、即ち、キーの表示位置の奥行き方向の変化を図14に示す。ここで、利用者が押し続ける時間は300ミリ秒とした。この時間は利用シーンや利用者層に応じて適宜変更することは可能であるが、200ミリ秒から1秒の範囲が有効である。
キー受付を完了した表示を行った後に元の画面にもどり、引き続き入力を続けることができる。
なお、メニューボタンとして直方体など3次元オブジェクトを用いて、3次元表示装置3に表示するキーの奥行き位置を変化させるとともに、キーの奥行き方向の形状も変化させるようにしてもよい。
For this reason, when the information input / output device 1 recognizes a key different from the key intended by the user, if the user knows, the user can change the touch position at that time or release the hand from the touch control. Input of unintended characters can be prevented.
When the same key as the key intended by the user reacts, the user can continue to touch the touch control to accept the key input.
In order to make the user recognize when the reception is completed, the display state of the three-dimensional display device 3 is changed as shown in FIG. And so on.
FIG. 14 shows changes in the depth direction of the key, that is, the display position of the key in the case of the above example. Here, the time for which the user continues to press is 300 milliseconds. This time can be appropriately changed according to the use scene and the user layer, but a range of 200 milliseconds to 1 second is effective.
After displaying that the key has been received, you can return to the original screen and continue to input.
Note that a three-dimensional object such as a rectangular parallelepiped may be used as the menu button to change the depth position of the key displayed on the three-dimensional display device 3 and also to change the shape of the key in the depth direction.

従来の2次元ディスプレイとタッチパネルの組み合わせでは、触っているかどうかが分からないまま入力を受け付けられてしまうことが多いため、誤入力が多くなる。
本実施例では、利用者は入力が受け付けられる前にどこを触っているかを確認することができるため誤入力を減らすことができた。
また、視点が変わると表示装置の表示位置とタッチ入力の検出位置も変わってしまうため、表示装置と入力受付の位置のずれをなくすことは困難である。このことからおきる誤入力も本実施例では防ぐことができた。
従来の装置では、意図せず触った場合の誤作動を防ぐため、意図的に反応時間を遅くする手法も取られているが、触り方が悪くて反応しないのか、違う場所を触ってしまっているのかなどの印象を与えることも多く、利用者にとっては使い勝手が良くなかった。
これに対して、本実施例では、触ったことに対する反応をすぐに確認することができるために、タッチコントロールが感知しているかを利用者がすぐに確認できることで、利用者がストレスを溜めることなくタッチ入力を行うことができるという利点もあった。
In the combination of a conventional two-dimensional display and a touch panel, input is often accepted without knowing whether or not the user is touching.
In this embodiment, since the user can confirm where he / she is touching before the input is accepted, erroneous input can be reduced.
Further, when the viewpoint changes, the display position of the display device and the detection position of the touch input also change, so it is difficult to eliminate the shift between the display device and the input reception position. In this embodiment, erroneous input resulting from this can also be prevented.
In conventional devices, in order to prevent malfunctions when touched unintentionally, a method that intentionally slows the reaction time is also taken, but it does not respond because it is badly touched, or it touches a different place. It often gives an impression of whether or not it is present, so it was not convenient for users.
On the other hand, in this embodiment, since the reaction to the touch can be confirmed immediately, the user can immediately confirm whether the touch control is sensed, so that the user accumulates stress. There is also an advantage that touch input can be performed.

また、従来の装置では触ったことに対して表示色を変えることなどを行っている例もある。しかし、表示色を変えることでは、利用者が入力を受け付けられたと感じてしまう場合や、色が変わったことにすら気付かない場合などが多々あったが、本実施例では、3次元表示装置を使用し、3次元表示装置に表示するキーの奥行き位置を変化させるようにしたため、利用者にとって直感的で非常に分かりやすいために、多くの利用者にとって使いやすい入力装置と感じられる。
なお、本実施例では、3次元表示装置として、DFD表示装置を用いたが、パララックスバリア方式のステレオ法3次元表示装置や異なる奥行き位置の表示が可能な他の方法による3次元表示装置を用いることも可能である。
また、タッチコントロール入力として超音波式のタッチパネルを用いたが、光学式や抵抗皮膜方式など他の方式のタッチパネルを用いることも可能である。
In addition, there is an example in which the display color is changed with respect to what is touched in the conventional apparatus. However, by changing the display color, there are many cases where the user feels that the input has been accepted, or even when the user has not even noticed that the color has changed. In this embodiment, the three-dimensional display device is used. It is used and the depth position of the key displayed on the three-dimensional display device is changed, so that it is intuitive and very easy to understand for the user.
In this embodiment, the DFD display device is used as the three-dimensional display device. However, a stereo method three-dimensional display device using a parallax barrier method or a three-dimensional display device using another method capable of displaying different depth positions is used. It is also possible to use it.
Further, although an ultrasonic touch panel is used as a touch control input, other types of touch panels such as an optical type and a resistance film type can also be used.

[実施例2]
本発明の実施例2の情報入出力装置の概略は図1と同じである。
本実施例では、3次元表示装置3として、パララックスバリア方式の3次元表示液晶ディスプレイ(増田千尋 著、「3次元ディスプレイ」、産業図書、1990年、第5章、p.123参照)を、タッチコントロール入力デバイス2として、抵抗皮膜方式のタッチパネルを用いた。
また、情報入出力装置1として、市販のパーソナルコンピュータ(PC)を使用し、パーソナルコンピュータ(PC)により、3次元表示装置3に表示するメニュー画面を、タッチコントロールデバイス2からの入力位置データに基づき制御した。
本実施例の情報入出力装置1の概略構成も図9と同じである。
図15は、本実施例の情報入出力装置1の処理手順を示すフローチャートである。
以下、図9、図15を用いて、本実施例の情報入出力装置1の処理手順について説明する。
[Example 2]
The outline of the information input / output device according to the second embodiment of the present invention is the same as that shown in FIG.
In this embodiment, as the three-dimensional display device 3, a parallax barrier type three-dimensional display liquid crystal display (see Chihiro Masuda, “Three-dimensional display”, Sangyo Tosho, 1990, Chapter 5, p.123), As the touch control input device 2, a resistance film type touch panel was used.
Further, a commercially available personal computer (PC) is used as the information input / output device 1, and a menu screen displayed on the three-dimensional display device 3 by the personal computer (PC) is based on the input position data from the touch control device 2. Controlled.
The schematic configuration of the information input / output device 1 of the present embodiment is also the same as that shown in FIG.
FIG. 15 is a flowchart showing the processing procedure of the information input / output device 1 of this embodiment.
Hereinafter, the processing procedure of the information input / output device 1 of the present embodiment will be described with reference to FIGS. 9 and 15.

始めに、制御手段10の制御の基に表示制御手段12が、3次元表示装置3にメニュー画面を表示する(ステップ211)。
次に、位置検出手段11が、タッチパネルコントロール入力部2から位置データに基づき、利用者が触れた位置を検出し(ステップ212)、制御手段10が、当該検出した検出位置付近にメニューボタンがあるか否かを判断する(ステップ213)。
ステップ213での判断結果がNoの場合はステップ212に戻り、ステップ213での判断結果がYesの場合は、制御手段10が表示制御手段12を制御し、表示制御手段12が、3次元表示装置3に表示する前記検出位置の文字メニューの奥行き位置の変化を開始する(ステップ214)。
次に、制御手段10が、位置検出手段11においてタッチパネルコントロール入力部2から位置データに基づき検出した検出位置が変化したか否かを判断する(ステップ215)。
ステップ215での判断結果がYesの場合はステップ214に戻り、ステップ215での判断結果がNoの場合は、メニューボタン内に位置が検出されてから所定時間経過したかを判断する(ステップ216)。
ステップ216で判断結果がNoの場合はステップ215に戻り、ステップ216での判断結果がYesの場合は、制御手段10が、メニューボタンの入力を受け付け、選択されたメニューボタン表示を変化させ、音を鳴らす(ステップ217)。
First, the display control means 12 displays a menu screen on the three-dimensional display device 3 under the control of the control means 10 (step 211).
Next, the position detection means 11 detects the position touched by the user based on the position data from the touch panel control input unit 2 (step 212), and the control means 10 has a menu button near the detected detection position. Whether or not (step 213).
If the determination result in step 213 is No, the process returns to step 212. If the determination result in step 213 is Yes, the control means 10 controls the display control means 12, and the display control means 12 is the three-dimensional display device. 3 starts to change the depth position of the character menu of the detected position displayed in step 3 (step 214).
Next, the control means 10 determines whether or not the detection position detected based on the position data from the touch panel control input unit 2 in the position detection means 11 has changed (step 215).
If the determination result in step 215 is Yes, the process returns to step 214. If the determination result in step 215 is No, it is determined whether a predetermined time has elapsed since the position was detected in the menu button (step 216). .
If the determination result in Step 216 is No, the process returns to Step 215. If the determination result in Step 216 is Yes, the control means 10 accepts the input of the menu button, changes the display of the selected menu button, and changes the sound. Is sounded (step 217).

以下、本実施例において、日本語かな文字でメッセージを入力する例を説明する。
図16に示すように、3次元表示装置3に、50音順の仮名文字に対応するキーに似せた画像を、利用者から見て手前の位置に表示する。
利用者が文字を入力する場合は各表示キーに対応した位置を触ることで入力を行うことができる。ここでは「す」を入力する場合について示した。
利用者から見て「す」表示に相当する場所を触ると、図17に示すように、3次元表示装置3に表示される、タッチコントロールデバイス2が検知した位置に相当する文字が、利用者から見て奥の奥行き位置へ変化し始める。
利用者は自分が意図した文字と異なる文字が変化し始めることに気付くと、自分の触っている場所が意図した文字の場所ではないことを認識できるため、その時点で触る場所を変えることによって、誤入力を防いで意図した文字の入力を行うことが可能となる。
また、利用者が意図した文字と同じ文字が変化すれば、利用者は自分が触った場所は意図した文字の入力に対して適切な位置であることを認識できるため、触った状態を続ける。
ここで、利用者が触っている間、3次元表示装置3上の表示されるキーが奥方向へ変化し続けることで、利用者は自分の入力が続いていることを認識できる。同一の文字に対する位置検知が所定時間続いたところで、情報入出力装置はこの文字の入力を受け付ける。
Hereinafter, in this embodiment, an example in which a message is input in Japanese kana characters will be described.
As shown in FIG. 16, an image resembling a key corresponding to a kana character in the order of the Japanese syllabary is displayed on the three-dimensional display device 3 at a position in front of the user.
When the user inputs characters, the user can input characters by touching the position corresponding to each display key. Here, the case of inputting “su” is shown.
When the user touches a place corresponding to the “su” display as seen from the user, as shown in FIG. 17, the character corresponding to the position detected by the touch control device 2 displayed on the three-dimensional display device 3 is displayed on the user. It starts to change to the depth position in the back as viewed from the top.
By recognizing that the place you are touching is not the place of the intended character when you notice that a character that is different from your intended character begins to change, It is possible to input an intended character while preventing erroneous input.
Further, if the same character as the character intended by the user changes, the user can recognize that the place touched by the user is an appropriate position for the input of the intended character, and thus continues the touched state.
Here, while the user is touching, the key displayed on the three-dimensional display device 3 keeps changing in the back direction, so that the user can recognize that his / her input continues. When position detection for the same character continues for a predetermined time, the information input / output device accepts input of this character.

この入力受付と同時に、3次元表示装置3に表示される入力文字はさらに奥方向へ移動し、図18に示すように、同時に文字キーの枠線が点滅し、同時に入力受付の音を鳴らす。その結果、利用者は入力が受け付けられたことを認識できる。
前述の例の場合における、キーの奥行き位置、即ち、キーの表示位置の奥行き方向の変化を図19に示す。ここでは、タッチコントロールデバイス2の検出後直ちに、奥方向への変化を開始し、入力を受け付けるまでの一定時間を400ミリ秒とした。この一定時間は利用シーンや利用者層に応じて適宜変化することが可能である。
従来の3次元表示装置を用いない場合では誤入力を防ぐために入力メニューを大きくするため、通常のディスプレイでは、本実施例に示すような多数の文字を受け付ける表示を行うことは実質的にできなかったが、本実施例ではメニューを小さくしても利用者自身が触っている場所を入力前に確認することができるため、操作の不手際による誤入力を防ぐことができた。
また、従来の装置ではメニューを受け付けた合図として、色を変化させる、音を鳴らす、だけであったため、それが触っていることを示す合図か入力を受け付けたことを示す合図かの混乱を招きやすく、結果として誤入力を招き使いづらい印象を利用者に与える傾向が強かった。
Simultaneously with this input reception, the input characters displayed on the three-dimensional display device 3 further move in the depth direction, and as shown in FIG. 18, the frame of the character key blinks at the same time and the sound of the input reception is sounded at the same time. As a result, the user can recognize that the input has been accepted.
FIG. 19 shows a change in the depth direction of the key, that is, the display position of the key in the case of the above example. Here, immediately after the touch control device 2 is detected, a change in the back direction is started, and a certain time until an input is received is set to 400 milliseconds. This fixed time can be appropriately changed according to the use scene and the user layer.
When the conventional 3D display device is not used, the input menu is enlarged in order to prevent erroneous input, so that it is practically impossible to display a large number of characters as shown in the present embodiment on a normal display. However, in this embodiment, even if the menu is made small, the place touched by the user can be confirmed before the input, so that it is possible to prevent an erroneous input due to an operation error.
In addition, in the conventional device, as the signal for accepting the menu, only the color was changed and the sound was sounded, this caused confusion between the signal indicating that it was touching or the signal indicating that the input was accepted. As a result, there was a strong tendency to give users an impression that it was difficult to use due to erroneous input.

一方、本実施例における、メニューキーを押すと奥へ引っ込むという表示は、実際のボタンを押す場合の事象と似ているために利用者にとって理解しやすいため、多くの利用者が適切な入力が可能となった。
本実施例では、3次元表示装置としてパララックスバリア方式の表示装置を用いたが、DFD表示や異なる奥行き位置の表示が可能な他の方法による3次元表示装置を用いることも可能である。
また、タッチコントロール入力デバイスとして、抵抗皮膜方式のタッチパネルを用いたが、光学式、電磁授受方式等他の方式のタッチパネルを用いることも可能である。
また、本実施例の表示方法において、メニュー自体は2次元平面のオブジェクトであり、そのオブジェクトの奥行き方向を変化させるようにしたが、オブジェクトの奥行き方向の形状も変化させるようにしてもよい。
さらに、本実施例の表示方法において、メニュー自体が3次元オブジェクトで、そのオブジェクトの奥行き方向、および/またはオブジェクトの奥行き方向の形状が変化する方式も可能である。
On the other hand, in the present embodiment, when the menu key is pressed, the indication that the menu key is retracted is similar to the actual event of pressing the button, and is easy for the user to understand. It has become possible.
In this embodiment, a parallax barrier type display device is used as the three-dimensional display device. However, a three-dimensional display device using DFD display or another method capable of displaying different depth positions may be used.
Further, although a resistive film type touch panel is used as the touch control input device, other types of touch panels such as an optical type and an electromagnetic transfer type can also be used.
In the display method of this embodiment, the menu itself is a two-dimensional plane object, and the depth direction of the object is changed. However, the shape of the object in the depth direction may be changed.
Furthermore, in the display method of the present embodiment, a method in which the menu itself is a three-dimensional object and the shape of the object in the depth direction and / or the depth direction of the object is changed is also possible.

[実施例3]
本発明の実施例3の情報入出力装置の概略は図1と同じである。
本実施例では、3次元表示装置3として、DFD方式の3次元表示液晶ディスプレイ、タッチコントロール入力デバイス2として、抵抗皮膜方式のタッチパネルを用いた。
また、情報入出力装置1として、市販のパーソナルコンピュータ(PC)を使用し、パーソナルコンピュータ(PC)により、3次元表示装置3に表示するメニュー画面を、タッチコントロールデバイス2からの入力位置データに基づき制御した。
本実施例の情報入出力装置1の概略構成も図9と同じである。
図20は、本実施例の情報入出力装置1の処理手順を示すフローチャートである。
以下、図9、図20を用いて、本実施例の情報入出力装置1の処理手順について説明する。
[Example 3]
The outline of the information input / output device according to the third embodiment of the present invention is the same as that shown in FIG.
In the present embodiment, a DFD type three-dimensional display liquid crystal display is used as the three-dimensional display device 3, and a resistive film type touch panel is used as the touch control input device 2.
Further, a commercially available personal computer (PC) is used as the information input / output device 1, and a menu screen displayed on the three-dimensional display device 3 by the personal computer (PC) is based on the input position data from the touch control device 2. Controlled.
The schematic configuration of the information input / output device 1 of the present embodiment is also the same as that shown in FIG.
FIG. 20 is a flowchart showing a processing procedure of the information input / output device 1 of this embodiment.
Hereinafter, the processing procedure of the information input / output device 1 of this embodiment will be described with reference to FIGS. 9 and 20.

始めに、制御手段10の制御の基に表示制御手段12が、3次元表示装置3にメニュー画面を表示する(ステップ221)。
次に、位置検出手段11が、タッチパネルコントロール入力部2から位置データに基づき、利用者が触れた位置を検出し(ステップ222)、制御手段10が、当該検出した検出位置付近にメニューボタンがあるか否かを判断する(ステップ223)。
ステップ223での判断結果がNoの場合はステップ222に戻り、ステップ223での判断結果がYesの場合は、制御手段10が表示制御手段12を制御し、表示制御手段12が、3次元表示装置3に表示する前記検出位置の文字メニューの表示色の変化を開始する(ステップ224)。
次に、制御手段10が、位置検出手段11においてタッチパネルコントロール入力部2から位置データに基づき検出した検出位置が変化したか否かを判断する(ステップ225)。
ステップ225での判断結果がYesの場合はステップ224に戻り、ステップ225での判断結果がNoの場合は、メニューボタン内に位置が検出されてから所定時間経過したかを判断する(ステップ226)。
ステップ226で判断結果がNoの場合はステップ225に戻り、ステップ226での判断結果がYesの場合は、制御手段10が、メニューボタンの入力を受け付け、選択されたメニューボタン表示を変化させ、音を鳴らす(ステップ227)。
First, the display control means 12 displays a menu screen on the three-dimensional display device 3 under the control of the control means 10 (step 221).
Next, the position detection means 11 detects the position touched by the user based on the position data from the touch panel control input unit 2 (step 222), and the control means 10 has a menu button near the detected detection position. Whether or not (step 223).
If the determination result in Step 223 is No, the process returns to Step 222. If the determination result in Step 223 is Yes, the control means 10 controls the display control means 12, and the display control means 12 is the three-dimensional display device. 3 starts the change of the display color of the character menu of the detection position displayed in 3 (step 224).
Next, the control means 10 determines whether or not the detection position detected based on the position data from the touch panel control input unit 2 in the position detection means 11 has changed (step 225).
If the determination result in step 225 is Yes, the process returns to step 224. If the determination result in step 225 is No, it is determined whether a predetermined time has elapsed since the position was detected in the menu button (step 226). .
If the determination result in step 226 is No, the process returns to step 225. If the determination result in step 226 is Yes, the control means 10 accepts the input of the menu button, changes the selected menu button display, and Is sounded (step 227).

以下、本実施例において、日本語かな文字でメッセージを入力する例を示す。
図21に示すように、3次元表示装置に、50音順の仮名文字に対応するキーに似せた画像を利用者から見て手前の位置に表示する。
利用者が文字を入力する場合は各表示キーに対応した位置を触ることで入力を行うことができる。ここでは「す」を入力する場合について示した。
利用者から見て「す」表示に相当する場所を触ると、図22に示すように、3次元表示装置3に表示される、タッチコントロールデバイス2が検知した位置に相当する文字の表示色が徐々に濃くなる。
利用者は自分が意図した文字と異なる文字が変化し始めることに気付くと、自分の触っている場所が意図した文字の場所ではないことを認識できるため、その時点で触る場所を変えることによって、誤入力を防いで意図した文字の入力を行うことが可能となる。
また、利用者が意図した文字と同じ文字が変化すれば、利用者は自分が触った場所は意図した文字の入力に対して適切な位置であることを認識できるため、触った状態を続ける。
ここで、利用者が触っている間、表示色を変化し続けることで、利用者は自分の入力が続いていることを認識できる。
Hereinafter, in this embodiment, an example in which a message is input in Japanese Kana characters is shown.
As shown in FIG. 21, an image resembling a key corresponding to a kana character in the order of the Japanese syllabary is displayed on the three-dimensional display device at a position in front of the user.
When the user inputs characters, the user can input characters by touching the position corresponding to each display key. Here, the case of inputting “su” is shown.
When a user touches a place corresponding to the “su” display, the display color of the character corresponding to the position detected by the touch control device 2 displayed on the three-dimensional display device 3 is displayed as shown in FIG. It gradually gets darker.
By recognizing that the place you are touching is not the place of the intended character when you notice that a character that is different from your intended character begins to change, It is possible to input an intended character while preventing erroneous input.
Further, if the same character as the character intended by the user changes, the user can recognize that the place touched by the user is an appropriate position for the input of the intended character, and thus continues the touched state.
Here, by continuously changing the display color while the user is touching, the user can recognize that his input continues.

さらに、利用者が触ったことを情報入出力装置が検知してから音を徐々に大きくし、さらに音階を徐々に高くしていくことにより利用者は装置が文字を受け付ける時期が迫っていることを認識できる。
同一の文字に対する位置検知が所定時間続いたところで、制御手段10は、この文字の入力を受け付ける。ここでは、利用者が触った時に音を変化させているが、触っている間は一定の音でも一定の効果を得ることは可能である。
図23に示すように、この入力受付と同時に、3次元表示装置3に表示される入力文字は、利用者から見て奥方向へ移動し、同時に文字キーの枠線が点滅し、同時に入力受付の音を鳴らす。
その結果、利用者は入力が受け付けられたことを認識できる。ここでは、タッチコントロールデバイス2の検出後直ちに、奥方向への変化を開始し、入力を受け付けるまでの所定時間を500ミリ秒とした。この所定時間は利用シーンや利用者層に応じて適宜変化することが可能である。
Furthermore, when the information input / output device detects that the user has touched it, the sound is gradually increased and the scale is gradually increased so that the user is about to accept characters. Can be recognized.
When the position detection for the same character continues for a predetermined time, the control means 10 accepts the input of this character. Here, the sound is changed when the user touches it, but it is possible to obtain a certain effect even with a constant sound while touching.
As shown in FIG. 23, simultaneously with this input reception, the input characters displayed on the 3D display device 3 move in the rearward direction as viewed from the user, and at the same time, the borders of the character keys blink, and the input reception is performed simultaneously. Sound.
As a result, the user can recognize that the input has been accepted. Here, immediately after the touch control device 2 is detected, the change in the back direction is started and the predetermined time until the input is received is set to 500 milliseconds. This predetermined time can be appropriately changed according to the use scene and the user layer.

従来の3次元表示装置を用いない場合では、誤入力を防ぐために入力メニューを大きくするため、通常のディスプレイでは本実施例に示すような多数の文字を受け付ける表示を行うことは実質的にできなかったが、本実施例ではメニューを小さくしても利用者自身が触っている場所を入力前に確認することができるため、操作の不手際による誤入力を防ぐことができた。
また、従来の装置ではメニューを受け付けた合図として、色を変化させる、音を鳴らす、だけであったため、それが触っていることを示す合図か入力を受け付けたことを示す合図かの混乱を招きやすく、結果として誤入力を招き使いづらい印象を利用者に与える傾向が強かった。
一方、本実施例における、メニューキーを押すと奥へ引っ込むという表示は、実際のボ
タンを押す場合の事象と似ているために利用者にとって理解しやすいため、多くの利用者が適切な入力が可能となった。
When the conventional 3D display device is not used, the input menu is enlarged in order to prevent erroneous input, so that it is practically impossible to display a large number of characters as shown in the present embodiment on a normal display. However, in this embodiment, even if the menu is made small, the place touched by the user can be confirmed before the input, so that it is possible to prevent an erroneous input due to an operation error.
In addition, in the conventional device, as the signal for accepting the menu, only the color was changed and the sound was sounded, this caused confusion between the signal indicating that it was touching or the signal indicating that the input was accepted. As a result, there was a strong tendency to give users an impression that it was difficult to use due to erroneous input.
On the other hand, in the present embodiment, when the menu key is pressed, the indication that the menu key is retracted is similar to the actual event of pressing the button, and is easy for the user to understand. It has become possible.

なお、本実施例では、3次元表示装置としてDFD方式の表示装置を用いたが、異なる奥行き位置の表示が可能な他の方法による3次元表示装置を用いることも可能である。
また、タッチコントロール入力デバイスとして、抵抗皮膜方式のタッチパネルを用いたが、光学式、電磁授受方式等他の方式のタッチパネルを用いることも可能である。
また、本実施例の表示方法において、メニュー自体は2次元平面のオブジェクトであり、そのオブジェクトの奥行き方向を変化させるようにしたが、オブジェクトの奥行き方向の形状も変化させるようにしてもよい。
さらに、本実施例の表示方法において、メニュー自体が3次元オブジェクトで、そのオブジェクトの奥行き方向、および/またはオブジェクトの奥行き方向の形状が変化する方式も可能である。
なお、前述の図10、図15、図20に示す処理は、パーソナルコンピュータ上のソフトウェアによっても実現でき、このプログラムを記録媒体、あるいは、ネットワークを通して提供することも可能である。
以上、本発明者によってなされた発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
In the present embodiment, a DFD display device is used as the three-dimensional display device. However, a three-dimensional display device using another method capable of displaying different depth positions can be used.
Further, although a resistive film type touch panel is used as the touch control input device, other types of touch panels such as an optical type and an electromagnetic transfer type can also be used.
In the display method of this embodiment, the menu itself is a two-dimensional plane object, and the depth direction of the object is changed. However, the shape of the object in the depth direction may be changed.
Furthermore, in the display method of the present embodiment, a method in which the menu itself is a three-dimensional object and the shape of the object in the depth direction and / or the depth direction of the object is changed is also possible.
The processing shown in FIGS. 10, 15, and 20 can be realized by software on a personal computer, and the program can be provided through a recording medium or a network.
As mentioned above, the invention made by the present inventor has been specifically described based on the above embodiments. However, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Of course.

本発明の実施例の情報入出力装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the information input / output device of the Example of this invention. DFD型の3次元表示装置の一例を説明するための図である。It is a figure for demonstrating an example of a DFD type three-dimensional display apparatus. 図2に示すDFD型の3次元表示装置の表示面に表示される2D化像の生成方法を説明するための図である。FIG. 3 is a diagram for explaining a method of generating a 2D image displayed on the display surface of the DFD type three-dimensional display device shown in FIG. 2. 図2に示すDFD型の3次元表示装置の表示原理を説明するための図である。It is a figure for demonstrating the display principle of the DFD type three-dimensional display apparatus shown in FIG. 図2に示すDFD型の3次元表示装置の表示原理を説明するための図である。It is a figure for demonstrating the display principle of the DFD type three-dimensional display apparatus shown in FIG. 図2に示すDFD型の3次元表示装置の表示原理を説明するための図である。It is a figure for demonstrating the display principle of the DFD type three-dimensional display apparatus shown in FIG. 図2に示すDFD型の3次元表示装置の表示原理を説明するための図である。It is a figure for demonstrating the display principle of the DFD type three-dimensional display apparatus shown in FIG. DFD型の3次元表示装置の他の例を説明するための図である。It is a figure for demonstrating the other example of the three-dimensional display apparatus of a DFD type. 本発明の実施例1の情報入出力装置の概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the information input / output apparatus of Example 1 of this invention. 本発明の実施例1の情報入出力装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the information input / output apparatus of Example 1 of this invention. 本発明の実施例1の情報入出力装置において、3次元表示装置に表示されるキーの表示例を示す図である。It is a figure which shows the example of a display of the key displayed on a three-dimensional display apparatus in the information input / output device of Example 1 of this invention. 本発明の実施例1の情報入出力装置において、利用者がタッチ入力を行った時に、3次元表示装置に表示される表示例を示す図である。In the information input / output apparatus of Example 1 of this invention, when a user performs touch input, it is a figure which shows the example of a display displayed on a three-dimensional display apparatus. 本発明の実施例1の情報入出力装置において、入力を受け付けた時に、3次元表示装置に表示される表示例を示す図である。In the information input / output device of Example 1 of this invention, it is a figure which shows the example of a display displayed on a three-dimensional display device, when input is received. 本発明の実施例1の情報入出力装置において、利用者の操作と、3次元表示装置に表示されるキーオブジェクトの奥行き位置との関係例を表す図である。In the information input / output apparatus of Example 1 of this invention, it is a figure showing the example of a relationship between a user's operation and the depth position of the key object displayed on a three-dimensional display apparatus. 本発明の実施例2の情報入出力装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the information input / output apparatus of Example 2 of this invention. 本発明の実施例2の情報入出力装置において、3次元表示装置に表示されるキーの表示例を示す図である。It is a figure which shows the example of a display of the key displayed on a three-dimensional display apparatus in the information input / output device of Example 2 of this invention. 本発明の実施例2の情報入出力装置において、利用者がタッチ入力を行った時に、3次元表示装置に表示される表示例を示す図である。It is a figure which shows the example of a display displayed on a three-dimensional display device, when a user performs touch input in the information input / output device of Example 2 of this invention. 本発明の実施例2の情報入出力装置において、入力を受け付けた時に、3次元表示装置に表示される表示例を示す図である。It is a figure which shows the example of a display displayed on a three-dimensional display device, when the input is received in the information input / output device of Example 2 of this invention. 本発明の実施例2の情報入出力装置において、利用者の操作と、3次元表示装置に表示されるキーオブジェクトの奥行き位置との関係例を表す図である。It is a figure showing the example of a relationship between a user's operation and the depth position of the key object displayed on a three-dimensional display apparatus in the information input / output device of Example 2 of this invention. 本発明の実施例3の情報入出力装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the information input / output device of Example 3 of this invention. 本発明の実施例3の情報入出力装置において、3次元表示装置に表示されるキーの表示例を示す図である。It is a figure which shows the example of a display of the key displayed on a three-dimensional display apparatus in the information input / output device of Example 3 of this invention. 本発明の実施例3の情報入出力装置において、利用者がタッチ入力を行った時に、3次元表示装置に表示される表示例を示す図である。It is a figure which shows the example of a display displayed on a three-dimensional display device, when a user performs a touch input in the information input / output device of Example 3 of this invention. 本発明の実施例3の情報入出力装置において、入力を受け付けた時に、3次元表示装置に表示される表示例を示す図である。It is a figure which shows the example of a display displayed on a three-dimensional display device, when the input is received in the information input / output device of Example 3 of this invention.

符号の説明Explanation of symbols

1 情報入出力装置
2 タッチパネルコントロール入力デバイス
3 3次元表示装置
10 制御手段
11 位置検出手段
12 表示制御手段
100 観察者
101,102 表示面
103 光学系
104 3次元物体
105,106,107,108 2D化像
110 光源


DESCRIPTION OF SYMBOLS 1 Information input / output apparatus 2 Touch-panel control input device 3 3D display apparatus 10 Control means 11 Position detection means 12 Display control means 100 Observer 101,102 Display surface 103 Optical system 104 Three-dimensional object 105,106,107,108 2D conversion Image 110 Light source


Claims (6)

3次元表示装置に表示された複数のオブジェクトの中から操作者が指し示すオブジェクトを入力オブジェクトとして選択する情報入力方法において、
前記3次元表示装置は、操作者から見て異なった奥行き位置に配置した複数の表示面を有し、前記複数の表示面に対して表示対象物を操作者の視線方向から射影した2次元像を、前記操作者から見て異なった奥行き位置に配置される複数の表示面に対してそれぞれ表示し、前記複数の表示面に表示される2次元像の前記操作者から見た輝度を各表示面毎にそれぞれ独立に変化させて3次元立体像を表示し、
前記操作者が指し示すオブジェクトの奥行き位置を変化させて前記3次元表示装置に表示するとともに、前記操作者が指し示すオブジェクトの周囲の前記オブジェクトの奥行き位置の変化量を前記操作者が指し示している位置からの距離に応じて変化させて表示する第1の過程と、
前記第1の過程において、前記操作者が所定時間オブジェクトを指し示す操作を続けた場合に該当するオブジェクトを入力オブジェクトとして選択するとともに、該当するオブジェクトの奥行き位置の変化量を、さらに変化させて表示する第2の過程とを有することを特徴とする情報入力方法。
In an information input method for selecting an object indicated by an operator from among a plurality of objects displayed on a three-dimensional display device as an input object,
The three-dimensional display device has a plurality of display surfaces arranged at different depth positions as viewed from the operator, and a two-dimensional image obtained by projecting a display object on the plurality of display surfaces from the line-of-sight direction of the operator Are respectively displayed on a plurality of display surfaces arranged at different depth positions as viewed from the operator, and the brightness of the two-dimensional image displayed on the plurality of display surfaces is viewed from the operator. 3D images are displayed by changing each surface independently.
The depth position of the object pointed to by the operator is changed and displayed on the three-dimensional display device, and the amount of change in the depth position of the object around the object pointed to by the operator is changed from the position pointed to by the operator. A first process of changing and displaying according to the distance of
In the first process, when the operator continues the operation pointing to the object for a predetermined time, the corresponding object is selected as the input object, and the change amount of the depth position of the corresponding object is further changed and displayed. information input method and having a second step.
前記第2の過程において、前記オブジェクトの奥行き位置の変化量をさらに変化させる際に、前記第1の過程において変化させた奥行き方向と逆方向に変化させることを特徴とする請求項1に記載の情報入力方法。 2. The method according to claim 1, wherein when the amount of change in the depth position of the object is further changed in the second process, the depth direction is changed in a direction opposite to the depth direction changed in the first process. Information input method. 前記第2の過程において、前記オブジェクトの奥行き位置の変化量をさらに変化させる際に、前記第1の過程において変化させた奥行き方向と同一向に変化させることを特徴とする請求項1に記載の情報入力方法。 2. The information according to claim 1, wherein when the amount of change in the depth position of the object is further changed in the second step, the depth direction changed in the first step is changed in the same direction. input method. 複数のオブジェクトを表示し、当該複数のオブジェクトの中からあるオブジェクトを選択することによって情報を入力するための3次元表示装置を、当該表示部の前面に配置され操作者が指し示す位置を特定することができる入力部からの入力に基づき制御する情報入出力装置であって、
前記3次元表示装置は、操作者から見て異なった奥行き位置に配置した複数の表示面を有し、前記複数の表示面に対して表示対象物を操作者の視線方向から射影した2次元像を、前記操作者から見て異なった奥行き位置に配置される複数の表示面に対してそれぞれ表示し、前記複数の表示面に表示される2次元像の前記操作者から見た輝度を各表示面毎にそれぞれ独立に変化させて3次元立体像を表示し、
前記操作者が指し示すオブジェクトの奥行き位置を変化させて前記3次元表示装置に表示するとともに、前記操作者が指し示すオブジェクトの周囲の前記オブジェクトの奥行き位置の変化量を前記操作者が指し示している位置からの距離に応じて変化させて表示する第1の手段と、
前記操作者が所定時間オブジェクトを指し示す操作を続けた場合に、該当するオブジェクトを入力オブジェクトとして選択するとともに、該当するオブジェクトの奥行き位置の変化量を、さらに変化させて表示する第2の手段とを有することを特徴とする情報入出力装置。
A three-dimensional display device for displaying a plurality of objects and inputting information by selecting an object from among the plurality of objects is located in front of the display unit and specifies a position indicated by an operator An information input / output device that controls based on an input from an input unit,
The three-dimensional display device has a plurality of display surfaces arranged at different depth positions as viewed from the operator, and a two-dimensional image obtained by projecting a display object on the plurality of display surfaces from the line-of-sight direction of the operator Are respectively displayed on a plurality of display surfaces arranged at different depth positions as viewed from the operator, and the brightness of the two-dimensional image displayed on the plurality of display surfaces is viewed from the operator. 3D images are displayed by changing each surface independently.
The depth position of the object pointed to by the operator is changed and displayed on the three-dimensional display device, and the amount of change in the depth position of the object around the object pointed to by the operator is changed from the position pointed to by the operator. First means for changing and displaying according to the distance,
A second means for selecting, when the operator continues an operation pointing to the object for a predetermined time, selecting the corresponding object as an input object and further changing the amount of change in the depth position of the corresponding object; information output device you, comprising.
前記第2の手段は、前記オブジェクトの奥行き位置の変化量をさらに変化させる際に、前記第1の手段において変化させた奥行き方向と逆方向に変化させることを特徴とする請求項4に記載の情報入出力装置 The said 2nd means changes the depth direction changed in the said 1st means in the reverse direction, when changing further the variation | change_quantity of the depth position of the said object. Information input / output device . 前記第2の手段は、前記オブジェクトの奥行き位置の変化量をさらに変化させる際に、前記第1の手段において変化させた奥行き方向と同一方向に変化させることを特徴とする請求項4に記載の情報入出力装置 5. The method according to claim 4, wherein when the amount of change in the depth position of the object is further changed, the second means changes in the same direction as the depth direction changed in the first means. Information input / output device .
JP2004134972A 2004-04-30 2004-04-30 Information input method and information input / output device Expired - Lifetime JP3939709B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004134972A JP3939709B2 (en) 2004-04-30 2004-04-30 Information input method and information input / output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004134972A JP3939709B2 (en) 2004-04-30 2004-04-30 Information input method and information input / output device

Publications (2)

Publication Number Publication Date
JP2005316790A JP2005316790A (en) 2005-11-10
JP3939709B2 true JP3939709B2 (en) 2007-07-04

Family

ID=35444136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004134972A Expired - Lifetime JP3939709B2 (en) 2004-04-30 2004-04-30 Information input method and information input / output device

Country Status (1)

Country Link
JP (1) JP3939709B2 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8312372B2 (en) 2006-02-10 2012-11-13 Microsoft Corporation Method for confirming touch input
WO2008062586A1 (en) * 2006-11-22 2008-05-29 Sharp Kabushiki Kaisha Display, display method, display program, and recording medium
GB2457691A (en) * 2008-02-21 2009-08-26 Sharp Kk Display with regions simultaneously operable in different viewing modes
JP5023131B2 (en) * 2009-10-16 2012-09-12 株式会社コナミデジタルエンタテインメント Input receiving device, input receiving method, and program
JP5446769B2 (en) * 2009-11-20 2014-03-19 富士通モバイルコミュニケーションズ株式会社 3D input display device
JP5238676B2 (en) * 2009-11-24 2013-07-17 株式会社コナミデジタルエンタテインメント Input receiving device, input determination method, and program
JP5639384B2 (en) * 2010-05-28 2014-12-10 株式会社Nttドコモ Display device and program
JP2012089112A (en) * 2010-09-22 2012-05-10 Nikon Corp Image display device
DE112010005947T5 (en) * 2010-10-20 2013-08-08 Mitsubishi Electric Corporation Stereoscopic three-dimensional display device
JP5776964B2 (en) * 2011-03-04 2015-09-09 日本電気株式会社 Information display device, display control method, and program
JP2012190184A (en) 2011-03-09 2012-10-04 Sony Corp Image processing device, method, and program
JP2012190183A (en) * 2011-03-09 2012-10-04 Sony Corp Image processing device, method, and program
EP2693405A4 (en) * 2011-03-31 2014-09-03 Fujifilm Corp Stereoscopic display device, method for accepting instruction, program, and medium for recording same
JP2012226691A (en) * 2011-04-22 2012-11-15 Ntt Docomo Inc Display control device and display control method
JP5670255B2 (en) 2011-05-27 2015-02-18 京セラ株式会社 Display device
JP2012252386A (en) * 2011-05-31 2012-12-20 Ntt Docomo Inc Display device
JP5864144B2 (en) 2011-06-28 2016-02-17 京セラ株式会社 Display device
JPWO2013077338A1 (en) * 2011-11-21 2015-04-27 株式会社ニコン Display device, display control program
JP5882751B2 (en) * 2012-01-18 2016-03-09 京セラ株式会社 Touch panel mobile terminal
JP5836434B2 (en) * 2014-06-12 2015-12-24 日本電信電話株式会社 Document display device, document display method, and program
JP6277882B2 (en) * 2014-06-20 2018-02-14 船井電機株式会社 Input device
JP6126195B2 (en) * 2015-12-24 2017-05-10 京セラ株式会社 Display device
JP6269692B2 (en) * 2016-01-26 2018-01-31 株式会社ニコン Display device, electronic device, and program
JP6424947B2 (en) * 2017-12-27 2018-11-21 株式会社ニコン Display device and program
JP7119398B2 (en) * 2018-02-06 2022-08-17 富士フイルムビジネスイノベーション株式会社 Information processing device and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62242220A (en) * 1986-04-14 1987-10-22 Hitachi Ltd Input control system
JPH02153415A (en) * 1988-12-06 1990-06-13 Hitachi Ltd keyboard device
JPH05128707A (en) * 1991-10-31 1993-05-25 Sony Corp Disk player
JPH0962446A (en) * 1995-08-22 1997-03-07 Matsushita Electric Works Ltd Touch panel input method and device therefor
JP3460671B2 (en) * 1999-06-04 2003-10-27 日本電信電話株式会社 Three-dimensional display method and device
JP3478192B2 (en) * 1999-08-20 2003-12-15 日本電気株式会社 Screen superimposed display type information input / output device
JP2001255999A (en) * 2000-03-10 2001-09-21 Oki Electric Ind Co Ltd Touch panel input device

Also Published As

Publication number Publication date
JP2005316790A (en) 2005-11-10

Similar Documents

Publication Publication Date Title
JP3939709B2 (en) Information input method and information input / output device
JP4468370B2 (en) Three-dimensional display method, apparatus and program
CN103914222B (en) Image display device and its control method
CN105808015B (en) Peep-proof user interaction means and method
US7312791B2 (en) Display unit with touch panel
JP4568310B2 (en) Display device with touch panel
TWI471820B (en) Mobile terminal and operation control method thereof
US6882337B2 (en) Virtual keyboard for touch-typing using audio feedback
US9164621B2 (en) Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium
CN105589594B (en) Electronic device and operation control method of electronic device
EP3007441A1 (en) Interactive displaying method, control method and system for achieving displaying of a holographic image
US9298255B2 (en) Transmissive display apparatus and operation input method
US20090102603A1 (en) Method and apparatus for providing authentication with a user interface system
KR20120117219A (en) Mobile twrminal and 3d image controlling method thereof
JP2008071102A (en) Point diagram display device
JP2003502699A (en) Haptic interface system for electronic data display system
US20170083229A1 (en) Magnifying display of touch input obtained from computerized devices with alternative touchpads
KR20210005913A (en) Display physical input devices as virtual objects
US20120229451A1 (en) method, system and apparatus for display and browsing of e-books
US20100007602A1 (en) Image display device
JP2005189426A (en) Information display device and information input / output device
JP5203285B2 (en) Instruction input device, display device, display method, display processing program, and computer-readable recording medium
JP2014191629A (en) Display device and screen control method in the same device
JP2002049461A (en) Data input device
JP2015060268A (en) Input device and input system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070328

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120406

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140406

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350