JPH08212005A - 3D position recognition touch panel device - Google Patents
3D position recognition touch panel deviceInfo
- Publication number
- JPH08212005A JPH08212005A JP1896295A JP1896295A JPH08212005A JP H08212005 A JPH08212005 A JP H08212005A JP 1896295 A JP1896295 A JP 1896295A JP 1896295 A JP1896295 A JP 1896295A JP H08212005 A JPH08212005 A JP H08212005A
- Authority
- JP
- Japan
- Prior art keywords
- display surface
- input
- touch panel
- panel device
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Position Input By Displaying (AREA)
Abstract
(57)【要約】
【目的】 ディスプレイ面に直接指などを触れることな
く入力作業が行え、また複数回の拡大操作を1回の入力
で済ますことを可能にすること。
【構成】 ディスプレイ面(1)に対しその周囲の垂直
方向に設けられ、空間内に挿入された物体(3)の位置
を検出する複数のセンサ(2)と、複数のセンサによる
検出結果に基づいて物体が指し示すディスプレイ面上の
位置を計算する計算手段と、該計算手段によって得られ
たディスプレイ面上の位置に物体が指し示していること
を表わす指示ポイント(4)を表示する表示手段とを有
し、ディスプレイ面に最も近いセンサが空間内に挿入さ
れた物体(3)を感知した場合または指示ポイントが入
力エリアを表わす所定座標区域内に一定時間存在したと
判断された場合に入力を確定する。また、検出された物
体先端の位置と表示拡大率と対応づけておく。
(57) [Summary] [Purpose] To enable input work without touching the display surface directly with fingers, etc., and to enable multiple enlargement operations with one input. A plurality of sensors (2) provided in a direction perpendicular to the display surface (1) around the display surface (1) and detecting the position of an object (3) inserted in the space, and based on detection results by the plurality of sensors. A calculation means for calculating the position on the display surface pointed by the object, and a display means for displaying an instruction point (4) indicating that the object is pointing at the position on the display surface obtained by the calculation means. Then, the input is confirmed when the sensor closest to the display surface senses the object (3) inserted in the space or when it is determined that the pointing point exists within a predetermined coordinate area representing the input area for a certain time. . Further, the detected position of the tip of the object and the display enlargement ratio are associated with each other.
Description
【0001】[0001]
【産業上の利用分野】本発明は、タッチパネル装置に関
し、特に、指などの物体の3次元的な位置を認識するこ
とによりディスプレイ面に直接タッチしなくても入力を
行うことができ、かつその位置(深度)により異なる機
能を行わせることを可能にした3次元位置認識タッチパ
ネル装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a touch panel device, and more particularly, to recognizing a three-dimensional position of an object such as a finger so that an input can be made without directly touching the display surface. The present invention relates to a three-dimensional position recognition touch panel device capable of performing different functions depending on the position (depth).
【0002】[0002]
【従来の技術】従来のタッチパネル装置における入力
は、ディスプレイ面にタッチすることにより行われる。
例えば、特開平4−303229号公報「タッチパネル
装置」に開示されているように、位置検出部によって利
用者がディスプレイ面にタッチしたことを検出し、該検
出されたディスプレイ面上の位置に「+」などの位置表
示記号を表示して利用者にタッチした位置を確認させる
ことによって誤操作を防止するようにした方法が知られ
ている。2. Description of the Related Art Input in a conventional touch panel device is made by touching a display surface.
For example, as disclosed in Japanese Patent Application Laid-Open No. 4-303229, "Touch Panel Device", the position detecting unit detects that the user has touched the display surface, and "+" is added to the detected position on the display surface. There is known a method in which a erroneous operation is prevented by displaying a position display symbol such as “” to allow the user to confirm the touched position.
【0003】[0003]
【発明が解決しようとする課題】上記従来の方法では、
タッチパネル装置を利用して業務上の取引等を行う場
合、ディスプレイ面にタッチすることにより入力作業を
行うようにしているため、例えば、潔癖性の利用者も何
等かの手段を用いて必ずディスプレイ面にタッチしなけ
ればならないという問題があった。また、上述したよう
な従来のタッチパネル装置では、ディスプレイ面への1
回のタッチが1回の入力に相当するために、情報提供、
例えば地理情報等を提供する際、利用者が目的とする地
域を限定するまでに複数回の拡大機能の入力を必要とし
ていた。本発明の目的は、ディスプレイ面上の入力エリ
アに直接指などを触れることなく入力作業が行えるよう
にして、利用者がクリーンなイメージで作業を行えるタ
ッチパネル装置を提供することにある。また、指などの
物体の3次元的な位置を認識させてその位置情報に依存
して機能を異ならせることにより拡大操作の回数を少な
くすることができるタッチパネル装置を提供することに
ある。In the above conventional method,
When performing business transactions using the touch panel device, since the input work is performed by touching the display surface, for example, a user who has a habit of using a touch screen always uses some means to display the screen. There was a problem that I had to touch. In addition, in the conventional touch panel device as described above, it is possible to
Information is provided because one touch corresponds to one input,
For example, when providing geographical information and the like, it was necessary for the user to input the expansion function a plurality of times before limiting the target area. An object of the present invention is to provide a touch panel device that allows a user to perform an input work without touching the input area on the display surface with a finger or the like, so that the user can work with a clean image. Another object of the present invention is to provide a touch panel device that can reduce the number of enlargement operations by recognizing the three-dimensional position of an object such as a finger and changing the function depending on the position information.
【0004】[0004]
【課題を解決するための手段】本発明のタッチパネル装
置は、上記目的を達成するために、ディスプレイ面
(1)に対し垂直方向に空間的厚みを持たせ、その上面
および下面を除く側面に設けられ、空間内に挿入された
物体の位置を検出する複数のセンサ(2)と、該複数の
センサ(2)による検出結果に基づいて物体が指し示す
ディスプレイ面(1)上の位置を計算する計算手段と、
該計算手段によって得られたディスプレイ面(1)上の
位置に物体が指し示していることを表わす指示ポイント
(4)を表示する表示手段とを有することを特徴として
いる。また、複数のセンサ(2)のうち、ディスプレイ
面(1)に最も近いセンサ(6)が空間内に挿入された
物体(3)を感知した場合またはディスプレイ面(1)
に表示されている指示ポイント(4)が入力エリアを表
わす所定座標区域内に一定時間存在したと判断された場
合に入力を確定するようにしたことを特徴としている。
さらに、複数のセンサ(2)の出力によって空間内に挿
入された物体(3)の先端とディスプレイ面(1)との
距離を判定し、その距離に依存して画像の拡大率を変化
させるようにしたことを特徴としている。In order to achieve the above object, a touch panel device of the present invention is provided with a spatial thickness in the direction perpendicular to the display surface (1) and is provided on the side surfaces except the upper surface and the lower surface thereof. A plurality of sensors (2) for detecting the position of the object inserted into the space, and a calculation for calculating the position on the display surface (1) pointed by the object based on the detection results by the plurality of sensors (2) Means and
Display means for displaying an instruction point (4) indicating that an object is pointing at the position on the display surface (1) obtained by the calculation means. When the sensor (6) closest to the display surface (1) of the plurality of sensors (2) senses the object (3) inserted in the space, or the display surface (1)
It is characterized in that the input is confirmed when it is determined that the instruction point (4) displayed in (4) exists within a predetermined coordinate area representing the input area for a certain period of time.
Furthermore, the distance between the tip of the object (3) inserted in the space and the display surface (1) is determined by the outputs of the plurality of sensors (2), and the magnification of the image is changed depending on the distance. It is characterized by having done.
【0005】[0005]
【作用】本発明は、ディスプレイ面の周囲に設けた複数
のセンサが空間内に挿入された物体の位置を検出し、そ
の結果からディスプレイ面のどの位置を指しているかを
認識し、指示ポイントとしてディスプレイ面上に表示す
る。そして、最深部のセンサがその物体を感知した場
合、もしくはディスプレイ面上の該指示ポイントが入力
エリア上を表わす座標内に一定時間存在した場合に入力
確定と判断することによって直接ディスプレイ面に触れ
る必要がなくなった。また、従来のタッチパネル装置で
は、上述したように、例えば、地図などの地理情報を提
供する際、利用者が目的とする地域を限定するまでに数
回の選択入力を必要としていたが、本構成では、例え
ば、複数のセンサを格子状に配置することによって空間
内に存在する物体の位置を多段階に感知することが可能
となり、指示ポイントを中心とした一定エリア内の画像
を拡大、または詳細に表示することができるため弱視者
の方に対し親切な設計が可能になるとともに、空間内に
挿入する物体の深さに応じて画像を拡大率を変えて表示
できるため、簡単な操作により迅速に目的とする地理情
報を提供することが可能になる。The present invention detects the position of an object inserted in the space by a plurality of sensors provided around the display surface, recognizes from which result the position on the display surface is pointed, and as an indication point. Display on the display surface. Then, when the deepest sensor senses the object, or when the pointing point on the display surface exists within the coordinates representing the input area for a certain period of time, it is necessary to directly touch the display surface by determining that the input is confirmed. Is gone. Further, in the conventional touch panel device, as described above, for example, when providing geographical information such as a map, the user needs to select and input several times before limiting the target area. Then, for example, by arranging a plurality of sensors in a grid pattern, it is possible to detect the position of an object existing in a space in multiple stages, and enlarge an image within a certain area centered on the instruction point or Since it can be displayed on the screen, it is possible to design the system for people with low vision, and the image can be displayed at different magnifications according to the depth of the object to be inserted into the space. It becomes possible to provide the desired geographical information to.
【0006】[0006]
【実施例】図1は、本発明による3次元位置認識型タッ
チパネル装置の一実施例を説明するための斜視図であ
る。本装置は、画像情報を表示するディスプレイ面1、
該ディスプレイ面1に対し垂直方向に空間的厚みを持た
せ、その上面および下面を除く側面に格子状に設けた複
数のセンサ2を有する。同図において、4はディスプレ
イ面1上の空間内に挿入された指などの物体3(以下、
単に「物体」と略すことがある)がディスプレイ面1の
どの位置を指し示しているのかを表わす指示ポイントで
ある。物体の位置情報から指示ポインタ4を求める方法
は後述するように幾つかの方法がある。図2は、本発明
におけるシステム構成図を示す。本装置は、空間内に挿
入された物体の位置を検出するために格子状に設けた複
数のセンサ群からなる位置検出部8、位置検出部8から
送られてきたデータを3次元の座標に変換し、その物体
3の位置とディスプレイ面1に対して指し示す方向を計
算および指し示している時間を測定することにより、入
力されたか否かを判断するとともに、各装置の制御を行
う制御部9、および表示部10からなる。位置検出部8
は、複数のセンサ2により空間内に挿入された物体3の
位置を検出する。制御部9は、位置検出部8によって検
出したデータを受け取り、格子状に配列したセンサ群を
3次元の座標に対応させた座標変換テーブルを用いて3
次元の座標データ群に変換する。その結果をもとにして
数学的な方法で座標データ群を直線近似することによ
り、その直線とディスプレイ面1が交差する点を算出す
る等といった位置算出手段により表示位置を求め、その
位置に指示ポイント4を表示する。指示ポイント4の位
置算出手段の他の一例としては、位置検出部8にて得ら
れた物体3の先端からディスプレイ面1に対して垂線を
引き、その垂線とディスプレイ面1が重なる点に指示ポ
イント4を表示する等、いくつかの方法が考えられる。
このような複数の方法を本装置内に用意しておき、それ
らを利用者が自由に選択するようにしてもよい。1 is a perspective view for explaining an embodiment of a three-dimensional position recognition type touch panel device according to the present invention. The device comprises a display surface 1 for displaying image information,
The display surface 1 has a spatial thickness in the vertical direction, and has a plurality of sensors 2 provided in a grid pattern on the side surfaces except the upper and lower surfaces thereof. In the figure, reference numeral 4 denotes an object 3 such as a finger (hereinafter, referred to as a finger inserted in a space on the display surface 1).
(It may be simply abbreviated as “object”) is an instruction point indicating which position on the display surface 1 is pointed. There are several methods for obtaining the pointing pointer 4 from the position information of the object, as will be described later. FIG. 2 shows a system configuration diagram in the present invention. This device is a position detection unit 8 consisting of a plurality of sensor groups arranged in a grid for detecting the position of an object inserted in the space, and the data sent from the position detection unit 8 is converted into three-dimensional coordinates. By converting and calculating the position of the object 3 and the pointing direction with respect to the display surface 1 and measuring the pointing time, it is determined whether or not an input has been made, and a control unit 9 that controls each device, And a display unit 10. Position detector 8
Detects the position of the object 3 inserted in the space by the plurality of sensors 2. The control unit 9 receives the data detected by the position detection unit 8 and uses the coordinate conversion table in which the sensor groups arranged in a grid are associated with the three-dimensional coordinates.
Convert to a coordinate data group of dimension. Based on the result, a display position is obtained by a position calculation means such as linearly approximating the coordinate data group by a mathematical method to calculate a point where the straight line and the display surface 1 intersect, and the position is indicated. Display point 4. As another example of the position calculating means of the instruction point 4, a perpendicular line is drawn from the tip of the object 3 obtained by the position detection unit 8 to the display surface 1, and the point where the perpendicular line and the display surface 1 overlap each other. Several methods such as displaying 4 are possible.
A plurality of such methods may be prepared in the apparatus and the user may freely select them.
【0007】図3は、位置検出部8の中の最深部のセン
サ6が空間内の物体3を感知した時、入力を確定する入
力方式を説明するための斜視図である。同図において、
5は入力エリア、6はディスプレイ面1上の周囲に設け
られた最深部のセンサを示している。入力の確定は、制
御部9が空間内に挿入された物体3の先端が入力エリア
5を示す座標上に存在することを認知し、かつ最深部の
センサ6が物体3を感知したとき入力確定と判断する。
図4は、画像が標準状態で表示されており、かつ非接触
手法によって入力を行う方式を説明するための斜視図で
あり、図5は、画像を拡大表示し、かつ非接触手法によ
って入力を行う方式を説明するための斜視図である。図
4において、7は位置検出部8の中の最浅部のセンサを
示している。入力モードとして拡大モードおよび通常モ
ード(非拡大モード)を設けておき、ボタンや表示メニ
ューなどの周知の方法によって入力モードの切替を可能
にしておくことができる。入力は、入力モードが拡大モ
ードか通常モードであるかに関らず、ディスプレイ面に
最も近いセンサが空間内に挿入された物体を感知した場
合、または指示ポイント4が入力エリア座標内に存在
し、かつ一定時間その位置を示す座標が変化しない場合
に入力エリア5に対する入力を確定する。FIG. 3 is a perspective view for explaining an input method for determining an input when the deepest sensor 6 in the position detector 8 senses the object 3 in the space. In the figure,
Reference numeral 5 denotes an input area, and 6 denotes a deepest sensor provided on the periphery of the display surface 1. The input is confirmed when the control unit 9 recognizes that the tip of the object 3 inserted in the space exists on the coordinate indicating the input area 5 and the deepest sensor 6 detects the object 3. To judge.
FIG. 4 is a perspective view for explaining a method in which an image is displayed in a standard state and input is performed by a non-contact method, and FIG. 5 is an enlarged view of the image and input is performed by the non-contact method. It is a perspective view for explaining the method to perform. In FIG. 4, reference numeral 7 denotes the shallowest sensor in the position detector 8. An expansion mode and a normal mode (non-expansion mode) are provided as input modes, and the input modes can be switched by a known method such as a button or a display menu. The input is performed regardless of whether the input mode is the expansion mode or the normal mode, when the sensor closest to the display surface detects an object inserted in the space, or the pointing point 4 exists in the input area coordinates. If the coordinates indicating the position do not change for a certain period of time, the input to the input area 5 is confirmed.
【0008】さらに、拡大モード選択時における拡大表
示は、制御部9が位置検出部8の最浅部のセンサ7を基
準とし、物体3を感知している位置検出部8におけるセ
ンサ2の深さに応じて指示ポイント4を中心とした一定
エリア内の画像を拡大表示する。センサの深さに対する
倍率は、あらかじめ標準的な倍率を、例えば、倍率テー
ブルとして設定しておく。なお、この倍率テーブルは、
ユーザによって変更可能なようにしておいてもよい。本
構成により、物体3を感知している位置検出部8におけ
るセンサ2が最深部のセンサ6に近づくに従い指示ポイ
ントを中心とした一定エリア内の画像を順次拡大表示
し、逆に物体3を感知している位置検出部8におけるセ
ンサ2が最浅部のセンサ7に近づくに従い指示ポイント
を中心とした一定エリア内の画像を順次標準の大きさの
画像に戻して表示する、すなわち、表示の拡大倍率を物
体(指など)を移動することにより自由に制御すること
ができる。Further, in the magnified display when the magnifying mode is selected, the control unit 9 uses the sensor 7 at the shallowest portion of the position detecting unit 8 as a reference, and the depth of the sensor 2 in the position detecting unit 8 detecting the object 3. The image in a certain area centered on the instruction point 4 is enlarged and displayed in accordance with. As the magnification for the depth of the sensor, a standard magnification is set in advance, for example, as a magnification table. This magnification table is
It may be set so that it can be changed by the user. With this configuration, as the sensor 2 in the position detection unit 8 that senses the object 3 approaches the sensor 6 at the deepest portion, images in a certain area centered around the instruction point are sequentially displayed in an enlarged manner, and conversely the object 3 is sensed. As the sensor 2 in the position detecting section 8 moving closer to the shallowest sensor 7, the image within a certain area centered around the instruction point is sequentially returned to the standard size image and displayed, that is, the display is enlarged. The magnification can be freely controlled by moving an object (finger, etc.).
【0009】図6は、本発明における処理のフローチャ
ートを示す図である。まず、位置検出部8の複数のセン
サ2により空間内の状態を検出し(ステップ11)、セ
ンサ2が何も感知しない場合(ステップ12;NO)は、
ステップ11に戻り再度空間内の状態の検出を行う。セ
ンサ2が空間内に存在する物体3を感知した場合(ステ
ップ12;YES)は、そのデータを制御部9へ送信する
(ステップ13)。制御部9は位置検出部8から送信さ
れてきたデータを座標変換テーブルにより連続した3次
元の座標に変換し(ステップ14)、その座標データを
指示ポイント4の位置算出手段により、空間内の物体3
が指し示すディスプレイ面1の位置を計算し、その位置
に指示ポイント4を表示する(ステップ15)。そし
て、現在拡大モードが選択されているか否かの識別を行
う(ステップ16)。拡大モードが選択されている場合
(ステップ16;YES)は、位置検出部8が空間内に存
在する物体3の位置を認識し、制御部9にて変換した座
標データをもとにその物体3と最浅部のセンサ7との相
対位置を比較し(ステップ17)、物体3の先端が最浅
部のセンサ7に比べ深い位置にあると判断した場合(ス
テップ18;YES)は、指示ポイント4の位置を中心と
した一定エリア内の画像を拡大表示し(ステップ1
9)、また、最浅部のセンサ7の位置にあると判断した
場合(ステップ18;NO)は、拡大表示を行なわない
(ステップ20)。FIG. 6 is a diagram showing a flow chart of processing in the present invention. First, the state in the space is detected by the plurality of sensors 2 of the position detection unit 8 (step 11), and when the sensor 2 does not sense anything (step 12; NO),
Returning to step 11, the state in the space is detected again. When the sensor 2 senses the object 3 existing in the space (step 12; YES), the data is transmitted to the control unit 9 (step 13). The control unit 9 converts the data transmitted from the position detection unit 8 into continuous three-dimensional coordinates by the coordinate conversion table (step 14), and the coordinate data is calculated by the position calculating means of the instruction point 4 in the space. Three
The position of the display surface 1 pointed by is calculated, and the pointing point 4 is displayed at that position (step 15). Then, it is identified whether or not the enlargement mode is currently selected (step 16). When the enlargement mode is selected (step 16; YES), the position detection unit 8 recognizes the position of the object 3 existing in the space, and the object 3 is detected based on the coordinate data converted by the control unit 9. Is compared with the shallowest sensor 7 (step 17), and when it is determined that the tip of the object 3 is at a deeper position than the shallowest sensor 7 (step 18; YES), the instruction point The image in a certain area centered on the position of 4 is enlarged and displayed (step 1
9) Further, when it is determined that the sensor 7 is located at the shallowest position (step 18; NO), the enlarged display is not performed (step 20).
【0010】次に入力を確定するための処理として、最
深部のセンサ6が物体3を感知したか否かの判断を物体
3の先端を表わす座標から行い(ステップ21)、感知
している場合(ステップ21;YES)には入力確定と判
断してステップ22に進む。最深部のセンサ6が物体を
感知しなかった場合(ステップ21;NO)は、別の方法
で入力を確定するために、ディスプレイ面1上に表示さ
れている指示ポイント4が一定時間内、入力エリア5の
座標内に存在するか否かを判定し、存在した場合(ステ
ップ23;YES)には入力確定と判断してステップ22
に進む。しかし、指示ポイント4が入力エリア5を示す
座標から外れ、一定時間内入力エリア5の座標内に存在
しない場合(ステップ23;NO)は、制御部9による該
一定時間をカウントするためのカウンタを停止し、ステ
ップ11に戻り再度入力待ち状態となる。入力が確定と
判断されたオペレーションについては、ステップ22に
おいて、その入力エリア5の持つ命令を実行するよう制
御部9により外部に対して要求を出す。以上説明したよ
うに、本発明によると、物体の3次元的位置を認識する
ことにより、タッチパネル装置のディスプレイ面にタッ
チしなくても入力有および入力の種類(表示の拡大率)
を確定することができる。Next, as a process for confirming the input, it is judged whether or not the sensor 6 at the deepest part has detected the object 3 from the coordinates representing the tip of the object 3 (step 21). In (step 21; YES), it is determined that the input is confirmed and the process proceeds to step 22. If the deepest sensor 6 does not detect an object (step 21; NO), the pointing point 4 displayed on the display surface 1 is input within a certain time in order to confirm the input by another method. It is determined whether or not it exists within the coordinates of the area 5, and if it exists (step 23; YES), it is determined that the input is confirmed, and the process proceeds to step 22.
Proceed to. However, when the instruction point 4 deviates from the coordinates indicating the input area 5 and does not exist within the coordinates of the input area 5 within a certain time (step 23; NO), a counter for counting the certain time by the control unit 9 is set. The operation is stopped, and the process returns to step 11 to enter the input waiting state again. For the operation for which the input is determined to be final, in step 22, the control unit 9 issues a request to the outside to execute the command of the input area 5. As described above, according to the present invention, by recognizing the three-dimensional position of the object, there is an input and the type of the input (display enlargement ratio) without touching the display surface of the touch panel device.
Can be determined.
【0011】[0011]
【発明の効果】本発明によれば、本装置への入力手段と
して、(a)最深部のセンサが物体の先端を感知した時
点で入力を確定する方法と、(b)指示ポイントが入力
エリアを示す座標内に一定時間存在したとき入力を確定
する方法の2つの入力方法がある。従って、前者(a)
の方法では、空間内に所定の状態にある物体を感知した
ときにそのことを意味する「指示ポイント」を表示して
操作者に確認させることができるため、操作員の誤入力
を防止することができる。後者(b)の方法では、ディ
スプレイ面に対し非接触で入力を行うことができるた
め、利用者はクリーンなイメージで入力作業を行うこと
ができる。また、挿入する物体の位置によって拡大率を
指定することができるため、例えば、地図情報のサービ
スを受ける際、利用者は、空間内に指などの物体を挿入
しその深さを調整するだけで任意の拡大表示を行え、し
たがって、少ない選択入力だけで大まかな情報から詳細
な情報までを迅速に求めることが可能になる。As described above, according to the present invention, as input means to the present device, (a) a method of confirming the input when the sensor at the deepest part senses the tip of an object, and (b) an input point is an input area. There are two input methods, that is, a method of confirming the input when there is a certain time in the coordinate indicating. Therefore, the former (a)
With this method, when an object in a predetermined state is sensed in the space, an “instruction point” indicating that can be displayed and the operator can confirm it, so that the operator's erroneous input can be prevented. You can In the latter method (b), since the input can be performed without contacting the display surface, the user can perform the input work with a clean image. Also, since the enlargement ratio can be specified by the position of the object to be inserted, for example, when receiving a map information service, the user simply inserts an object such as a finger into the space and adjusts the depth. An arbitrary enlarged display can be performed, so that it is possible to quickly obtain rough information to detailed information with a small selection input.
【図1】本発明による3次元位置認識型タッチパネル装
置の一実施例を示す斜視図である。FIG. 1 is a perspective view showing an embodiment of a three-dimensional position recognition type touch panel device according to the present invention.
【図2】本発明におけるシステム構成を示す図である。FIG. 2 is a diagram showing a system configuration in the present invention.
【図3】最深部のセンサが物体を感知したとき入力を確
定する方法を説明するための斜視図である。FIG. 3 is a perspective view for explaining a method of determining an input when the deepest sensor detects an object.
【図4】拡大モード動作時における画面の標準画面表示
および非接触による入力方法を説明するための斜視図で
ある。FIG. 4 is a perspective view for explaining a standard screen display of a screen and an input method by non-contact in an enlarged mode operation.
【図5】拡大モード動作時における画面の拡大方法およ
び非接触による入力方法を説明するための斜視図であ
る。FIG. 5 is a perspective view for explaining a screen enlarging method and a non-contact input method in an enlarging mode operation.
【図6】本発明における処理のフローチャートを示す図
である。FIG. 6 is a diagram showing a flowchart of processing in the present invention.
1:ディスプレイ面、2:センサ、3:物体(指な
ど)、4:指示ポイント、5:入力エリア、6:最深部
のセンサ、7:最浅部のセンサ、8:位置検出部、9:
制御部、10:表示部1: Display surface, 2: Sensor, 3: Object (finger, etc.), 4: Pointing point, 5: Input area, 6: Deepest sensor, 7: Shallow sensor, 8: Position detection section, 9:
Control unit, 10: display unit
Claims (3)
厚みを持たせ、その上面および下面を除く側面に設けら
れ、空間内に挿入された物体の位置を検出する複数のセ
ンサと、その検出結果に基づいて上記物体が指し示すデ
ィスプレイ面上の位置を計算する計算手段と、該計算手
段によって得られたディスプレイ面上の位置に上記物体
が指し示していることを表わす指示ポイントを表示する
表示手段とを有することを特徴とする3次元位置認識型
タッチパネル装置。1. A plurality of sensors which have a spatial thickness in a direction perpendicular to a display surface and are provided on side surfaces except upper and lower surfaces thereof to detect the position of an object inserted in the space, and a detection result thereof. Calculation means for calculating the position on the display surface pointed by the object based on the above, and display means for displaying an instruction point indicating that the object is pointing at the position on the display surface obtained by the calculation means. A three-dimensional position recognition type touch panel device having.
チパネル装置において、 上記複数のセンサのうち、ディスプレイ面に最も近いセ
ンサが空間内に挿入された物体を感知した場合、もしく
はディスプレイ面に表示されている指示ポイントが入力
エリアを表わす所定座標区域内に一定時間存在したと判
断された場合に入力を確定する入力確定手段をさらに有
することを特徴とする3次元位置認識型タッチパネル装
置。2. The three-dimensional position recognition type touch panel device according to claim 1, wherein, of the plurality of sensors, a sensor closest to the display surface senses an object inserted in the space or the display surface. A three-dimensional position-recognition type touch panel device, further comprising an input confirming means for confirming an input when it is determined that the displayed instruction point has existed within a predetermined coordinate area representing the input area for a certain period of time.
識型タッチパネル装置において、 上記複数のセンサの出力によって空間内に挿入された物
体の先端とディスプレイ面との距離を判定し、その距離
に依存して画像の拡大率を変化させる手段をさらに有す
ることを特徴とする3次元位置認識型タッチパネル装
置。3. The three-dimensional position recognition type touch panel device according to claim 1, wherein the distance between the tip of an object inserted in the space and the display surface is determined by the outputs of the plurality of sensors, and the distance is determined. A three-dimensional position-recognition type touch panel device further comprising means for changing an enlargement ratio of an image depending on the.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1896295A JPH08212005A (en) | 1995-02-07 | 1995-02-07 | 3D position recognition touch panel device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1896295A JPH08212005A (en) | 1995-02-07 | 1995-02-07 | 3D position recognition touch panel device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH08212005A true JPH08212005A (en) | 1996-08-20 |
Family
ID=11986282
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP1896295A Pending JPH08212005A (en) | 1995-02-07 | 1995-02-07 | 3D position recognition touch panel device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH08212005A (en) |
Cited By (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11282597A (en) * | 1997-10-24 | 1999-10-15 | Sony United Kingdom Ltd | Data processor |
| US6072475A (en) * | 1996-08-23 | 2000-06-06 | Telefonaktiebolaget Lm Ericsson | Touch screen |
| WO2006003586A3 (en) * | 2004-06-29 | 2006-03-23 | Koninkl Philips Electronics Nv | Zooming in 3-d touch interaction |
| WO2006003590A3 (en) * | 2004-06-29 | 2006-05-18 | Koninkl Philips Electronics Nv | A method and device for preventing staining of a display device |
| WO2006003591A3 (en) * | 2004-06-29 | 2006-07-13 | Koninkl Philips Electronics Nv | Discontinuous zoom |
| EP1766502A2 (en) * | 2004-06-29 | 2007-03-28 | Koninklijke Philips Electronics N.V. | Multi-layered display of a graphical user interface |
| JP2008520268A (en) * | 2004-11-16 | 2008-06-19 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Non-contact manipulation of images for local enhancement |
| CN100437451C (en) * | 2004-06-29 | 2008-11-26 | 皇家飞利浦电子股份有限公司 | Method and apparatus for preventing dirtying of display apparatus |
| WO2009024112A3 (en) * | 2007-08-22 | 2009-04-30 | Navigon Ag | Display device with image surface |
| CN101540794A (en) * | 2008-03-21 | 2009-09-23 | Lg电子株式会社 | Mobile terminal and screen displaying method thereof |
| JP2009277194A (en) * | 2008-04-18 | 2009-11-26 | Panasonic Electric Works Co Ltd | Display operation system |
| WO2011054549A1 (en) * | 2009-11-04 | 2011-05-12 | Tomtom International B.V. | Electronic device having a proximity based touch screen |
| EP2431848A2 (en) | 2010-09-16 | 2012-03-21 | Nitto Denko Corporation | Optical waveguide device and optical touch panel |
| US8310456B2 (en) | 2008-03-21 | 2012-11-13 | Lg Electronics Inc. | Mobile terminal and screen displaying method thereof |
| WO2013089048A1 (en) * | 2011-12-16 | 2013-06-20 | 株式会社村田製作所 | Touch operation input device |
| US8483768B2 (en) | 2008-03-25 | 2013-07-09 | Lg Electronics Inc. | Mobile terminal and method of displaying information therein |
| JP2013171422A (en) * | 2012-02-21 | 2013-09-02 | Shimane Univ | Three-dimensional underwater interactive device |
| CN103294383A (en) * | 2012-03-05 | 2013-09-11 | 宇龙计算机通信科技(深圳)有限公司 | Mobile terminal and application method of touch screen keyboard |
| JP2013190862A (en) * | 2012-03-12 | 2013-09-26 | Panasonic Corp | Input device, input support method and program |
| KR101387218B1 (en) * | 2008-02-29 | 2014-04-21 | 주식회사 케이티 | Method of adjusting screen magnification ratio of mobile terminal using multi-touch input device and mobile terminal performing the same |
| US8963832B2 (en) | 2010-03-05 | 2015-02-24 | Lenovo Innovations Limited (Hong Kong) | Mobile terminal |
| EP2853991A1 (en) * | 2008-06-03 | 2015-04-01 | Shimane Prefectural Government | Image recognizing device, operation judging method, and program |
| JP2015130044A (en) * | 2014-01-07 | 2015-07-16 | コニカミノルタ株式会社 | Input receiving device and image processing apparatus |
| JP2022091262A (en) * | 2020-12-09 | 2022-06-21 | 沖電気工業株式会社 | Control device |
| JP2022138207A (en) * | 2021-03-10 | 2022-09-26 | 株式会社テクナート | touch panel |
| JP2022141427A (en) * | 2021-03-15 | 2022-09-29 | 富士通フロンテック株式会社 | Input control device for atm, input control method, and input control program |
-
1995
- 1995-02-07 JP JP1896295A patent/JPH08212005A/en active Pending
Cited By (40)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6072475A (en) * | 1996-08-23 | 2000-06-06 | Telefonaktiebolaget Lm Ericsson | Touch screen |
| JPH11282597A (en) * | 1997-10-24 | 1999-10-15 | Sony United Kingdom Ltd | Data processor |
| JP2008505379A (en) * | 2004-06-29 | 2008-02-21 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Touchdown feedforward in 3D touch interaction |
| WO2006003590A3 (en) * | 2004-06-29 | 2006-05-18 | Koninkl Philips Electronics Nv | A method and device for preventing staining of a display device |
| WO2006003591A3 (en) * | 2004-06-29 | 2006-07-13 | Koninkl Philips Electronics Nv | Discontinuous zoom |
| EP1766502A2 (en) * | 2004-06-29 | 2007-03-28 | Koninklijke Philips Electronics N.V. | Multi-layered display of a graphical user interface |
| US7786980B2 (en) * | 2004-06-29 | 2010-08-31 | Koninklijke Philips Electronics N.V. | Method and device for preventing staining of a display device |
| JP2008505381A (en) * | 2004-06-29 | 2008-02-21 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method and apparatus for preventing contamination of display device |
| CN100437451C (en) * | 2004-06-29 | 2008-11-26 | 皇家飞利浦电子股份有限公司 | Method and apparatus for preventing dirtying of display apparatus |
| KR101134027B1 (en) * | 2004-06-29 | 2012-04-13 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | A method and device for preventing staining of a display device |
| WO2006003586A3 (en) * | 2004-06-29 | 2006-03-23 | Koninkl Philips Electronics Nv | Zooming in 3-d touch interaction |
| JP2008520268A (en) * | 2004-11-16 | 2008-06-19 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Non-contact manipulation of images for local enhancement |
| US8473869B2 (en) | 2004-11-16 | 2013-06-25 | Koninklijke Philips Electronics N.V. | Touchless manipulation of images for regional enhancement |
| WO2009024112A3 (en) * | 2007-08-22 | 2009-04-30 | Navigon Ag | Display device with image surface |
| KR101387218B1 (en) * | 2008-02-29 | 2014-04-21 | 주식회사 케이티 | Method of adjusting screen magnification ratio of mobile terminal using multi-touch input device and mobile terminal performing the same |
| US9760204B2 (en) | 2008-03-21 | 2017-09-12 | Lg Electronics Inc. | Mobile terminal and screen displaying method thereof |
| US9052808B2 (en) | 2008-03-21 | 2015-06-09 | Lg Electronics Inc. | Mobile terminal and screen displaying method thereof |
| CN101540794A (en) * | 2008-03-21 | 2009-09-23 | Lg电子株式会社 | Mobile terminal and screen displaying method thereof |
| US8160652B2 (en) | 2008-03-21 | 2012-04-17 | Lg Electronics Inc. | Mobile terminal and screen displaying method thereof |
| US8310456B2 (en) | 2008-03-21 | 2012-11-13 | Lg Electronics Inc. | Mobile terminal and screen displaying method thereof |
| US8723811B2 (en) | 2008-03-21 | 2014-05-13 | Lg Electronics Inc. | Mobile terminal and screen displaying method thereof |
| US8483768B2 (en) | 2008-03-25 | 2013-07-09 | Lg Electronics Inc. | Mobile terminal and method of displaying information therein |
| JP2009277194A (en) * | 2008-04-18 | 2009-11-26 | Panasonic Electric Works Co Ltd | Display operation system |
| EP2853991A1 (en) * | 2008-06-03 | 2015-04-01 | Shimane Prefectural Government | Image recognizing device, operation judging method, and program |
| WO2011054549A1 (en) * | 2009-11-04 | 2011-05-12 | Tomtom International B.V. | Electronic device having a proximity based touch screen |
| US8963832B2 (en) | 2010-03-05 | 2015-02-24 | Lenovo Innovations Limited (Hong Kong) | Mobile terminal |
| EP2431848A2 (en) | 2010-09-16 | 2012-03-21 | Nitto Denko Corporation | Optical waveguide device and optical touch panel |
| JP2012063969A (en) * | 2010-09-16 | 2012-03-29 | Nitto Denko Corp | Optical waveguide device and optical touch panel |
| CN103988433A (en) * | 2011-12-16 | 2014-08-13 | 株式会社村田制作所 | Touch operation input device |
| WO2013089048A1 (en) * | 2011-12-16 | 2013-06-20 | 株式会社村田製作所 | Touch operation input device |
| JPWO2013089048A1 (en) * | 2011-12-16 | 2015-04-27 | 株式会社村田製作所 | Touch operation input device |
| US10620747B2 (en) | 2011-12-16 | 2020-04-14 | Murata Manufacturing Co., Ltd. | Touch type operation input device |
| JP2013171422A (en) * | 2012-02-21 | 2013-09-02 | Shimane Univ | Three-dimensional underwater interactive device |
| CN103294383A (en) * | 2012-03-05 | 2013-09-11 | 宇龙计算机通信科技(深圳)有限公司 | Mobile terminal and application method of touch screen keyboard |
| JP2013190862A (en) * | 2012-03-12 | 2013-09-26 | Panasonic Corp | Input device, input support method and program |
| US9891753B2 (en) | 2012-03-12 | 2018-02-13 | Panasonic Intellectual Property Corporation Of America | Input device, input assistance method and program |
| JP2015130044A (en) * | 2014-01-07 | 2015-07-16 | コニカミノルタ株式会社 | Input receiving device and image processing apparatus |
| JP2022091262A (en) * | 2020-12-09 | 2022-06-21 | 沖電気工業株式会社 | Control device |
| JP2022138207A (en) * | 2021-03-10 | 2022-09-26 | 株式会社テクナート | touch panel |
| JP2022141427A (en) * | 2021-03-15 | 2022-09-29 | 富士通フロンテック株式会社 | Input control device for atm, input control method, and input control program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPH08212005A (en) | 3D position recognition touch panel device | |
| US7810247B2 (en) | Method for entering commands and/or characters for a portable communication device equipped with a tilt sensor | |
| TWI534661B (en) | Image recognition device and operation determination method and computer program | |
| US20090002342A1 (en) | Information Processing Device | |
| JPH10269022A (en) | Portable information processing device with communication function | |
| EP1594040A2 (en) | Operation input device and method of operation input | |
| JP2008210348A (en) | Image display device | |
| JPH1173271A (en) | Pointing device, processing device, and storage medium | |
| KR101416235B1 (en) | 3D position input method and apparatus | |
| CN102314301A (en) | Virtual touch sensing system and method | |
| CN109213363B (en) | System and method for predicting pointer touch location or determining pointing in 3D space | |
| JP2016173703A (en) | Method for supporting input operation using touch display | |
| JPH10283115A (en) | Display input device | |
| JP2003534079A (en) | Direct mouse control of measurement functions for medical images | |
| EP0714057A1 (en) | Method and apparatus for displaying a cursor along a two dimensional representation of a computer generated three dimensional surface | |
| JP2010148811A (en) | Ultrasonic diagnostic apparatus | |
| JP2003122506A (en) | Coordinate input and operation method instruction device | |
| US12461599B2 (en) | Detection processing that detects a number of contacts between fingertips of a hand | |
| JP4244202B2 (en) | Operation input device and operation input method | |
| JP3357760B2 (en) | Character / graphic input editing device | |
| JP4221330B2 (en) | Interface method, apparatus, and program | |
| JPH10124251A (en) | Coordinate input information processing device | |
| JP5815577B2 (en) | Information sharing support device | |
| JPH09250909A (en) | Method and system for measuring image without contact | |
| KR101911676B1 (en) | Apparatus and Method for Presentation Image Processing considering Motion of Indicator |