JP4414075B2 - Coordinate input / detection device, coordinate detection method, and storage medium - Google Patents
Coordinate input / detection device, coordinate detection method, and storage medium Download PDFInfo
- Publication number
- JP4414075B2 JP4414075B2 JP2000241957A JP2000241957A JP4414075B2 JP 4414075 B2 JP4414075 B2 JP 4414075B2 JP 2000241957 A JP2000241957 A JP 2000241957A JP 2000241957 A JP2000241957 A JP 2000241957A JP 4414075 B2 JP4414075 B2 JP 4414075B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- position coordinates
- coordinate
- dimensional position
- coordinate input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、情報の入力や選択をするためにペン等の指示部材や指等によって指示された位置座標を光学的に検出する座標入力/検出装置、この座標入力/検出装置を主体に構成される電子黒板システム、座標入力/検出装置における座標検出方法及び位置座標検出をコンピュータに実行させるコンピュータに読み取り可能なプログラムを記憶している記憶媒体に関する。
【0002】
【従来の技術】
従来より、ホワイトボードや書き込みシート等の書き込み面に筆記用具を用いて書き込んだ手書きの情報を、専用のスキャナで読み取り、専用のプリンタで記録紙に出力することが可能な電子黒板装置が知られている。これに対し、近年にあっては、電子黒板装置の書き込み面に座標入力/検出装置を配置して、書き込み面に手書きで書き込んだ情報をリアルタイムでパーソナルコンピュータ等のコンピュータに入力することを可能にした電子黒板システムも提供されている。
【0003】
例えば、マイクロフィールド・グラフィックス社製(Microfield Graphics,Inc.)のソフトボードは、ホワイトボード上に座標入力/検出装置を配設して構成され、ホワイトボード上に書かれた文字や絵等のビジュアルデータをコンピュータにリアルタイムで取り込むことを可能にした装置である。このソフトボードを用いて構成された電子黒板システムでは、ソフトボードで取り込んだビジュアルデータをコンピュータに入力してCRT(Cathode Ray Tube)に表示したり、液晶プロジェクターを用いて大型のスクリーンに表示したり、プリンタで記録紙に出力したりすること等が可能となっている。また、ソフトボードが接続されたコンピュータの画面を液晶プロジェクターでソフトボード上に投影し、ソフトボード上でコンピュータを操作することも可能となっている。
【0004】
また、文字および画像を表示するための表示装置と、表示装置の前面に座標入力面(タッチパネル面)を配設した座標入力/検出装置と、座標入力/検出装置からの入力に基づいて表示装置の表示制御を行う制御装置とを備え、表示装置および座標入力/検出装置を用いて電子黒板部の表示面および書き込み面を構成した電子黒板システムが提供されている。
【0005】
例えば、スマート・テクノロジィズ社製(SMART Technologies Inc.)のスマート2000では、コンピュータに接続された液晶プロジェクターを用いて文字・絵・図形・グラフィックの画像をパネルに投影した状態で、パネルの投影面(表示面)の前面に配設された座標入力/検出装置(書き込み面)を用いて手書きの情報をコンピュータに取り込む処理を行う。そして、コンピュータ内で手書きの情報と画像情報とを合成し、再度、液晶プロジェクターを介してリアルタイムで表示できるようにしている。
【0006】
このような電子黒板システムでは、表示装置によって表示されている画面上の画像に対して、座標入力/検出装置を用いて入力した画像を上書き画像として重ねて表示できるため、会議、プレゼンテーション、教育現場等において既に広く利用されており、その使用効果が高く評価されている。また、このような電子黒板システムに音声・画像等の通信機能を組み込み、遠隔地間を通信回線で接続することにより、電子会議システムとしても利用されている。
【0007】
また、近年においては、電子黒板システムにおいて利用される座標入力/検出装置として検出方式の異なる種々の方式のものが考えられている。しかしながら、前述した電子黒板システムに適用するのに適切な方式を検討すると、座標入力面(タッチパネル面)のような物理的な面を有さなくとも入力が可能になる、例えば光学式のような座標入力/検出装置が有望であると考えられる。
【0008】
このような光学式の座標入力/検出装置としては、各種の方式が提案されている。光学式の座標入力/検出装置の一例としては、特開平9−91094号公報に記載されているものがある。ここで、図29は従来の座標入力/検出装置100を概略的に示す正面図である。図29に示すように、座標入力/検出装置100は、レーザビーム光aを回転させながら所定の位置に向けて出射する発光装置とそのレーザビーム光aの再帰反射光bを受光する受光装置とを備えて距離Zを隔てて設けられる一対一組のライトスキャナ101(101R,101L)と、レーザビーム光aを反射して再び同一光路を辿る再帰反射光bとする再帰性反射部材102とを備え、レーザビーム光aの走査する部分が座標入力/検出領域103とされている。なお、ライトスキャナ101の発光装置は駆動装置(図示せず)により駆動されており、その駆動装置の回転駆動はパルス制御されている。
【0009】
このような光学式の座標入力/検出装置100においては、利用者の指A等を座標入力/検出領域103に挿入することにより特定の組み合わせのレーザビーム光a1,a2が遮断されるので、再帰反射光は発生しなくなる。このように再帰反射光が発生しない場合には、ライトスキャナ101の受光装置における受光信号が「L(LOW)」レベルの信号として検出部(図示せず)においてそれぞれ検出される。さらに、検出部においては、「L」レベル信号の各レーザビーム光a1,a2の出射角度が、各レーザビーム光a1,a2を出射した位置に至るまでに駆動装置を駆動制御したパルス数に基づいて検出される。そして、利用者の指Aにより指示された位置座標(x,y)が、レーザビーム光a1の出射角度とレーザビーム光a2の出射角度と距離Zとに基づいて、演算回路104において三角測量の原理によって算出されることになる。このようにして算出された位置座標(x,y)は、インタフェース回路105を介してコンピュータ等に出力される。
【0010】
以上に代表されるような座標入力面(タッチパネル面)のような物理的な面を有さない光学式の座標入力/検出装置は、表示装置の表示面に装着して使用した場合であっても視認性に優れると共に、その大型化も比較的容易になっている。
【0011】
【発明が解決しようとする課題】
ここで、座標入力/検出装置100の座標入力/検出領域103に利用者の指A,Bを同時に挿入して2点同時に指示した場合について、図30を参照して説明する。また、図31は2点同時に指示した場合の各ライトスキャナ101R,101Lにおける受光信号とパルス信号との関係を示すタイムチャートである。図30及び図31においては、各ライトスキャナ101R,101Lから走査するレーザビーム光がパルス信号に基づいてそれぞれ8方向に分割されているものとし、各遮断点A,Bが各ライトスキャナ101R,101Lから走査されるレーザビーム光の交点にあるものとする。このように各遮断点A,Bにおいて同時にレーザビーム光の遮断がなされた場合には、図31に示すように、ライトスキャナ101Rからは3と6の位置に「L」レベルの受光信号が検出され、ライトスキャナ101Lからは3と5の位置に「L」レベルの受光信号が検出されることになる。
【0012】
しかしながら、座標入力/検出装置100の各ライトスキャナ101R,101Lにおいて2点分の「L」レベルの受光信号が検出されることにより、実際の遮断点A,Bの他に、点A´,B´が誤認識されてしまう恐れが生じる。つまり、「L」レベルの受光信号に基づくパルス信号の組み合わせは、
A (101L,101R)=(5,3)
A´ (101L,101R)=(3,3)
B (101L,101R)=(3,6)
B´ (101L,101R)=(5,6)
の4通りになるので、一つの遮断点を決定することができない。
【0013】
したがって、特開平9−91094号公報に記載された座標入力/検出装置100では、2点同時に指示した場合にそれらの位置座標を検出することが不可能になっている。
【0014】
また、2点同時に指示した場合にそれらの位置座標を検出するためには、ライトスキャナを更にもう1つ備えて3つの走査光を有することが必要になるが、部品点数が増加するとともに装置構成が複雑化して高価な構成になってしまうという問題がある。
【0015】
本発明の目的は、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる座標入力/検出装置を得ることである。
【0016】
本発明の目的は、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる座標入力/検出装置を備えた電子黒板システムを得ることである。
【0017】
本発明の目的は、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる座標検出方法を得ることである。
【0018】
本発明の目的は、複数箇所を同時に指示した場合の位置座標の低コストでの検出をコンピュータに実行させるコンピュータに読み取り可能なプログラムを記憶している記憶媒体を得ることである。
【0019】
【課題を解決するための手段】
請求項1記載の発明の座標入力/検出装置は、光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、前記座標入力/検出領域の周辺部に設けられ、前記投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材と、この再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出するピーク点検出手段と、前記ピーク点検出手段により検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出するピーク距離検出手段と、このピーク距離検出手段により検出された前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する角度算出手段と、この角度算出手段により算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する位置座標算出手段と、この位置座標算出手段により複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化するベクトル化手段と、このベクトル化手段によってベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、前記位置座標算出手段により算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する位置座標抽出手段と、を備える。
【0030】
したがって、座標入力/検出領域に投光された光の一部が少なくとも1以上の指示部材の挿入によって遮られた場合、光強度分布のピーク点である前記光を遮った少なくとも1以上の指示部材の各受光素子上の結像位置と、光を遮った少なくとも1以上の指示部材の各受光素子上における結像サイズとが検出される。また、各受光素子上の所定の位置からそのピーク点に至る距離が検出され、この受光素子上の所定の位置からそのピーク点に至る距離に基づいて指示部材に遮られた各投光手段における光の出射角度が算出され、これらの各投光手段における出射角度に基づいて座標入力/検出領域に挿入された少なくとも1以上の指示部材の二次元位置座標が算出される。さらに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0031】
請求項2記載の発明の座標入力/検出装置は、光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、これらの投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材を有する指示部材がその座標入力/検出領域に挿入された場合に、前記再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、前記指示部材がその座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を反射した少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出するピーク点検出手段と、前記ピーク点検出手段により検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出するピーク距離検出手段と、このピーク距離検出手段により検出された前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材により反射された前記光の前記各投光手段における出射角度を算出する角度算出手段と、この角度算出手段により算出された少なくとも1以上の前記指示部材により反射された前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する位置座標算出手段と、この位置座標算出手段により複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化するベクトル化手段と、このベクトル化手段によってベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、前記位置座標算出手段により算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する位置座標抽出手段と、を備える。
【0032】
したがって、座標入力/検出領域に投光された光の一部が少なくとも1以上の指示部材の挿入によって反射された場合、光強度分布のピーク点である前記光を反射した少なくとも1以上の指示部材の各受光素子上の結像位置と、光を反射した少なくとも1以上の指示部材の各受光素子上における結像サイズとが検出される。また、各受光素子上の所定の位置からそのピーク点に至る距離が検出され、この受光素子上の所定の位置からそのピーク点に至る距離に基づいて指示部材に反射された各投光手段における光の出射角度が算出され、これらの各投光手段における出射角度に基づいて座標入力/検出領域に挿入された少なくとも1以上の指示部材の二次元位置座標が算出される。さらに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0033】
請求項3記載の発明は、請求項1または2記載の座標入力/検出装置において、前記位置座標抽出手段は、前記位置座標算出手段により算出された複数の前記二次元位置座標の内、前記受光素子に対して同一方向に位置する前記二次元位置座標の一つは必ず実像であることに着目して実像判定を行う実像判定手段を備える。
【0034】
したがって、算出された全ての二次元位置座標について実像判定を行う必要はないので、複数箇所を同時に指示した場合の位置座標をさらに低コストで検出することが可能になる。
【0035】
請求項4記載の発明は、請求項3記載の座標入力/検出装置において、前記実像判定手段によって実像であると判定された一の前記二次元位置座標がある場合、その実像であると判定された一の前記二次元位置座標の軌跡を追跡し、他の実像である前記二次元位置座標を確定するようにした。
【0036】
したがって、実像であると判定された一の二次元位置座標の軌跡を追跡することで、受光素子に対して同一方向に位置する他の二次元位置座標を虚像であると認識することが可能になることにより、他の実像である二次元位置座標を確定することが可能になるので、一方の指示部材が指示している際に途中から他方の指示部材が同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0051】
請求項5記載の発明の座標検出方法は、光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、前記座標入力/検出領域の周辺部に設けられ、前記投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材と、この再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、を用い、検出された光強度分布に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を検出する座標検出方法であって、指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する工程と、検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する工程と、前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する工程と、算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する工程と、複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する工程と、ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する工程と、を含んでなる。
【0052】
したがって、座標入力/検出領域に投光された光の一部が少なくとも1以上の指示部材の挿入によって遮られた場合、光強度分布のピーク点である前記光を遮った少なくとも1以上の指示部材の各受光素子上の結像位置と、光を遮った少なくとも1以上の指示部材の各受光素子上における結像サイズとが検出される。また、各受光素子上の所定の位置からそのピーク点に至る距離が検出され、この受光素子上の所定の位置からそのピーク点に至る距離に基づいて指示部材に遮られた各投光手段における光の出射角度が算出され、これらの各投光手段における出射角度に基づいて座標入力/検出領域に挿入された少なくとも1以上の指示部材の二次元位置座標が算出される。さらに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0053】
請求項6記載の発明の座標検出方法は、光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、これらの投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材を有する指示部材がその座標入力/検出領域に挿入された場合に、前記再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、を用い、検出された光強度分布に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を検出する座標検出方法であって、指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する工程と、検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する工程と、前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する工程と、算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する工程と、複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する工程と、ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する工程と、を含んでなる。
【0054】
したがって、座標入力/検出領域に投光された光の一部が少なくとも1以上の指示部材の挿入によって反射された場合、光強度分布のピーク点である前記光を反射した少なくとも1以上の指示部材の各受光素子上の結像位置と、光を反射した少なくとも1以上の指示部材の各受光素子上における結像サイズとが検出される。また、各受光素子上の所定の位置からそのピーク点に至る距離が検出され、この受光素子上の所定の位置からそのピーク点に至る距離に基づいて指示部材に反射された各投光手段における光の出射角度が算出され、これらの各投光手段における出射角度に基づいて座標入力/検出領域に挿入された少なくとも1以上の指示部材の二次元位置座標が算出される。さらに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0059】
請求項7記載の発明の記憶媒体は、光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、前記座標入力/検出領域の周辺部に設けられ、前記投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材と、この再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、を備える座標入力/検出装置に用いられ、検出された光強度分布に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標の検出をコンピュータに実行させるコンピュータに読み取り可能なプログラムを記憶している記憶媒体であって、前記プログラムは、指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する機能と、検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する機能と、前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する機能と、算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する機能と、複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する機能と、ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する機能と、を前記コンピュータに実行させる。
【0060】
したがって、座標入力/検出領域に投光された光の一部が少なくとも1以上の指示部材の挿入によって遮られた場合、光強度分布のピーク点である前記光を遮った少なくとも1以上の指示部材の各受光素子上の結像位置と、光を遮った少なくとも1以上の指示部材の各受光素子上における結像サイズとが検出される。また、各受光素子上の所定の位置からそのピーク点に至る距離が検出され、この受光素子上の所定の位置からそのピーク点に至る距離に基づいて指示部材に遮られた各投光手段における光の出射角度が算出され、これらの各投光手段における出射角度に基づいて座標入力/検出領域に挿入された少なくとも1以上の指示部材の二次元位置座標が算出される。さらに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0061】
請求項8記載の発明の記憶媒体は、光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、これらの投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材を有する指示部材がその座標入力/検出領域に挿入された場合に、前記再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、を備える座標入力/検出装置に用いられ、検出された光強度分布に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標の検出をコンピュータに実行させるコンピュータに読み取り可能なプログラムを記憶している記憶媒体であって、前記プログラムは、指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する機能と、検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する機能と、前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する機能と、算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する機能と、複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する機能と、ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する機能と、を前記コンピュータに実行させる。
【0062】
したがって、座標入力/検出領域に投光された光の一部が少なくとも1以上の指示部材の挿入によって反射された場合、光強度分布のピーク点である前記光を反射した少なくとも1以上の指示部材の各受光素子上の結像位置と、光を反射した少なくとも1以上の指示部材の各受光素子上における結像サイズとが検出される。また、各受光素子上の所定の位置からそのピーク点に至る距離が検出され、この受光素子上の所定の位置からそのピーク点に至る距離に基づいて指示部材に反射された各投光手段における光の出射角度が算出され、これらの各投光手段における出射角度に基づいて座標入力/検出領域に挿入された少なくとも1以上の指示部材の二次元位置座標が算出される。さらに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0063】
【発明の実施の形態】
本発明の第一の実施の形態を図1ないし図14に基づいて説明する。ここで、図1は電子黒板システム1を概略的に示す外観斜視図である。図1に示すように、電子黒板システム1は、表示装置であるプラズマディスプレイパネル(PDP:Plasma Display Panel)2及び座標入力/検出装置3で構成される電子黒板部4と、機器収納部9とを主体に構成されている。機器収納部9には、制御装置であるパーソナルコンピュータ等のコンピュータ5・原稿の画像を読み取るためのスキャナ6・画像データを記録紙に出力するプリンタ7・ビデオプレイヤー8(いずれも図2参照)が収納されている。なお、PDP2としては、電子黒板として利用可能な40インチや50インチ等の大画面タイプのものが用いられている。また、座標入力/検出装置3には、詳細は後述するが、扇形状に投光される光束膜によって形成される座標入力/検出面である座標入力/検出領域3aを有し、この座標入力/検出領域3aに専用の指示部材A,B(図6参照)を挿入することで座標入力/検出領域3a内の光束を遮ることにより、CCD(Charge Coupled Device)等の受光素子39(図5参照)における受光位置に基づいてその指示位置を検出し、文字等の入力を可能にする光学式の座標入力/検出装置が適用されている。
【0064】
PDP2及び座標入力/検出装置3は、PDP2のディスプレイ面2a側に座標入力/検出装置3が位置するようにして一体化され、PDP2のディスプレイ面2aに座標入力/検出装置3の座標入力/検出領域3aが略一致するようにして電子黒板部4を形成している。このように、電子黒板部4はPDP2及び座標入力/検出装置3を収納して、電子黒板システム1の表示面(PDP2のディスプレイ面2a)及び書き込み面(座標入力/検出領域3a)を構成している。
【0065】
さらに、図示することは省略するが、PDP2にはビデオ入力端子やスピーカーが設けられており、ビデオプレイヤー8をはじめ、その他レーザディスクプレイヤー、DVDプレイヤー、ビデオカメラ等の各種情報機器やAV機器を接続し、PDP2を大画面モニタとして利用することが可能な構成になっている。また、PDP2には、PDP2の表示位置、幅、高さ、歪等についての調整を行うための調整手段(図示せず)も設けられている。
【0066】
次に、電子黒板システム1に内蔵される各部の電気的接続について図2を参照して説明する。図2に示すように、電子黒板システム1は、コンピュータ5にPDP2、スキャナ6、プリンタ7、ビデオプレイヤー8をそれぞれ接続し、コンピュータ5によってシステム全体を制御するようにしている。また、コンピュータ5には、指示部材A,Bで指示された座標入力/検出領域3a内の位置座標の演算等を行う座標入力/検出装置3に設けられるコントローラ10が接続されており、このコントローラ10を介して座標入力/検出装置3もコンピュータ5に接続されている。また、コンピュータ5を介して電子黒板システム1をネットワーク11に接続することができ、ネットワーク11上に接続された他のコンピュータで作成したデータをPDP2に表示したり、電子黒板システム1で作成したデータを他のコンピュータに転送することも可能になっている。
【0067】
次に、コンピュータ5について説明する。ここで、図3はコンピュータ5に内蔵される各部の電気的接続を示すブロック図である。図3に示すように、コンピュータ5は、システム全体を制御するCPU12(Central Processing Unit)と、起動プログラム等を記憶したROM(Read Only Memory)13と、CPU12のワークエリアとして使用されるRAM(Random Access Memory)14と、文字・数値・各種指示等の入力を行うためのキーボード15と、カーソルの移動や範囲選択等を行うためのマウス16と、ハードディスク17と、PDP2に接続されておりそのPDP2に対する画像の表示を制御するグラフィックス・ボード18と、ネットワーク11に接続するためのネットワーク・カード(またはモデムでも良い。)19と、コントローラ10・スキャナ6・プリンタ7等を接続するためのインタフェース(I/F)20と、上記各部を接続するためのバス21とを備えている。
【0068】
ハードディスク17には、オペレーティング・システム(OS:Operating System)22、コントローラ10を介してコンピュータ5上で座標入力/検出装置3を動作させるためのデバイスドライバ23、描画ソフト・ワードプロセッサソフト・表計算ソフト・プレゼンテーションソフト等の各種アプリケーションプログラム24等が格納されている。
【0069】
また、コンピュータ5には、OS22、デバイスドライバ23や各種アプリケーションプログラム24等の各種のプログラムコード(制御プログラム)を記憶した記憶媒体26、すなわち、フロッピーディスク、ハードディスク、光ディスク(CD−ROM,CD−R,CD−R/W,DVD−ROM,DVD−RAMなど)、光磁気ディスク(MO)、メモリカードなどに記憶されているプログラムコードを読み取る装置であるフロッピーディスクドライブ装置、CD−ROMドライブ装置、MOドライブ装置等のプログラム読取装置25が搭載されている。
【0070】
各種アプリケーションプログラム24は、コンピュータ5への電源の投入に応じて起動するOS22による制御の下、CPU12によって実行される。例えば、キーボード15やマウス16の所定の操作によって描画ソフトを起動した場合には、PDP2にグラフィックス・ボード18を介して描画ソフトに基づく所定の画像が表示される。また、デバイスドライバ23もOS22とともに起動され、コントローラ10を介した座標入力/検出装置3からのデータ入力が可能な状態になる。このように描画ソフトを起動した状態で座標入力/検出装置3の座標入力/検出領域3aにユーザが指示部材A,Bを挿入して文字や図形を描いた場合、座標情報が指示部材A,Bの記述に基づく画像データとしてコンピュータ5に入力され、例えばPDP2に表示されている画面上の画像に対して上書き画像として重ねて表示される。より詳細には、コンピュータ5のCPU12は、入力された画像データに基づいて線や文字を描画するための描画情報を生成し、入力された座標情報に基づく位置座標に併せてグラフィックス・ボード18に設けられるビデオメモリ(図示せず)に書き込んでいく。その後、グラフィックス・ボード18が、ビデオメモリに書き込まれた描画情報を画像信号としてPDP2に送信することにより、ユーザが書いた文字と同一の文字が、PDP2に表示されることになる。つまり、コンピュータ5は座標入力/検出装置3をマウス16のようなポインティングデバイスとして認識しているため、コンピュータ5では、描画ソフト上でマウス16を用いて文字を書いた場合と同様な処理が行われることになる。
【0071】
次に、座標入力/検出装置3について詳細に説明する。ここで、図4は座標入力/検出装置3の構成を概略的に示す説明図である。図4に示すように、座標入力/検出装置3は、PDP2のディスプレイ面2aのサイズに対応したサイズで横長の四角形状の座標入力/検出領域3aを備えている。この座標入力/検出領域3aは、手書きにより文字や図形等の入力を可能にする領域である。この座標入力/検出領域3aの下方両端部に位置する角部の近傍には、光ビームの発光と受光とを行う光学ユニット27(左側光学ユニット27L、右側光学ユニット27R)が取付角度β(図12参照)で設けられている。これらの光学ユニット27からは、平面若しくはほぼ平面をなし、例えばL1,L2,L3,・・・,Ln(R1,R2,R3,・・・,Rn)といった光ビーム(プローブ光)の束で構成される扇形状の光束膜が、座標入力/検出領域3aの全域に行き渡るようにPDP2のディスプレイ面2aの表面に沿って平行に投光される。
【0072】
また、座標入力/検出装置3の座標入力/検出領域3aの下部を除く周辺部には、再帰性反射部材28が設けられている。この再帰性反射部材28は、例えば円錐形状のコーナーキューブを多数配列して形成されており、入射した光をその入射角度によらずに所定の位置に向けて反射する特性を有している。例えば、左側光学ユニット27Lから投光されたプローブ光L3は、再帰性反射部材28によって反射され、再び同一光路を辿る再帰反射光L3´として左側光学ユニット27Lにより受光されることになる。つまり、再帰性反射部材28によっても座標入力/検出領域3aが形成されている。
【0073】
次に、光学ユニット27について説明する。ここで、図5は光学ユニット27の構造を概略的に示す構成図である。なお、図5はx−z方向を主体に示しているが、二点鎖線で示す部分については同一の構成要素を別方向(x−y方向、又はy−z方向)から見た図である。
【0074】
図5に示すように、光学ユニット27は、投光手段29と受光手段30とを備えている。投光手段29は、スポットをある程度絞ることの可能なLD(Laser Diode:半導体レーザ),ピンポイントLED(Light Emitting Diode:発光ダイオード)等の光源31を備えている。この光源31からPDP2のディスプレイ面2aに対して垂直に照射された光は、一方向の倍率のみを変更可能なシリンドリカルレンズ32によってx方向にコリメートされる。シリンドリカルレンズ32によってx方向にコリメートされた光は、シリンドリカルレンズ32とは曲率の分布が直交する2枚のシリンドリカルレンズ33,34によりy方向に対して集光される。つまり、これらのシリンドリカルレンズ群(シリンドリカルレンズ32,33,34)の作用により、光源31からの光を線状に集光した領域がシリンドリカルレンズ34の後方に形成されることになる。ここに、y方向に狭くx方向に細長いスリットを有するスリット板35を配置する。したがって、シリンドリカルレンズ群(シリンドリカルレンズ32,33,34)を通過した光は、スリット板35のスリット位置において、線状の二次光源36を形成する。二次光源36から発した光は、ハーフミラー37で折り返され、PDP2のディスプレイ面2aの垂直方向には広がらずにディスプレイ面2aの表面に沿った平行光で、ディスプレイ面2aと平行方向には二次光源36を中心にした扇形状の光束膜となって座標入力/検出領域3aを進行する。換言すれば、扇形状の光が座標入力/検出領域3aを形成する。これらのシリンドリカルレンズ群(シリンドリカルレンズ32,33,34)とスリット板35とによって、集光光学系が形成されている。
【0075】
前述したように、扇形状となって座標入力/検出領域3aを進行した光束膜は、再帰性反射部材28で再帰的に反射され、再び同一光路を辿ってハーフミラー37に戻ることになる。したがって、再帰性反射部材28で再帰的に反射された光束膜も座標入力/検出領域3aを形成する。
【0076】
再帰性反射部材28で反射されてハーフミラー37に戻った再帰反射光は、ハーフミラー37を透過して受光手段30に入射する。受光手段30に入射した再帰反射光は、集光レンズであるシリンドリカルレンズ38を通って線状にされた後、このシリンドリカルレンズ38から距離f(fはシリンドリカルレンズ38の焦点距離)の間隔で設けられたCCD(Charge Coupled Device:受光素子)39において、プローブ光毎に異なる位置で受光される。なお、本実施の形態のCCD(受光素子)39は、1次元CCDであって、その画素数は2,048画素とされている。
【0077】
詳細には、再帰性反射部材28で反射された再帰反射光は、z軸方向ではシリンドリカルレンズ38の作用を受けず、コリメートされたままCCD(受光素子)39に到達する。また、再帰反射光は、PDP2のディスプレイ面2aと平行方向では、シリンドリカルレンズ38の中心に集光するように伝搬し、その結果、シリンドリカルレンズ38の作用を受けてシリンドリカルレンズ38の焦点面に設置されたCCD(受光素子)39上に結像する。これにより、CCD(受光素子)39上に再帰反射光の有無に応じて光強度の分布が形成される。すなわち、再帰反射光を指示部材A,Bで遮った場合、CCD(受光素子)39上の遮られた再帰反射光に相当する位置に光強度が弱い点(後述するピーク点)が生じることになる。再帰反射光を受光したCCD(受光素子)39は、再帰反射光(プローブ光)の光強度分布に基づいた電気信号を生成し、前述したコントローラ10に対して出力する。なお、図5に示すように、二次光源36とシリンドリカルレンズ38とは、ハーフミラー37に対して共に距離dの位置に配設されて共役な位置関係にある。
【0078】
次に、指示部材A,Bについて説明する。ここで、図6(a)は指示部材Aを示す斜視図、図6(b)は指示部材Bを示す斜視図である。図6(a)に示すように、指示部材Aは、座標入力/検出装置3の座標入力/検出領域3a内の一点を指し示すための球形状の指示部A1と、ユーザが把持するための略円柱形状の把持部A2とで構成されている。なお、指示部材Aの指示部A1は、その中心部を座標入力/検出領域3aを形成する光束膜が通過する大きさの球形に形成されている。このように、指示部材Aの指示部A1を球形に形成し、かつ、その中心部を座標入力/検出領域3aを形成する光束膜が通過する大きさに形成することにより、座標入力/検出領域3aに挿入される指示部材Aの角度にかかわらずに、指示部材Aの指示部A1の直径のサイズDAを一定の大きさにすることができる。
【0079】
一方、図6(b)に示すように、指示部材Bは、座標入力/検出装置3の座標入力/検出領域3a内の一点を指し示すための球形状の指示部B1と、ユーザが把持するための略円柱形状の把持部B2と、球形状の高さ調整部B3とで構成されている。なお、指示部材Aの指示部A1の直径の実サイズDAと、指示部材Bの指示部B1の直径の実サイズDBとの関係は、
DA>DB
とされている。また、指示部材Bの指示部B1の中心部は、高さ調整部B3によって座標入力/検出領域3aを形成する光束膜が通過する位置とされている。このように、指示部材Bの指示部B1を球形に形成し、かつ、その中心部を座標入力/検出領域3aを形成する光束膜が通過する位置とすることにより、座標入力/検出領域3aに挿入される指示部材Bの角度にかかわらずに、指示部材Bの指示部B1の直径DBを一定の大きさにすることができる。また、以上のように専用の指示部材A,Bを用いることにより、座標入力/検出領域3aに挿入された指示部材A,Bの二次元位置座標の算出精度を高めることが可能になる。
【0080】
ここで、図7は受光素子39から再帰反射光の光強度分布に基づいた電気信号が入力され、座標入力/検出領域3aを進行する光が遮られた位置の座標を特定する処理を実行するコントローラ10のブロック構成図である。このコントローラ10は、光学ユニット27(左側光学ユニット27L、右側光学ユニット27R)の光源(LD)31の発光制御と、光学ユニット27(左側光学ユニット27L、右側光学ユニット27R)のCCD(受光素子)39からの出力の演算を行うものである。図7に示すように、コントローラ10には、各部を集中的に制御するCPU40が設けられており、このCPU40には、プログラム及びデータを記憶するROM41、各種データを書き換え自在に格納してワークエリアとして機能するRAM42、コンピュータ5に接続するためのインタフェース43、A/D(Analog/Digital)コンバータ44及びLDドライバ45がバス接続されている。また、CPU40には、各種のプログラムコード(制御プログラム)を格納するハードディスク46や不揮発性のメモリであるEEPROM(Electrically Erasable Programmable Read Only Memory)47がバス接続されている。ここに、CPU40、ROM41及びRAM42によりコンピュータとしてのマイクロコンピュータが構成されている。このようなマイクロコンピュータには、各種のプログラムコード(制御プログラム)を記憶した記憶媒体49、すなわち、フロッピーディスク、ハードディスク、光ディスク(CD−ROM,CD−R,CD−R/W,DVD−ROM,DVD−RAMなど)、光磁気ディスク(MO)、メモリカードなどに記憶されているプログラムコードを読み取る装置であるフロッピーディスクドライブ装置、CD−ROMドライブ装置、MOドライブ装置等のプログラム読取装置48が接続されている。
【0081】
CCD(受光素子)39からの出力を演算する回路として、CCD(受光素子)39の出力端子に、アナログ処理回路51が図のように接続される。CCD(受光素子)39に入射した反射光は、CCD(受光素子)39内で光の強度に応じた電圧値を持つアナログの画像データに変換され、アナログ信号として出力される。このアナログ信号は、アナログ処理回路51で処理された後、A/D(Analog/Digital)コンバータ44によってデジタル信号に変換されてCPU40に渡される。ここに、光強度分布検出手段が実現されている。なお、このような光強度分布検出手段は、サンプリング信号に伴う所定の時間間隔で時系列的に実行される。この後、CPU40によって指示部材A,Bの二次元位置座標の演算が行われる。
【0082】
ハードディスク46に格納された各種のプログラムコード(制御プログラム)または記憶媒体49に記憶された各種のプログラムコード(制御プログラム)は、コントローラ10への電源の投入に応じてRAM42に書き込まれ、各種のプログラムコード(制御プログラム)が実行されることになる。
【0083】
続いて、制御プログラムに基づいてCPU40によって実行される機能について説明する。ここでは、本実施の形態の座標入力/検出装置3の備える特長的な機能である座標検出手段を実現する座標検出処理について図8ないし図14を参照しつつ以下において具体的に説明する。
【0084】
ここで、図8は座標検出処理の流れを概略的に示すフローチャート、図9は座標入力/検出装置3の座標入力/検出領域3a内の一点を指示部材Aで指し示した一例を示す正面図である。図9に示すように、例えば、左側光学ユニット27Lから照射されたL1,L2,L3,・・・,Lnといったプローブ光で構成される扇形状の光の中でn番目のプローブ光Lnが指示部材Aによって遮られた場合、そのプローブ光Lnは再帰性反射部材28に到達することはない。
【0085】
このときCCD(受光素子)39上の光強度分布を考える。ここで、図10はCCD(受光素子)39の検出動作を模式的に示す説明図である。指示部材Aが座標入力/検出領域3a内に挿入されていなければ、CCD(受光素子)39上の光強度分布はほぼ一定であるが、図10に示すように指示部材Aが座標入力/検出領域3a内に挿入されてプローブ光Lnが指示部材Aによって遮られた場合、そのプローブ光Lnは光学ユニット27のCCD(受光素子)39によって受光されることはないため、プローブ光Lnに対応する光学ユニット27のCCD(受光素子)39上の所定の位置Xnが光強度の弱い領域(暗点)となる。この光強度の弱い領域(暗点)である位置Xnは、CCD(受光素子)39から出力される光強度の波形にピーク点として出現することになるので、CPU40は、このような光強度の波形におけるピーク点の出現を電圧の変化により認識し、この光強度の波形のピーク点となった暗点の位置Xnを検出する(図8に示すステップS1のY)。ここに、ピーク点検出手段の機能が実行される。
【0086】
また、光強度の波形のピーク点となった暗点位置Xnが検出されると、暗点位置XnからCCD(受光素子)39の中心画素までの距離aが、例えばCCD(受光素子)39の画素番号(例えば、図10においては、画素番号m)に基づいて検出される。ここに、図8に示すステップS2の処理としてピーク距離検出手段の機能が実行される。
【0087】
光強度の弱い領域(暗点)である位置Xn(左側光学ユニット27LのCCD(受光素子)39上ではXnL,右側光学ユニット27RのCCD(受光素子)39上ではXnR)は、遮られたプローブ光の出射/入射角θnと対応しており、Xnを検出することによりθnを知ることができる。即ち、暗点位置XnからCCD(受光素子)39の中心画素までの距離をaとすると、θnはa(Xn)の関数として、
θn=tan-1(a/f) ………………………………(1)
と表すことができる。ただし、fはシリンドリカルレンズ38の焦点距離である。ここで、左側光学ユニット27LにおけるθnをθnL、aをXnLと置き換える。
【0088】
さらに、図9において、左側光学ユニット27Lと座標入力/検出領域3aとの幾何学的な相対位置関係の変換係数gにより、指示部材Aと左側光学ユニット27Lとのなす角度θLは、(1)式で求められるXnLの関数として、
θL=g(θnL) ………………………………(2)
ただし、θnL=tan-1(XnL/f)
と表すことができる。
【0089】
同様に、右側光学ユニット27Rについても、上述の(1)(2)式中の記号Lを記号Rに置き換えて、右側光学ユニット27Rと座標入力/検出領域3aとの幾何学的な相対位置関係の変換係数hにより、
θR=h(θnR) ………………………………(3)
ただし、θnR=tan-1(XnR/f)
と表すことができる。ここに、図8に示すステップS3の処理として各投光手段における出射角度を算出する角度算出手段の機能が実行される。
【0090】
ここで、左側光学ユニット27Lと右側光学ユニット27Rとの取付間隔を図9に示すwとすると、座標入力/検出領域3a内の指示部材Aで指示した点の二次元位置座標(x,y)は、三角測量の原理により、
x=w・tanθR/(tanθL+tanθR) ………………(4)
y=w・tanθL・tanθR/(tanθL+tanθR) ……(5)
として算出することができる。以上により、図8に示すステップS4の処理として位置座標算出手段の機能が実行される。
【0091】
これらの(1)(2)(3)(4)(5)式は制御プログラムの一部として予めハードディスク46や記憶媒体49に格納されており、(1)(2)(3)(4)(5)式により、指示部材Aの位置座標(x,y)は、XnL,XnRの関数として算出される。すなわち、左側光学ユニット27LのCCD(受光素子)39上の暗点の位置と右側光学ユニット27RのCCD(受光素子)39上の暗点の位置とを検出することで、指示部材Aの位置座標(x,y)が算出されることになる。
【0092】
ところで、本実施の形態においては、前述したように指示部の直径が異なる2つの指示部材A,Bを用いていることにより、指示部材A,Bを座標入力/検出装置3の座標入力/検出領域3a内に同時に挿入する場合がある。ところが、このように座標入力/検出領域3a内に指示部材A,Bが同時に挿入された場合には、図11に示すように、指示部材A,Bによる実際の遮断点A,Bの位置座標の他に、実在しない点A´,B´の位置座標も検出されてしまう。これは、座標入力/検出領域3a内に指示部材A,Bを同時に挿入したために、光学ユニット27(左側光学ユニット27L,右側光学ユニット27R)のCCD(受光素子)39上に2箇所の光強度の弱い領域(暗点)が、それぞれ生じてしまうことによる。つまり、位置座標は前述したようにXnL,XnRの関数として算出されることから、2つの指示部材A,Bを座標入力/検出領域3a内に同時に挿入した場合には、指示部材Aと右側光学ユニット27Rとのなす角度θR1と指示部材Bと右側光学ユニット27Rとのなす角度θR2とが算出されるとともに、指示部材Aと左側光学ユニット27Lとのなす角度θL1と指示部材Bと左側光学ユニット27Lとのなす角度θL2とが算出され、合計4つの位置座標が算出されることになる。
【0093】
なお、算出される位置座標の数は、指示部材の数“N”により決まるものであって、“N2”により求めることができる。つまり、上述したように指示部材の数が“1”である場合には1つの位置座標のみが算出されるが、指示部材の数が“2”である場合には4つの位置座標が算出され、指示部材の数が“3”である場合には9つの位置座標が算出されることになる。
【0094】
そこで、本実施の形態においては、複数個の位置座標が算出された場合には(図8に示すステップS5のY)、複数個の位置座標の中から指示部材A,Bによる実際の遮断点A,Bの位置座標を抽出する座標抽出処理(図8に示すステップS6〜S8)が、座標検出処理の一部として実行される。座標抽出処理としては、まず、指示部材A,Bの指示部A1,B1の直径のサイズDの測定処理(図8に示すステップS6)が実行される。このサイズ測定処理は、算出された各位置座標毎に実行される。以下に、CPU40によるサイズ測定処理について説明する。ここで、図12は座標入力/検出領域3a内の一点を指示部材Aで指し示した一例を部分的に示す説明図、図13はCCD(受光素子)39から出力される光強度の波形の一例を示すグラフである。図12および図13に示すように、暗点位置XnからCCD(受光素子)39の中心画素までの距離(CCD(受光素子)39の中心からそのピーク点に至る距離)aをCCD(受光素子)39の画素番号に基づいて検出するとともに、スレシュホルドレベルに応じてCCD(受光素子)39が受光した指示部材Aの指示部A1の結像サイズ(指示部材AのCCD(受光素子)39上における結像サイズ)bも検出する。ここに、結像サイズ検出手段の機能が実行される。
【0095】
そして、暗点位置XnLからCCD(受光素子)39の中心画素までの距離aは、CCD(受光素子)39の中心からの垂線と、指示部材Aの中心と暗点位置XnLとを結ぶ線とで形成される角度αに依存しており、この角度αが、
α=tan-1(a/f) ………………(6)
として算出される。ただし、fはシリンドリカルレンズ38の焦点距離である。
【0096】
また、指示部材Aの中心からシリンドリカルレンズ38に至る距離Lは算出された位置座標より求めることができ、かつ、CCD(受光素子)39が受光する指示部材Aの被写体像の像倍率はシリンドリカルレンズ38から指示部材Aの中心に至る距離Lに依存しており、
L:l=D:b (l:シリンドリカルレンズ38から暗点位置XnLまでの距離)
の関係が成立することにより、指示部材Aの指示部A1の直径のサイズDは、
D=(b/l)・L
=(b/(a/sinα)・L
=(b/(a/sin(tan-1(a/f)))・L ………(7)
として算出される。以上により、図8に示すステップS6の処理としてサイズ算出手段の機能が実行される。
【0097】
つまり、このような指示部材Aの指示部A1の直径のサイズDの測定は、1つのCCD(受光素子)39上における結像サイズbと、2つの位置座標(例えば、図11に示すような、実際の遮断点Aの位置座標と、実在しない点A´の位置座標)に基づいて算出される2つの距離Lとに基づいて行われる。また、同様の処理が、指示部材Bの指示部B1の直径のサイズDの測定についても行われる。
【0098】
なお、以上においては、左側光学ユニット27LでのCCD(受光素子)39上における結像サイズbに基づく処理について説明したが、右側光学ユニット27Rにおいても同様であることは言うまでもない。以上により、サイズ測定処理が終了する。
【0099】
このようにして検出・算出・測定された各種の数値は、RAM42において記憶保持される。ここで、図14はRAM42の数値記憶テーブルTを示す説明図である。図14に示すように、数値記憶テーブルTには、各指示部材A,Bと右側光学ユニット27Rとのなす角度θR1,θR2と、各指示部材A,Bと左側光学ユニット27Lとのなす角度θL1,θL2との組み合わせ毎に、その角度θRと角度θLとの組み合わせに応じて算出される4つの位置座標が記憶保持されている。また、数値記憶テーブルTには、角度θRおよび角度θLにより一義的に決まるCCD(受光素子)39上における結像サイズb(bR1,bR2,bL1,bL2)が、角度θRと角度θLとの組み合わせ毎に記憶保持されている。さらに、数値記憶テーブルTには、前述したように指示部材の中心からシリンドリカルレンズに至る距離Lは算出された位置座標より求めることができることから、右側光学ユニット27Rおよび左側光学ユニット27Lにおいて算出された指示部材の指示部の直径のサイズD(DA,DB,DC,DD,DE,DF)が、4つの位置座標毎に記憶保持されている。
【0100】
続いて、座標抽出処理の一部であるサイズ比較処理(図8に示すステップS7)が、CPU40によって実行される。このサイズ比較処理は、数値記憶テーブルTに4つの位置座標毎に右側光学ユニット27Rおよび左側光学ユニット27Lに分けてそれぞれ記憶保持されている直径サイズDを比較するものである。比較の手法としては、例えば、右側光学ユニット27Rで算出された直径サイズDと左側光学ユニット27Lで算出された直径サイズDとの比率を算出する。
【0101】
その後、サイズ比較処理によって算出された比率が“1”に近い2つの位置座標が、指示部材A,Bによる実際の遮断点A,Bの位置座標として抽出される(図8に示すステップS8に示す抽出処理)。なお、抽出処理において抽出する位置座標の数は、指示部材の数“N”である。したがって、図14に示すように、右側光学ユニット27Rで算出された直径サイズDと左側光学ユニット27Lで算出された直径サイズDとが等しい値である(x1,y1)と(x4,y4)とが、遮断点A,Bの位置座標として抽出されることになる。なお、抽出された2つの位置座標が、指示部材Aによるものか、指示部材Bによるものかの区別は、指示部材Aの指示部A1の直径の実サイズDAと、指示部材Bの指示部B1の直径の実サイズDBとの関係は、
DA>DB
とされていることから、それぞれ算出された直径サイズDの大小で区別することができる。したがって、指示部材Aによる遮断点Aの位置座標は(x1,y1)であって、指示部材Aによる遮断点Aの位置座標は(x4,y4)である。以上のステップS7およびステップS8により、位置座標抽出手段の機能が実行される。
【0102】
CPU40は、以上のようにして算出された指示部材A,Bの指示した位置座標をインタフェース43を介してコンピュータ5に転送し、指示部材A,Bによる指示位置の表示や指示位置に対応するコマンド入力などの処理に利用することになる。以上により、図8に示すステップS9の処理が実行される。つまり、描画ソフトを起動した状態で座標入力/検出装置3の座標入力/検出領域3aにユーザが指示部材A,Bを挿入して文字や図形を描いた場合、それぞれの位置座標が指示部材A,Bの記述に基づく画像データとしてコンピュータ5に入力され、例えばPDP2に表示されている画面上の画像に対して上書き画像として重ねて表示される。
【0103】
ここに、座標入力/検出領域3aを形成する光の一部が指示部材A,Bの挿入によって遮られた場合、光強度分布のピーク点である光を遮った指示部材A,Bの光学ユニット27(左側光学ユニット27L,右側光学ユニット27R)の各CCD(受光素子)39上の結像位置と、光を遮った指示部材A,Bの光学ユニット27(左側光学ユニット27L,右側光学ユニット27R)の各CCD(受光素子)39上における結像サイズbとが検出される。また、各CCD(受光素子)39上の中心からそのピーク点に至る距離aが検出され、このCCD(受光素子)39上の中心からそのピーク点に至る距離aに基づいて指示部材A,Bに遮られた各投光手段29における光の出射角度θL,θRが算出され、これらの各投光手段29における出射角度θL,θRに基づいて座標入力/検出領域3aに挿入された指示部材A,Bの二次元位置座標が算出される。さらに、CCD(受光素子)39上の中心からそのピーク点に至る距離aと結像サイズbと算出された各二次元位置座標から算出される指示部材までの距離Lとに基づいて、それらの各二次元位置座標における指示部材A,Bの光を遮った部分の径サイズDが算出された後、各CCD(受光素子)39における指示部材A,Bの光を遮った部分の径サイズDが略一致する二次元位置座標が、指示部材A,Bが実際に示した二次元位置座標として抽出される。これにより、2つの指示部材A,Bで同時に指示した場合にはそれらの指示部材A,Bの数の二乗の数(ここでは、4つ)だけ位置座標が検出されることになるが、指示部材A,Bは座標入力/検出領域3aにおける径サイズDA,DBが各々異なることから、各位置座標における指示部材A,Bの光を遮った部分の径サイズDを算出し、各CCD(受光素子)39における指示部材A,Bの光を遮った部分の径サイズDが略一致しない位置座標を誤認識によるものとして排除することで、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0104】
なお、本実施の形態においては、座標入力/検出装置3を表示装置であるプラズマディスプレイパネル(PDP:Plasma Display Panel)2に備えたが、これに限るものではなく、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、前面投影型プロジェクター、背面投影型プロジェクター等を表示装置として適用しても良い。さらに、これらの表示装置に限るものではなく、特に図示しないが、ライティングボードとして機能する黒板やホワイトボード等に備えるようにしても良い。
【0105】
本発明の第二の実施の形態を図15ないし図18に基づいて説明する。なお、本発明の第一の実施の形態において説明した部分と同一部分については同一符号を用い、説明も省略する。本実施の形態は、座標入力/検出装置の方式の変形例である。詳細には、本発明の第一の実施の形態で用いた座標入力/検出装置3は光遮蔽式であったが、本実施の形態の座標入力/検出装置50においては、光反射式としたものである。
【0106】
ここで、図15は座標入力/検出装置50に用いられる指示部材であって、(a)は指示部材Aを示す斜視図、(b)は指示部材Bを示す斜視図である。また、図16は座標入力/検出装置50の座標入力/検出領域50a内の一点を指示部材Aで指し示した一例を示す正面図、図17はその一部を拡大して示す説明図である。図16に示すように、座標入力/検出装置50の座標入力/検出領域50a内の一点を指し示すために用いられる指示部材A,Bの球形状の指示部A1,B1には、再帰性反射部材52がそれぞれ設けられている。この再帰性反射部材52は、例えば円錐形状のコーナーキューブを多数配列して形成されており、入射した光をその入射角度によらずに所定の位置に向けて反射する特性を有している。例えば、左側光学ユニット27Lから投光されたプローブ光Lnは、図16に示すように、再帰性反射部材52によって反射され、再び同一光路を辿る再帰反射光Ln´として光学ユニット27により受光されることになる。そのため、図16に示すように、本実施の形態の座標入力/検出装置50においては、本発明の第一の実施の形態で用いた座標入力/検出装置3のように座標入力/検出領域3aの下部を除く周辺部に再帰性反射部材28を設ける必要はない。
【0107】
図17に示すように、このような指示部材Aの再帰性反射部材52を備えた指示部A1を座標入力/検出装置50の座標入力/検出領域50aの適当な位置(x,y)に挿入し、例えば光学ユニット27から投光された扇形状の光束膜の中のプローブ光Lnが指示部材Aの指示部A1によって反射された場合、その再帰反射光Ln´は光学ユニット27のCCD(受光素子)39によって受光される。このようにしてCCD(受光素子)39が再帰反射光Ln´を受光した場合には、図17に示すように、再帰反射光Ln´に対応する光学ユニット27のCCD(受光素子)39上の所定の位置XnLが光強度の強い領域(明点)となる。より詳細には、光束膜の中のプローブ光Lnが指示部材Aによって反射された場合、図18に示すようなCCD(受光素子)39から出力される光強度の波形にピーク点が出現することになる。
【0108】
したがって、このような光反射式の座標入力/検出装置50を電子黒板システム1に適用した場合であっても、光遮蔽式の座標入力/検出装置3を用いた場合と同様の作用効果を得ることができる。
【0109】
本発明の第三の実施の形態を図19に基づいて説明する。なお、本発明の第一の実施の形態または本発明の第二の実施の形態において説明した部分と同一部分については同一符号を用い、説明も省略する。本実施の形態は、光学ユニットの変形例である。詳細には、本発明の第一の実施の形態または本発明の第二の実施の形態で用いた光学ユニット27においては扇形状の光束膜を投光して座標入力/検出領域を形成したが、本実施の形態の光学ユニット60においては、ポリゴンミラー等の回転走査系を有しており、その回転走査系によって光源から出射された光ビームを放射状に投光して座標入力/検出領域を形成するものである。
【0110】
ここで、図19は光学ユニット60を概略的に示す平面図である。図19に示すように、光学ユニット60は、駆動回路(図示せず)を有してレーザ光を出射する光源であるLD(Laser Diode:半導体レーザ)61とハーフミラー62とポリゴンミラー63と集光レンズ64とで構成される投光手段60aと、受光素子65とが備えられている。受光素子65は、集光レンズ64から距離f(fは集光レンズ64の焦点距離)の間隔で設けられたCCD(Charge Coupled Device)で構成されている。このような光学ユニット60は、LD61から出射したレーザ光をハーフミラー62を透過させた後、モータ(図示せず)により回転駆動されるポリゴンミラー63によって放射状に順次反射する。したがって、光学ユニット60は、ビーム光を放射状に繰り返し投光することになる。つまり、2つの光学ユニット60から放射状に投光されるビーム光によって座標入力/検出領域66が形成されることになる。
【0111】
したがって、このような光学ユニット60を光学ユニット27(左側光学ユニット27L、右側光学ユニット27R)に代えて座標入力/検出装置3,50に適用した場合であっても、指示部材による光の遮蔽または反射によってCCD(受光素子)65から出力される光強度の波形にピーク点が出現することになる。したがって、技術的には公知であるため詳細な説明は省略するが、このCCD(受光素子)65から出力される光強度の波形のピーク点に基づいてポリゴンミラー63を回転させたパルスモータのパルス数を検出し、この検出されたパルス数に応じて指示部材により遮蔽または反射された光の出射角度を光学ユニット60毎に求め、それらの出射角度に基づく三角測量の手法によって指示部材を挿入した座標位置を検出することができる。これにより、このような光学ユニット60を座標入力/検出装置3,50に適用した場合であっても、前述した光学ユニット27を用いた場合と同様の作用効果を得ることができる。
【0112】
次に、本発明の第四の実施の形態を図20ないし図28に基づいて説明する。なお、本発明の第一の実施の形態または第二の実施の形態において説明した部分と同一部分については同一符号を用い、説明も省略する。
【0113】
本実施の形態は、第一の実施の形態の座標入力/検出装置3で用いたような指示部の直径が異なる2つの指示部材や第二の実施の形態の座標入力/検出装置50で用いたような再帰性反射部材52がそれぞれ設けられた指示部の直径が異なる2つの指示部材を不要とするとともに、制御プログラムに基づいてCPU40によって実行される機能である座標検出手段を実現する座標検出処理における複数個の位置座標の中から指示部材による実際の遮断点/反射点の位置座標を抽出する座標抽出処理の方法が異なるものである。概略的には、本実施の形態の座標抽出処理は、実際の遮断点/反射点であるか否かの判定において、指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたものである。なお、以下においては、座標入力/検出装置3の構成に基づいて説明する。
【0114】
ここで、図20は本実施の形態の座標検出処理の流れを概略的に示すフローチャート、図21は複数個の位置座標が算出される状態を示す説明図である。なお、図21において、“A1,A2,A3,A4”は一方の指示部材で指示した実像の座標軌跡、“B1,B2,B3,B4”は他方の指示部材で指示した実像の座標軌跡を示すものである。また、“C1,C2,C3,C4”および“D1,D2,D3,D4”は、虚像である。
【0115】
図20に示すように、本実施の形態の座標検出処理の内、ステップS11〜S15の処理については、図8で示したステップS1〜S5の処理と何ら変わるところがないので、その説明は省略する。
【0116】
例えば指やペン等の指示部材が座標入力/検出領域3a内に同時に複数挿入され、複数個の位置座標(図21に示すA1,B1,C1,D1)が算出された場合には(図20に示すステップS15のY)、複数個の位置座標の中から複数の指示部材による実際の遮断点の位置座標を抽出する座標抽出処理(図20に示すステップS16〜S38)が、座標検出処理の一部として実行される。
【0117】
座標抽出処理としては、まず、算出された複数個の位置座標(A1,B1,C1,D1)をRAM42やEEPROM47等のメモリに記憶する(ステップS16)。
【0118】
続くステップS17においては、メモリに記憶された複数個の位置座標(A1,B1,C1,D1)の内、実像として確定した位置座標が有るか否かが判定される。
【0119】
実像として確定した位置座標が無い場合には(ステップS17のN)、ステップS18に進み、実像判定に必要な時系列的に順次得られる複数回分の算出座標がメモリに記憶されているか否かを判定する。
【0120】
複数回分の算出座標がメモリに記憶されている場合には(ステップS18のY)、ベクトル長・変位長・変位方向の初期判定条件(実験値)を設定した後(ステップS19)、ステップS20に進み、実像判定処理を実行する。
【0121】
ここで、図22は実像判定処理の流れを概略的に示すフローチャートである。実像判定処理は、図22に示すように、まず、ステップS51において、所定の算出座標を起点座標とし、座標間の座標ベクトル値及び座標ベクトル長を算出して、サンプリングされた二次元位置座標毎にRAM42やEEPROM47等のメモリに記憶する。
【0122】
ここで、座標ベクトル値の算出方法について図23を参照して説明する。図23において、前回検出された二次元位置座標を(X1,Y1)、今回得られた二次元位置座標を(X2,Y2)とする。X座標方向の変化量ΔX=X2−X1、Y座標方向の変化量ΔY=Y2−Y1から、座標ベクトル値をΔY/ΔXにより算出する。この場合の座標ベクトル値は、図24に示すRAM42に格納されるベクトルテーブルT2に、X軸方向から10度間隔で数値化されて予め格納されている。なお、この間隔(10度)は任意に設定すればよい。また、座標ベクトル値は、算出結果の近似値を用いるものとする。例えば、−ΔY,−ΔXでΔY/ΔX=0.900の場合であれば、座標ベクトル値=24となる。
【0123】
また、図23において示すように、各サンプリングにおける座標間の座標ベクトル値は上述のように算出され、各座標間の座標ベクトル長Lは、例えば、座標(X1,Y1),(X2,Y2)間の座標ベクトル長L1であれば、
L1=√{(Y2−Y1)2+(X2−X1)2}
により算出される。このようにして、サンプリングされた二次元位置座標毎にその座標ベクトル値とその座標ベクトル長とがそれぞれ算出される。
【0124】
つまり、ステップS51においては、時系列的に順次得られる二次元位置座標間の変化する方向とその変化分を示す長さについて、ベクトルテーブルT2に予め設定格納されているベクトルデータを用いてベクトル座標化する処理を実行するものである。ここに、ベクトル化手段の機能が実行される。
【0125】
続いて、ステップS52に進み、ステップS51で算出した座標ベクトル長が、座標検出周期(サンプリング信号に伴う所定の時間間隔)内において移動不可能な異常な座標ベクトル長(異常ベクトル長)であるか否かが判定される。なお、本実施の形態における座標検出周期は、20msとする。つまり、ステップS52は、ステップS51で算出した座標ベクトル長が座標検出周期(20ms)内に検出される長さより長い場合には、実際には移動不可能であることから、その座標軌跡は、異常な座標ベクトル長(異常ベクトル長)であって実像軌跡ではないものと判定するものである。ここに、位置座標抽出手段の機能が実行される。
【0126】
座標ベクトル長が異常ベクトル長である場合には(ステップS52のY)、ステップS53に進み、異常ベクトル長を判定した座標ベクトル長の数が検知された位置座標数に達したか否かが判定され、検知された位置座標数に達していなければ(ステップS53のN)、終点の位置座標を変更して(ステップS54)、再びステップS51においてその終点に基づく座標ベクトル値と座標ベクトル長とを算出する。
【0127】
つまり、ステップS51〜S52の処理は、座標ベクトル長が異常ベクトル長でないと判定されるまで(ステップS52のN)、または、全ての終点の位置座標についての座標ベクトル長が異常ベクトル長であると判定されるまで(ステップS53のY)、繰り返される。
【0128】
したがって、例えば位置座標A1を起点座標とした場合について説明すると、図21に示すようにその直後に算出される位置座標はA2,B2,C2,D2であることから、これらの位置座標(A2,B2,C2,D2)の中から一つずつ位置座標が終点として選択され、
A1→A2,A1→B2,A1→C2,A1→D2
の何れか一つに係る座標ベクトル値(起点ベクトル値)とその座標ベクトル長(起点ベクトル長)とが順次算出され、実像軌跡であるか否かが順次判定されることになる。
【0129】
なお、全ての終点の位置座標についての座標ベクトル長が異常ベクトル長であると判定された場合には(ステップS53のY)、実像の確定ができないことになるので、後述するステップS21に進む。
【0130】
一方、座標ベクトル長が異常ベクトル長でないと判定された場合には(ステップS52のN)、その終点の位置座標をRAM42やEEPROM47等のメモリに記憶し(ステップS55)、所定の初期設定(n=3(n:座標検出周期回数))を実行する(ステップS56)。
【0131】
続くステップS57においては、ステップS55においてメモリに記憶した起点ベクトルの終点の位置座標を起点座標とし、n番目の座標検出周期において検出された位置座標との座標間の座標ベクトル値及び座標ベクトル長を算出し、RAM42やEEPROM47等のメモリに記憶する。ここに、ベクトル化手段の機能が実行される。
【0132】
続いて、ステップS58に進み、ステップS57で算出した座標ベクトル長が、座標検出周期内において移動不可能な異常な座標ベクトル長(異常ベクトル長)であるか否かを判定する。
【0133】
座標ベクトル長が異常ベクトル長でないと判定された場合には(ステップS58のN)、ステップS59に進み、実像軌跡であるものとされたA1→A2の座標軌跡とA2→A3の座標軌跡とを比較し、座標ベクトル値が特定の変位量(V)内にあり、且つ,座標ベクトル長が特定の変位量(L)外である軌跡(異常変位長)であるか否かを判定する。
【0134】
このように座標ベクトル値が特定の変位量(V)内にあり、且つ,座標ベクトル長が特定の変位量(L)外である軌跡(異常変位長)であるか否かを判定するのは、図25に示すように、一般的に直線を描く場合には、座標ベクトル値、同一時間内における座標ベクトル長はほぼ同じであり、また、特に図示しないが、曲線を描く場合においても、座標ベクトル値は変化するが変化量は略同一であって座標ベクトル長も略同一となることに起因している。つまり、直線または曲線上に検出物が移動する場合には、座標ベクトル長および座標ベクトル値に大きな差は生じないことから、座標ベクトル値が特定の変位量(V)内であっても、座標ベクトル長が特定の変位量(L)外である軌跡(異常変位長)については、排除するものである。
【0135】
異常変位長でないと判定された場合には(ステップS59のN)、ステップS60に進み、実像軌跡であるものとされたA1→A2の座標軌跡とA2→A3の座標軌跡とを比較し、座標ベクトル値が特定の変位量(V)外にあり、且つ,座標ベクトル長が減少している軌跡(異常変位方向)であるか否かを判定する。
【0136】
このように座標ベクトル値が特定の変位量(V)外にあり、且つ,座標ベクトル長が減少している軌跡(異常変位方向)であるか否かを判定するのは、図26に示すように、一般的に直線方向を大きく変化させて描く場合には、方向転換する描画速度は順次低減して方向転換点で停止状態となり、再び転換方向に通常の速度で描きはじめることになるので、座標ベクトル値が大きく変化する場合には、座標ベクトル長は逐次減少した後、変換方向に向かって増加することに起因している。つまり、検出物が大きく方向を変える場合には、直前に動作の停止状態が発生することから、座標ベクトル長が減少していても、座標ベクトル値が特定の変位量(V)外である軌跡(異常変位方向)については、排除するものである。
【0137】
以上、ステップS58〜S60の処理によって、位置座標抽出手段の機能が実行される。
【0138】
異常変位方向でないと判定された場合(ステップS60のN)、言い換えれば異常ベクトル長でも異常変位長でも異常変位方向でもない場合には、その終点の位置座標をRAM42やEEPROM47等のメモリに記憶し(ステップS61)、座標検出周期回数nを“1”インクリメントする(ステップS62)。
【0139】
その後、ステップS63において、座標検出周期回数nがメモリに記憶されている実像判定に必要な時系列的に順次得られる複数回分の算出座標の数(判定座標数)を超えたか否かが判定され、座標検出周期回数nが判定座標数を超えていない場合には(ステップS63のY)、前述した継続ベクトルを起点ベクトルとし(ステップS64)、再びステップS57においてその終点に基づく座標ベクトル値と座標ベクトル長とを算出する。
【0140】
つまり、ステップS57〜S64の処理は、全ての終点の位置座標について異常ベクトル長または異常変位長若しくは異常変位方向であると判定されるまで(ステップS65のY)、終点の位置座標を変更し(ステップS66)、繰り返される。
【0141】
そして、全ての終点の位置座標について異常ベクトル長または異常変位長若しくは異常変位方向であると判定された場合には(ステップS65のY)、再びステップS54に進み、終点の位置座標を変更し、ステップS51においてその終点に基づく座標ベクトル値と座標ベクトル長とを算出する。
【0142】
したがって、例えば、ステップS55においてメモリに記憶した起点ベクトルの終点の位置座標がA2であって、A1→A2が実像軌跡であるものとされた場合、図21に示すようにその直後に算出される位置座標はA3,B3,C3,D3であることから、これらの位置座標(A2,B2,C2,D2)の中から一つずつ位置座標が終点として選択され、
A2→A3,A2→B3,A2→C3,A2→D3
の何れか一つに係る座標ベクトル値(継続ベクトル値)とその座標ベクトル長(継続ベクトル長)とが順次算出され、実像軌跡であるか否かが順次判定されることになる。
【0143】
一方、座標検出周期回数nが判定座標数を超えたと判定された場合には(ステップS63のY)、実像が確定したことになるので、その位置座標をインタフェース43を介してコンピュータ5に転送し(ステップS67)、指示部材による指示位置の表示や指示位置に対応するコマンド入力などの処理に利用することになる。
【0144】
ここで、一の位置座標に基づく他の位置座標についての実像か否かの判定について図11を参照して説明する。一の位置座標に基づく他の位置座標についての実像か否かの判定は、図11において、AとA´とがいずれも実像であるものとすると、▲2▼の方向には座標は検出されないことになる。このため、AとA´とのいずれか一方が実像であることが解かる。また、同様に、BとB´とのいずれか一方が実像であることが解かる。つまり、同一方向に存在する位置座標は、何れか一方のみが実像であって、他方は虚像であることになる。また、一方のAが実像であると解かった場合には、他方のA´は虚像として認識されるとともに、▲3▼方向のB´も虚像として認識されることになるので、Bが実像であることが解かる。つまり、メモリに記憶された四つの位置座標の内、一の位置座標について実像か虚像かが認識されれば、全ての位置座標についての実像か虚像かの判定が可能であることが解かる。したがって、算出された全ての二次元位置座標について実像判定を行う必要はないので、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0145】
なお、図27に示すように、メモリに記憶された複数個の位置座標(A1,B1,C1,D1)の内、一の位置座標(図27においてはB1)が座標入力/検出領域3aの外に存在してしまう場合には、A1とC1とを実像として確定することができることになる。
【0146】
すなわち、メモリに記憶された四つの位置座標の内、一の位置座標について実像か虚像かが認識されれば、全ての位置座標についての実像か虚像かの判定が可能であることにより、他方の位置座標も実像として確定し(ステップS68)、インタフェース43を介してコンピュータ5に転送する(ステップS69)。以上、ステップS67〜S69の処理によって実像判定手段の機能が実行される。また、ステップS67〜S69の処理は、判定座標数全てについて確定するまで(ステップS70のY)、繰り返される。そして、判定座標数全てについての実像の位置座標の送信が終了した場合に(ステップS70のY)、実像判定処理は終了し、ステップS11に戻る。
【0147】
次に、ステップS53において全ての終点の位置座標についての座標ベクトル長が異常ベクトル長であると判定された場合の処理について説明する。全ての終点の位置座標についての座標ベクトル長が異常ベクトル長であると判定された場合には(ステップS53のY)、前述したように実像の確定ができないものとしてステップS21に進むが、このステップS21においては、まだ同一方向の位置座標(例えば、図21においてA1に対するC1)についての実像判定処理を実行しているかいないかを判定する。まだ同一方向の位置座標についての実像判定処理を実行していない場合には(ステップS21のN)、起点座標を変更して(ステップS22)、再度ステップS20に進み、実像判定処理を実行する。一方、同一方向の位置座標についての実像判定処理を実行している場合には(ステップS21のY)、ステップS19で設定したベクトル長・変位長・変位方向の判定条件を変更し(ステップS23)、再度ステップS20に進み、実像判定処理を実行する。つまり、同一方向の2点の位置座標について、交互に同条件にて実像判定を繰り返すことになる。
【0148】
また、算出された位置座標が複数ではない場合には(ステップS15のN)、その算出された位置座標をインタフェース43を介してコンピュータ5に転送するとともに(ステップS24)、RAM42やEEPROM47等のメモリに記憶し(ステップS25)、ステップS11に戻る。
【0149】
次に、ステップS17において、実像として確定した位置座標が有ると判定された場合について説明する。実像として確定した位置座標が有る場合には(ステップS17のY)、ステップS26に進む。
【0150】
ここで、実像として確定した位置座標が有る場合とは、前述したように算出された位置座標が複数ではない場合の位置座標がRAM42やEEPROM47等のメモリに複数記憶されている場合であって、例えば図28に示すような場合である。図28は、一の指示部材で記述している途中において、他の指示部材が座標入力/検出領域3a内に挿入された状態を示している。なお、実像として確定した位置座標が有る場合とは、前述したような処理により2点の座標が確定している場合を含むことは言うまでもない。
【0151】
ステップS26においては、実像として確定した位置座標の前回および前々回の値に基づき、座標間の座標ベクトル値(実像ベクトル値)及び座標ベクトル長(実像ベクトル長)を算出して、RAM42やEEPROM47等のメモリに記憶する。
【0152】
その後、ベクトル長・変位長・変位方向の初期判定条件(実験値)を設定した後(ステップS27)、ステップS26においてメモリに記憶した実像ベクトルの終点の位置座標を起点座標とし、複数個同時に検出された位置座標との座標間の座標ベクトル値及び座標ベクトル長を算出し、RAM42やEEPROM47等のメモリに記憶する。ここに、ベクトル化手段の機能が実行される。
【0153】
続いて、ステップS29に進み、ステップS28で算出した座標ベクトル長が、座標検出周期内において移動不可能な異常な座標ベクトル長(異常ベクトル長)であるか否かを判定する。
【0154】
座標ベクトル長が異常ベクトル長でないと判定された場合には(ステップS29のN)、ステップS30に進み、実像軌跡であるものとされたA3→A4の座標軌跡と例えばA4→Aの座標軌跡とを比較し、座標ベクトル値が特定の変位量(V)内にあり、且つ,座標ベクトル長が特定の変位量(L)外である軌跡(異常変位長)であるか否かを判定する。
【0155】
異常変位長でないと判定された場合には(ステップS30のN)、ステップS31に進み、実像軌跡であるものとされたA3→A4の座標軌跡と例えばA4→Aの座標軌跡とを比較し、座標ベクトル値が特定の変位量(V)外にあり、且つ,座標ベクトル長が減少している軌跡(異常変位方向)であるか否かを判定する。
【0156】
以上、ステップS29〜S31の処理によって、位置座標抽出手段の機能が実行される。
【0157】
異常変位方向でないと判定された場合(ステップS31のN)、言い換えれば異常ベクトル長でも異常変位長でも異常変位方向でもない場合には、その終点の位置座標をRAM42やEEPROM47等のメモリに記憶し(ステップS32)、その位置座標をインタフェース43を介してコンピュータ5に転送するとともに(ステップS33)、他方の位置座標も実像として確定し(ステップS34)、インタフェース43を介してコンピュータ5に転送する(ステップS35)。
【0158】
一方、座標ベクトル長が異常ベクトル長であると判定された場合(ステップS29のY)、異常変位長であると判定された場合(ステップS30のY)、異常変位方向であると判定された場合には(ステップS31のY)、検出座標数に達するまで(ステップS36のY)、検出座標を変更し(ステップS37)、ステップS28〜S31の処理を繰り返す。
【0159】
したがって、例えば、ステップS26においてメモリに記憶した実像ベクトルの終点の位置座標がA4である場合、図28に示すようにその直後に算出される位置座標はA,B,C,Dであることから、これらの位置座標(A,B,C,D)の中から一つずつ位置座標が終点として選択され、
A4→A,A4→B,A4→C,A4→D
の何れか一つに係る座標ベクトル値(軌跡ベクトル値)とその座標ベクトル長(軌跡ベクトル長)とが順次算出され、実像軌跡であるか否かが順次判定されることになる。つまり、実像であると判定された一の二次元位置座標の軌跡を追跡することで、受光素子に対して同一方向に位置する他の二次元位置座標を虚像であると認識し、他の実像である二次元位置座標を確定するものである。
【0160】
また、検出座標数に達した場合には(ステップS36のY)、ステップS27で設定したベクトル長・変位長・変位方向の判定条件を変更し(ステップS38)、再度ステップS28に進み、座標ベクトル値(軌跡ベクトル値)とその座標ベクトル長(軌跡ベクトル長)とを算出する。
【0161】
ここに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0162】
なお、本実施の形態は、座標入力/検出装置3の構成に基づいて説明したが、座標入力/検出装置50を適用しても同様の作用・効果を得ることができる。また、扇形状の光束膜を投光する光学ユニット27に代えて、第三の実施の形態で説明した光ビームを放射状に投光する光学ユニット60を用いても良い。
【0163】
なお、各実施の形態においては、コントローラ10をコンピュータ5とは別体で設けたが、これに限るものではなく、コントローラ10をコンピュータ5に組み込んで、コンピュータ5をコントローラ10として機能させるようにしても良い。
【0164】
また、各実施の形態においては、座標入力/検出装置を電子黒板システムに一体化させて組み込んだが、これに限るものではなく、座標入力/検出装置を表示装置やライティングボードに対して着脱自在な構成としても良い。
【0165】
さらに、各実施の形態においては、各種のプログラムコード(制御プログラム)を記憶した記憶媒体26や記憶媒体49としてフロッピーディスク、ハードディスク、光ディスク(CD−ROM,CD−R,CD−R/W,DVD−ROM,DVD−RAMなど)、光磁気ディスク(MO)、メモリカード等を適用したが、これに限るものではなく、記憶媒体には、コンピュータと独立した媒体に限らず、LANやインターネット等により伝送されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。
【0166】
【発明の効果】
請求項1記載の発明の座標入力/検出装置によれば、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたので、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる。
【0172】
請求項2記載の発明の座標入力/検出装置によれば、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたので、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる。
【0173】
請求項3記載の発明によれば、算出された全ての二次元位置座標について実像判定を行う必要はないので、複数箇所を同時に指示した場合の位置座標をさらに低コストで検出することができる。
【0174】
請求項4記載の発明によれば、実像であると判定された一の二次元位置座標の軌跡を追跡することで、受光素子に対して同一方向に位置する他の二次元位置座標を虚像であると認識することができるので、他の実像である二次元位置座標を確定することができ、一方の指示部材が指示している際に途中から他方の指示部材が同時に指示した場合の位置座標を低コストで検出することができる。
【0182】
請求項5記載の発明の座標検出方法によれば、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたので、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる。
【0183】
請求項6記載の発明の座標検出方法によれば、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたので、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる。
【0186】
請求項7記載の発明の記憶媒体によれば、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたので、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる。
【0187】
請求項8記載の発明の記憶媒体によれば、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたので、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる。
【図面の簡単な説明】
【図1】本発明の第一の実施の形態の電子黒板システムを概略的に示す外観斜視図である。
【図2】電子黒板システムに内蔵される各部の電気的接続を示すブロック図である。
【図3】コンピュータに内蔵される各部の電気的接続を示すブロック図である。
【図4】座標入力/検出装置の構成を概略的に示す説明図である。
【図5】光学ユニットの構造を概略的に示す構成図である。
【図6】(a)は指示部材Aを示す斜視図、(b)は指示部材Bを示す斜視図である。
【図7】コントローラのブロック構成図である。
【図8】座標検出処理の流れを概略的に示すフローチャートである。
【図9】座標入力/検出領域内の一点を指示部材で指し示した一例を示す正面図である。
【図10】CCDの検出動作を模式的に示す説明図である。
【図11】複数個の位置座標が算出される状態を示す説明図である。
【図12】座標入力/検出領域内の一点を指示部材で指し示した一例を部分的に示す説明図である。
【図13】CCDから出力される光強度の波形の一例を示すグラフである。
【図14】RAMの数値記憶テーブルを示す説明図である。
【図15】本発明の第二の実施の形態の座標入力/検出装置に用いられる指示部材であって、(a)は指示部材Aを示す斜視図、(b)は指示部材Bを示す斜視図である。
【図16】座標入力/検出領域内の一点を指示部材で指し示した一例を示す正面図である。
【図17】その一部を拡大して示す説明図である。
【図18】CCDから出力される光強度の波形の一例を示すグラフである。
【図19】本発明の第三の実施の形態の光学ユニットを概略的に示す平面図である。
【図20】本発明の第四の実施の形態の座標検出処理の流れを概略的に示すフローチャートである。
【図21】複数個の位置座標が算出される状態を示す説明図である。
【図22】実像判定処理の流れを概略的に示すフローチャートである。
【図23】座標ベクトル値算出方法を説明するためのベクトル図である。
【図24】ベクトルテーブルを模式的に示す説明図である。
【図25】直線を描く場合の動きを示す説明図である。
【図26】直線方向を大きく変化させて描く場合の動きを示す説明図である。
【図27】実像を自動的に確定することができる状態を示す説明図である。
【図28】一の指示部材で記述している途中において、他の指示部材が座標入力/検出領域内に挿入された状態を示す説明図である。
【図29】従来の座標入力/検出装置を概略的に示す正面図である。
【図30】座標入力/検出領域において2点同時に指示した状況を示す正面図である。
【図31】2点同時に指示した場合の各ライトスキャナにおける受光信号とパルス信号との関係を示すタイムチャートである。
【符号の説明】
1 電子黒板システム
2 表示装置
3,50 座標入力/検出装置
3a,50a 座標入力/検出領域
4 電子黒板部
5 制御装置
26,49 記憶媒体
28 再帰性反射部材
29,60a 投光手段
31,61 光源
39,65 受光素子
52 再帰性反射部材
A,B 指示部材
A1,B1 指示部
D 径サイズ
L 指示部材までの距離
a 受光素子上の所定の位置からピーク点に至る距離
b 結像サイズ
θL、θR 出射角度[0001]
BACKGROUND OF THE INVENTION
The present invention is mainly composed of a coordinate input / detection device that optically detects position coordinates indicated by a pointing member such as a pen or a finger for inputting and selecting information, and this coordinate input / detection device. The present invention relates to an electronic blackboard system, a coordinate detection method in a coordinate input / detection device, and a storage medium storing a computer-readable program that causes a computer to execute position coordinate detection.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known an electronic blackboard device capable of reading handwritten information written on a writing surface such as a whiteboard or a writing sheet using a writing tool with a dedicated scanner and outputting it to a recording paper with a dedicated printer. ing. On the other hand, in recent years, a coordinate input / detection device is arranged on the writing surface of the electronic blackboard device so that information written by hand on the writing surface can be input to a computer such as a personal computer in real time. An electronic blackboard system is also provided.
[0003]
For example, a software board made by Microfield Graphics, Inc. (Microfield Graphics, Inc.) is configured by arranging a coordinate input / detection device on a whiteboard, such as characters and pictures written on the whiteboard. It is a device that enables visual data to be imported into a computer in real time. In an electronic blackboard system configured using this software board, visual data captured by the software board is input to a computer and displayed on a CRT (Cathode Ray Tube), or displayed on a large screen using a liquid crystal projector. It is possible to output to recording paper with a printer. It is also possible to project a computer screen to which a soft board is connected onto the soft board with a liquid crystal projector and operate the computer on the soft board.
[0004]
Also, a display device for displaying characters and images, a coordinate input / detection device having a coordinate input surface (touch panel surface) disposed on the front surface of the display device, and a display device based on input from the coordinate input / detection device There is provided an electronic blackboard system that includes a display device and a control device that controls the display of the electronic blackboard portion, and includes a display device and a coordinate input / detection device.
[0005]
For example, in Smart 2000 manufactured by SMART Technologies Inc., the projection surface of the panel in a state where characters, pictures, graphics, and graphics images are projected onto the panel using a liquid crystal projector connected to a computer. Using a coordinate input / detection device (writing surface) disposed on the front surface of the (display surface), a process of taking handwritten information into the computer is performed. Then, the handwritten information and the image information are synthesized in the computer and can be displayed again in real time via the liquid crystal projector.
[0006]
In such an electronic blackboard system, an image input using a coordinate input / detection device can be displayed as an overwritten image on an image displayed on a screen displayed by a display device. Have already been widely used in the field, and its use effect is highly evaluated. In addition, the electronic blackboard system is also used as an electronic conference system by incorporating a communication function such as voice and image into a remote communication line.
[0007]
In recent years, various types of coordinate input / detection devices used in an electronic blackboard system with different detection methods have been considered. However, if a method suitable for application to the above-described electronic blackboard system is studied, input is possible without having a physical surface such as a coordinate input surface (touch panel surface), such as an optical type. Coordinate input / detection devices are considered promising.
[0008]
As such an optical coordinate input / detection device, various methods have been proposed. An example of an optical coordinate input / detection device is described in Japanese Patent Laid-Open No. 9-91094. Here, FIG. 29 is a front view schematically showing a conventional coordinate input /
[0009]
In such an optical coordinate input /
[0010]
An optical coordinate input / detection device having no physical surface such as a coordinate input surface (touch panel surface) as typified above is a case where it is used by being mounted on a display surface of a display device. In addition to being excellent in visibility, its enlargement is relatively easy.
[0011]
[Problems to be solved by the invention]
Here, a case where the user's fingers A and B are simultaneously inserted into the coordinate input /
[0012]
However, when each light scanner 101R, 101L of the coordinate input /
A (101L, 101R) = (5, 3)
A ′ (101L, 101R) = (3, 3)
B (101L, 101R) = (3, 6)
B ′ (101L, 101R) = (5, 6)
Therefore, it is not possible to determine one interception point.
[0013]
Therefore, in the coordinate input /
[0014]
In addition, in order to detect the position coordinates when two points are specified at the same time, it is necessary to provide one more light scanner and have three scanning lights. However, there is a problem that it becomes complicated and expensive.
[0015]
An object of the present invention is to obtain a coordinate input / detection device that can detect position coordinates when a plurality of locations are simultaneously designated at low cost.
[0016]
An object of the present invention is to obtain an electronic blackboard system provided with a coordinate input / detection device capable of detecting position coordinates when a plurality of locations are simultaneously designated at low cost.
[0017]
An object of the present invention is to obtain a coordinate detection method capable of detecting position coordinates when a plurality of locations are simultaneously indicated at low cost.
[0018]
An object of the present invention is to obtain a storage medium storing a computer-readable program that causes a computer to execute low-cost detection of position coordinates when a plurality of locations are simultaneously indicated.
[0019]
[Means for Solving the Problems]
The coordinate input / detection device of the invention according to
[0030]
Therefore, when a part of the light projected to the coordinate input / detection area is blocked by the insertion of at least one indicating member, at least one indicating member that blocks the light that is the peak point of the light intensity distribution. The image forming position on each light receiving element and the image forming size on each light receiving element of at least one indicating member that blocks light are detected. Further, the distance from the predetermined position on each light receiving element to the peak point is detected, and the light projecting means blocked by the indicating member based on the distance from the predetermined position on the light receiving element to the peak point is detected. An emission angle of light is calculated, and two-dimensional position coordinates of at least one indicating member inserted into the coordinate input / detection area are calculated based on the emission angle in each of the light projecting units. Further, when a plurality of two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of change between the converted two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0031]
Claim2The coordinate input / detection device according to the invention includes a light source that emits light, a pair of light projecting units that project the light onto a two-dimensional coordinate input / detection region, and the light projecting unit. When an indicator member having a retroreflecting member that reflects the projected light in the same direction as the incident direction is inserted into the coordinate input / detection area, the light reflected by the retroreflecting member is received. A pair of light receiving elements to be detected, light intensity distribution detecting means for detecting the light intensity distribution of the light received by these light receiving elements, and at least one or more indicating members inserted in the coordinate input / detection area Further, a peak inspection for detecting at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting means as an imaging position on each light receiving element of at least one or more of the indicating members reflecting the light. Out A peak distance detecting means for detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more peak points detected by the peak point detecting means, and the peak distance detecting means An angle calculation for calculating an emission angle at each of the light projecting means of the light reflected by at least one of the indicating members based on the distance from the predetermined position on the light receiving element detected by the step to the peak point. And an indication member inserted into the coordinate input / detection area based on an emission angle of each light projecting means of the light reflected by at least one indication member calculated by the angle calculation means. A position coordinate calculation means for calculating two-dimensional position coordinates, and a plurality of the two-dimensional position coordinates calculated by the position coordinate calculation means; Vectorization means for vectorizing the direction and length of the change between the two-dimensional position coordinates sequentially calculated at time intervals, and the direction of change between the two-dimensional position coordinates vectorized by the vectorization means And position coordinate extracting means for extracting the two-dimensional position coordinates actually indicated by the pointing member from the plurality of two-dimensional position coordinates calculated by the position coordinate calculating means based on the length.
[0032]
Therefore, when a part of the light projected on the coordinate input / detection area is reflected by the insertion of at least one indicating member, at least one indicating member that reflects the light that is the peak point of the light intensity distribution. The image forming position on each light receiving element and the image forming size on each light receiving element of at least one indicating member reflecting the light are detected. Further, the distance from the predetermined position on each light receiving element to the peak point is detected, and the light projecting means reflected on the indication member based on the distance from the predetermined position on the light receiving element to the peak point is detected. An emission angle of light is calculated, and two-dimensional position coordinates of at least one indicating member inserted into the coordinate input / detection area are calculated based on the emission angle in each of the light projecting units. Further, when a plurality of two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of change between the converted two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0033]
Claim3The described invention is claimed.1Or2In the coordinate input / detection device described above, the position coordinate extraction unit includes the two-dimensional position located in the same direction with respect to the light receiving element among the plurality of two-dimensional position coordinates calculated by the position coordinate calculation unit. Real image determination means for performing real image determination by paying attention to the fact that one of the coordinates is always a real image.
[0034]
Accordingly, since it is not necessary to perform real image determination for all the calculated two-dimensional position coordinates, it is possible to detect the position coordinates when a plurality of locations are simultaneously indicated at a lower cost.
[0035]
Claim4The described invention is claimed.3In the coordinate input / detection device described above, when there is one two-dimensional position coordinate determined to be a real image by the real image determination unit, a trajectory of the one two-dimensional position coordinate determined to be the real image is obtained. The two-dimensional position coordinates, which are other real images, are tracked and determined.
[0036]
Therefore, by tracking the trajectory of one two-dimensional position coordinate determined to be a real image, other two-dimensional position coordinates positioned in the same direction with respect to the light receiving element can be recognized as a virtual image. As a result, it becomes possible to determine the two-dimensional position coordinates that are other real images, so that when one pointing member is pointing, the position coordinates when the other pointing member simultaneously points from the middle are reduced. It becomes possible to detect at cost.
[0051]
Claim5The coordinate detection method of the described invention has a light source that emits light, a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection region, and the periphery of the coordinate input / detection region A retroreflective member that is provided in the unit and reflects the light projected by the light projecting means in the same direction as the incident direction, and a pair of light receiving units that receive the light reflected by the retroreflective member The instruction inserted into the coordinate input / detection area based on the detected light intensity distribution using an element and light intensity distribution detecting means for detecting the light intensity distribution of the light received by these light receiving elements A coordinate detection method for detecting a two-dimensional position coordinate of a member, wherein when at least one pointing member is inserted into the coordinate input / detection area, at least one of the light intensity distributions detected by the light intensity distribution detection means. 1 or more peaks From the predetermined position on the light receiving element on the basis of the detected at least one or more peak points. A step of detecting a distance to each peak point, and each of the light projecting means for the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element to the peak point And calculating the emission angle of the light, and the indicating member inserted into the coordinate input / detection area based on the calculated emission angle of the light projecting means in the light projecting means. Calculating the two-dimensional position coordinates, and when a plurality of the two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval. Based on the direction and length of the change between the two-dimensional position coordinates converted into vector coordinates and the step of converting into the coordinates of the vector, the pointing member actually indicated from the plurality of calculated two-dimensional position coordinates Extracting two-dimensional position coordinates.
[0052]
Therefore, when a part of the light projected to the coordinate input / detection area is blocked by the insertion of at least one indicating member, at least one indicating member that blocks the light that is the peak point of the light intensity distribution. The image forming position on each light receiving element and the image forming size on each light receiving element of at least one indicating member that blocks light are detected. Further, the distance from the predetermined position on each light receiving element to the peak point is detected, and the light projecting means blocked by the indicating member based on the distance from the predetermined position on the light receiving element to the peak point is detected. An emission angle of light is calculated, and two-dimensional position coordinates of at least one indicating member inserted into the coordinate input / detection area are calculated based on the emission angle in each of the light projecting units. Further, when a plurality of two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of change between the converted two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0053]
Claim6The coordinate detection method according to the invention includes a light source that emits light, a pair of light projecting units that project the light onto a two-dimensional coordinate input / detection region, and light projection by these light projecting units. When a pointing member having a retroreflective member that reflects the emitted light in the same direction as the incident direction is inserted into the coordinate input / detection region, a pair that receives the light reflected by the retroreflective member A set of light receiving elements and a light intensity distribution detecting means for detecting the light intensity distribution of the light received by these light receiving elements are used to insert into the coordinate input / detection area based on the detected light intensity distribution A coordinate detection method for detecting a two-dimensional position coordinate of the pointing member, wherein the light detected by the light intensity distribution detecting means when at least one pointing member is inserted into the coordinate input / detection region Less intensity distribution Detecting at least one peak point as an imaging position on each of the light receiving elements of the at least one indicating member that blocks the light, and the light receiving element based on the detected at least one peak point Detecting the distance from the predetermined position to each peak point, and the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element to the peak point A step of calculating an emission angle at each of the light projecting means, and the coordinate input / detection region based on the calculated light output angle at each of the light projecting means of the light blocked by at least one of the indicating members. A step of calculating a two-dimensional position coordinate of the inserted pointing member; and when a plurality of the two-dimensional position coordinates are calculated, a change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval. A step of converting the direction and length of the two-dimensional position coordinates into a vector coordinate, and the direction member and the direction of the change between the two-dimensional position coordinates converted into the vector coordinates, the indicator member from among the plurality of two-dimensional position coordinates calculated The step of extracting the two-dimensional position coordinates actually shown.
[0054]
Therefore, when a part of the light projected on the coordinate input / detection area is reflected by the insertion of at least one indicating member, at least one indicating member that reflects the light that is the peak point of the light intensity distribution. The image forming position on each light receiving element and the image forming size on each light receiving element of at least one indicating member reflecting the light are detected. Further, the distance from the predetermined position on each light receiving element to the peak point is detected, and the light projecting means reflected on the indication member based on the distance from the predetermined position on the light receiving element to the peak point is detected. An emission angle of light is calculated, and two-dimensional position coordinates of at least one indicating member inserted into the coordinate input / detection area are calculated based on the emission angle in each of the light projecting units. Further, when a plurality of two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of change between the converted two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0059]
Claim7The storage medium of the described invention has a light source that emits light, a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection area, and a peripheral portion of the coordinate input / detection area And a pair of light receiving elements that receive the light reflected by the retroreflective member and that reflect the light projected by the light projecting means in the same direction as the incident direction. And a light intensity distribution detecting means for detecting the light intensity distribution of the light received by these light receiving elements, and the coordinate input / detection based on the detected light intensity distribution. A storage medium storing a computer-readable program for causing a computer to detect the two-dimensional position coordinates of the pointing member inserted into a region, wherein the pointing member inputs and detects the coordinates. When at least one or more peak members of the light intensity distribution detected by the light intensity distribution detecting means are inserted into the area, at least one peak point of the light intensity distribution detected on the light receiving elements of the at least one indicating member that blocks the light. A function for detecting the image forming position, a function for detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one detected peak point, and a predetermined value on the light receiving element. A function of calculating an emission angle of each of the light projecting means of the light blocked by at least one of the indicating members based on the distance from the position to the peak point, and the calculated at least one or more of the indicating members A function of calculating the two-dimensional position coordinates of the pointing member inserted in the coordinate input / detection region based on the emission angle of the light blocked by the light projecting means; When two or more two-dimensional position coordinates are calculated, a function for converting the direction and length of the change between the two-dimensional position coordinates, which are sequentially calculated at a predetermined time interval, into a vector coordinate, A function of extracting the two-dimensional position coordinates actually indicated by the pointing member from the plurality of calculated two-dimensional position coordinates based on the direction and length of change between the two-dimensional position coordinates. Let it run.
[0060]
Therefore, when a part of the light projected to the coordinate input / detection area is blocked by the insertion of at least one indicating member, at least one indicating member that blocks the light that is the peak point of the light intensity distribution. The image forming position on each light receiving element and the image forming size on each light receiving element of at least one indicating member that blocks light are detected. Further, the distance from the predetermined position on each light receiving element to the peak point is detected, and the light projecting means blocked by the indicating member based on the distance from the predetermined position on the light receiving element to the peak point is detected. An emission angle of light is calculated, and two-dimensional position coordinates of at least one indicating member inserted into the coordinate input / detection area are calculated based on the emission angle in each of the light projecting units. Further, when a plurality of two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of change between the converted two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0061]
Claim8The storage medium according to the invention includes a light source that emits light, a pair of light projecting units that project the light onto a two-dimensional coordinate input / detection region, and light projected by these light projecting units. When a pointing member having a retroreflecting member that reflects the light in the same direction as the incident direction is inserted into the coordinate input / detection area, the one-to-one light receiving the light reflected by the retroreflecting member is received. Used in a coordinate input / detection device comprising a pair of light receiving elements and a light intensity distribution detecting means for detecting a light intensity distribution of the light received by these light receiving elements, and based on the detected light intensity distribution A storage medium storing a computer-readable program for causing a computer to detect the two-dimensional position coordinates of the pointing member inserted into a coordinate input / detection area, the program being stored in the pointing member When at least one or more peak members of the light intensity distribution detected by the light intensity distribution detecting means are inserted into the coordinate input / detection area, at least one of the indicating members that block the light. A function for detecting the imaging position on each light receiving element, a function for detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one detected peak point, and the light receiving A function for calculating an emission angle of each light projecting means of the light blocked by at least one of the indicating members based on the distance from a predetermined position on the element to the peak point, and at least one calculated The two-dimensional position coordinates of the pointing member inserted into the coordinate input / detection area based on the emission angle of the light blocked by the pointing member in each light projecting means A function for calculating, a function for converting the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals into a vector coordinate when a plurality of the two-dimensional position coordinates are calculated, and a vector coordinate A function of extracting the two-dimensional position coordinates actually indicated by the pointing member from the plurality of calculated two-dimensional position coordinates based on the changed direction and length between the two-dimensional position coordinates. Are executed by the computer.
[0062]
Therefore, when a part of the light projected on the coordinate input / detection area is reflected by the insertion of at least one indicating member, at least one indicating member that reflects the light that is the peak point of the light intensity distribution. The image forming position on each light receiving element and the image forming size on each light receiving element of at least one indicating member reflecting the light are detected. Further, the distance from the predetermined position on each light receiving element to the peak point is detected, and the light projecting means reflected on the indication member based on the distance from the predetermined position on the light receiving element to the peak point is detected. An emission angle of light is calculated, and two-dimensional position coordinates of at least one indicating member inserted into the coordinate input / detection area are calculated based on the emission angle in each of the light projecting units. Further, when a plurality of two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of change between the converted two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0063]
DETAILED DESCRIPTION OF THE INVENTION
A first embodiment of the present invention will be described with reference to FIGS. Here, FIG. 1 is an external perspective view schematically showing the
[0064]
The
[0065]
Further, although not shown in the figure, the
[0066]
Next, the electrical connection of each part built in the
[0067]
Next, the
[0068]
The
[0069]
The
[0070]
The
[0071]
Next, the coordinate input /
[0072]
In addition, a retroreflecting
[0073]
Next, the
[0074]
As shown in FIG. 5, the
[0075]
As described above, the luminous flux film that has formed a fan shape and traveled through the coordinate input /
[0076]
The retroreflected light reflected by the
[0077]
Specifically, retroreflected light reflected by the
[0078]
Next, the instruction members A and B will be described. 6A is a perspective view showing the pointing member A, and FIG. 6B is a perspective view showing the pointing member B. As shown in FIG. 6A, the pointing member A is a spherical pointing portion A for pointing to one point in the coordinate input /
[0079]
On the other hand, as shown in FIG. 6B, the pointing member B is a spherical pointing portion B for pointing to one point in the coordinate input /
DA> DB
It is said that. In addition, the indicating portion B of the indicating member B1The center of the height adjustment part BThreeThus, the light flux film that forms the coordinate input /
[0080]
Here, in FIG. 7, an electric signal based on the light intensity distribution of the retroreflected light is input from the
[0081]
As a circuit for calculating the output from the CCD (light receiving element) 39, an
[0082]
Various program codes (control program) stored in the
[0083]
Next, functions executed by the
[0084]
8 is a flowchart schematically showing the flow of the coordinate detection process, and FIG. 9 is a front view showing an example in which one point in the coordinate input /
[0085]
At this time, the light intensity distribution on the CCD (light receiving element) 39 is considered. Here, FIG. 10 is an explanatory view schematically showing the detection operation of the CCD (light receiving element) 39. If the pointing member A is not inserted into the coordinate input /
[0086]
Also, the dark spot position X that is the peak point of the light intensity waveformnIs detected, the dark spot position XnThe distance a from the center pixel of the CCD (light receiving element) 39 is detected based on, for example, the pixel number of the CCD (light receiving element) 39 (for example, the pixel number m in FIG. 10). Here, the function of the peak distance detecting means is executed as the processing of step S2 shown in FIG.
[0087]
Position X, which is a low light intensity area (dark spot)n(X on the CCD (light receiving element) 39 of the left
θn= Tan-1(a / f) ……………………………… (1)
It can be expressed as. Here, f is the focal length of the
[0088]
Further, in FIG. 9, the angle θL formed by the pointing member A and the left
θL = g (θnL) ……………………………… (2)
Where θnL = tan-1(XnL / f)
It can be expressed as.
[0089]
Similarly, for the right
θR = h (θnR) ……………………………… (3)
Where θnR = tan-1(XnR / f)
It can be expressed as. Here, the function of the angle calculating means for calculating the emission angle in each light projecting means is executed as the processing of step S3 shown in FIG.
[0090]
Here, if the mounting interval between the left
x = w · tanθR / (tanθL + tanθR) (4)
y = w · tanθL · tanθR / (tanθL + tanθR) (5)
Can be calculated as As described above, the function of the position coordinate calculation means is executed as the process of step S4 shown in FIG.
[0091]
These equations (1), (2), (3), (4), and (5) are stored in advance in the
[0092]
By the way, in the present embodiment, as described above, the two pointing members A and B having different diameters of the pointing portion are used, so that the pointing members A and B are coordinate input / detection of the coordinate input /
[0093]
Note that the number of position coordinates calculated is determined by the number “N” of pointing members,2That is, as described above, when the number of indicating members is “1”, only one position coordinate is calculated, but when the number of indicating members is “2”, Four position coordinates are calculated. When the number of pointing members is “3”, nine position coordinates are calculated.
[0094]
Therefore, in the present embodiment, when a plurality of position coordinates are calculated (Y in step S5 shown in FIG. 8), the actual cutoff points by the pointing members A and B from the plurality of position coordinates. A coordinate extraction process (steps S6 to S8 shown in FIG. 8) for extracting the position coordinates of A and B is executed as a part of the coordinate detection process. As the coordinate extraction process, first, the indication part A of the indication members A and B is used.1, B1The measurement process of the size D of the diameter (step S6 shown in FIG. 8) is executed. This size measurement process is executed for each calculated position coordinate. Below, the size measurement process by CPU40 is demonstrated. Here, FIG. 12 is an explanatory view partially showing an example in which one point in the coordinate input /
[0095]
And the dark spot position XnThe distance a from L to the center pixel of the CCD (light receiving element) 39 is a perpendicular line from the center of the CCD (light receiving element) 39, the center of the indicating member A, and the dark spot position X.nDepends on the angle α formed by the line connecting L and this angle α
α = tan-1(A / f) ……………… (6)
Is calculated as Here, f is the focal length of the
[0096]
The distance L from the center of the pointing member A to the
L: l = D: b (l: dark spot position X from the cylindrical lens 38)nDistance to L)
Is established, the indication part A of the indication member A1The diameter size D of
D = (b / l) · L
= (B / (a / sinα) · L
= (B / (a / sin (tan-1(A / f))) ・ L ......... (7)
Is calculated as As described above, the function of the size calculating means is executed as the process of step S6 shown in FIG.
[0097]
That is, the indication part A of such an indication member A1The measurement of the size D of the diameter is performed by measuring the imaging size b on one CCD (light receiving element) 39, two position coordinates (for example, the actual position coordinates of the cutoff point A as shown in FIG. And the two distances L calculated based on the position coordinates of the point A ′ not to be performed. In addition, the same processing is performed by the instruction section B of the instruction member B.1The measurement of the size D of the diameter is also performed.
[0098]
In the above description, the processing based on the imaging size b on the CCD (light receiving element) 39 in the left
[0099]
Various numerical values detected, calculated, and measured in this manner are stored and held in the
[0100]
Subsequently, the
[0101]
After that, two position coordinates whose ratio calculated by the size comparison process is close to “1” are extracted as the position coordinates of the actual blocking points A and B by the pointing members A and B (in step S8 shown in FIG. 8). Extraction process shown). Note that the number of position coordinates extracted in the extraction process is the number of indicating members “N”. Therefore, as shown in FIG. 14, the diameter size D calculated by the right
DA> DB
Therefore, it can be distinguished by the size of the calculated diameter size D. Therefore, the position coordinate of the blocking point A by the pointing member A is (x1, Y1) And the position coordinate of the blocking point A by the pointing member A is (xFour, YFour). The function of the position coordinate extracting means is executed by the above steps S7 and S8.
[0102]
The
[0103]
Here, when a part of the light forming the coordinate input /
[0104]
In the present embodiment, the coordinate input /
[0105]
A second embodiment of the present invention will be described with reference to FIGS. The same parts as those described in the first embodiment of the present invention are denoted by the same reference numerals, and description thereof is also omitted. This embodiment is a modification of the method of the coordinate input / detection device. Specifically, the coordinate input /
[0106]
Here, FIG. 15 is an indication member used for the coordinate input /
[0107]
As shown in FIG. 17, the indicating unit A including the retroreflecting
[0108]
Therefore, even when such a light reflection type coordinate input /
[0109]
A third embodiment of the present invention will be described with reference to FIG. In addition, the same code | symbol is used about the same part as the part demonstrated in 1st embodiment of this invention, or 2nd embodiment of this invention, and description is also abbreviate | omitted. This embodiment is a modification of the optical unit. Specifically, in the
[0110]
Here, FIG. 19 is a plan view schematically showing the
[0111]
Therefore, even when such an
[0112]
Next, a fourth embodiment of the present invention will be described with reference to FIGS. In addition, the same code | symbol is used about the same part as the part demonstrated in 1st embodiment or 2nd embodiment of this invention, and description is also abbreviate | omitted.
[0113]
The present embodiment is used for two indicating members having different diameters of the indicating section used in the coordinate input /
[0114]
Here, FIG. 20 is a flowchart schematically showing the flow of coordinate detection processing of the present embodiment, and FIG. 21 is an explanatory diagram showing a state in which a plurality of position coordinates are calculated. In FIG. 21, “A1, A2, A3, A4” is the coordinate locus of the real image designated by one indicating member, and “B1, B2, B3, B4” is the coordinate locus of the real image designated by the other indicating member. It is shown. “C1, C2, C3, C4” and “D1, D2, D3, D4” are virtual images.
[0115]
As shown in FIG. 20, in the coordinate detection process of the present embodiment, the processes in steps S11 to S15 are not different from the processes in steps S1 to S5 shown in FIG. .
[0116]
For example, when a plurality of pointing members such as fingers and pens are simultaneously inserted into the coordinate input /
[0117]
In the coordinate extraction process, first, a plurality of calculated position coordinates (A1, B1, C1, D1) are stored in a memory such as the
[0118]
In the subsequent step S17, it is determined whether or not there is a position coordinate determined as a real image among a plurality of position coordinates (A1, B1, C1, D1) stored in the memory.
[0119]
If there is no position coordinate determined as a real image (N in Step S17), the process proceeds to Step S18, and whether or not a plurality of calculated coordinates obtained sequentially in a time series necessary for real image determination is stored in the memory. judge.
[0120]
When the calculated coordinates for a plurality of times are stored in the memory (Y in step S18), after setting initial determination conditions (experimental values) for vector length / displacement length / displacement direction (step S19), the process proceeds to step S20. The process proceeds to execute a real image determination process.
[0121]
Here, FIG. 22 is a flowchart schematically showing the flow of the real image determination process. As shown in FIG. 22, in the real image determination process, first, in step S51, a predetermined calculated coordinate is used as a starting point coordinate, a coordinate vector value and a coordinate vector length between coordinates are calculated, and each sampled two-dimensional position coordinate is calculated. Are stored in a memory such as the
[0122]
Here, a calculation method of the coordinate vector value will be described with reference to FIG. In FIG. 23, the previously detected two-dimensional position coordinates are (X1, Y1), and the two-dimensional position coordinates obtained this time are (X2, Y2). From the change amount ΔX = X2−X1 in the X coordinate direction and the change amount ΔY = Y2−Y1 in the Y coordinate direction, a coordinate vector value is calculated by ΔY / ΔX. In this case, the coordinate vector values are digitized and stored in advance in the vector table T2 stored in the
[0123]
Further, as shown in FIG. 23, the coordinate vector value between coordinates in each sampling is calculated as described above, and the coordinate vector length L between the coordinates is, for example, coordinates (X1, Y1), (X2, Y2). If the coordinate vector length L1 is
L1 = √ {(Y2−Y1)2+ (X2-X1)2}
Is calculated by In this manner, the coordinate vector value and the coordinate vector length are calculated for each sampled two-dimensional position coordinate.
[0124]
In other words, in step S51, the vector coordinates previously set and stored in the vector table T2 are used for the changing direction between the two-dimensional position coordinates sequentially obtained in time series and the length indicating the change. The processing to be converted is executed. Here, the function of the vectorization means is executed.
[0125]
Subsequently, the process proceeds to step S52, and whether the coordinate vector length calculated in step S51 is an abnormal coordinate vector length (abnormal vector length) that cannot be moved within the coordinate detection cycle (predetermined time interval associated with the sampling signal). It is determined whether or not. The coordinate detection period in this embodiment is 20 ms. That is, in step S52, when the coordinate vector length calculated in step S51 is longer than the length detected within the coordinate detection period (20 ms), the coordinate locus is abnormal because it is not actually movable. It is determined that the coordinate vector length (abnormal vector length) is not a real image locus. Here, the function of the position coordinate extracting means is executed.
[0126]
If the coordinate vector length is an abnormal vector length (Y in step S52), the process proceeds to step S53, and it is determined whether or not the number of coordinate vector lengths for which the abnormal vector length has been determined has reached the detected number of position coordinates. If the number of detected position coordinates has not been reached (N in Step S53), the position coordinates of the end point are changed (Step S54), and the coordinate vector value and the coordinate vector length based on the end point are again obtained in Step S51. calculate.
[0127]
That is, in the processes of steps S51 to S52, until it is determined that the coordinate vector length is not the abnormal vector length (N in step S52), or the coordinate vector length for all the end point position coordinates is the abnormal vector length. The process is repeated until it is determined (Y in step S53).
[0128]
Therefore, for example, when the position coordinate A1 is set as the starting point coordinate, since the position coordinates calculated immediately after that are A2, B2, C2, and D2, as shown in FIG. 21, these position coordinates (A2, B2, C2, D2) are selected as the end points one by one,
A1 → A2, A1 → B2, A1 → C2, A1 → D2
The coordinate vector value (starting point vector value) and the coordinate vector length (starting point vector length) according to any one of these are sequentially calculated, and it is sequentially determined whether or not it is a real image locus.
[0129]
If it is determined that the coordinate vector length for all the end point position coordinates is an abnormal vector length (Y in step S53), the real image cannot be determined, and the process proceeds to step S21 described later.
[0130]
On the other hand, if it is determined that the coordinate vector length is not an abnormal vector length (N in step S52), the position coordinates of the end point are stored in a memory such as the
[0131]
In subsequent step S57, the position coordinates of the end point of the start point vector stored in the memory in step S55 are set as the start point coordinates, and the coordinate vector value and the coordinate vector length between the position coordinates detected in the nth coordinate detection cycle are determined. It is calculated and stored in a memory such as the
[0132]
Subsequently, the process proceeds to step S58, and it is determined whether or not the coordinate vector length calculated in step S57 is an abnormal coordinate vector length (abnormal vector length) that cannot be moved within the coordinate detection cycle.
[0133]
If it is determined that the coordinate vector length is not the abnormal vector length (N in step S58), the process proceeds to step S59, where the coordinate trajectory of A1 → A2 and the coordinate trajectory of A2 → A3 that are assumed to be real image trajectories are obtained. By comparison, it is determined whether or not the coordinate vector value is within a specific displacement amount (V) and the coordinate vector length is a locus (abnormal displacement length) outside the specific displacement amount (L).
[0134]
In this way, it is determined whether or not the coordinate vector value is within a specific displacement amount (V) and the coordinate vector length is a locus (abnormal displacement length) outside the specific displacement amount (L). As shown in FIG. 25, generally, when drawing a straight line, the coordinate vector value and the length of the coordinate vector within the same time are substantially the same. This is because the vector value changes, but the amount of change is substantially the same and the coordinate vector length is also the same. That is, when the detected object moves on a straight line or curve, there is no significant difference between the coordinate vector length and the coordinate vector value, so even if the coordinate vector value is within a specific displacement (V), the coordinate A trajectory (abnormal displacement length) whose vector length is outside a specific displacement amount (L) is excluded.
[0135]
If it is determined that the length is not an abnormal displacement length (N in Step S59), the process proceeds to Step S60, where the coordinate trajectory A1 → A2 that is assumed to be a real image trajectory is compared with the coordinate trajectory A2 → A3. It is determined whether or not the vector value is outside a specific displacement amount (V) and the locus of the coordinate vector length is decreasing (abnormal displacement direction).
[0136]
As shown in FIG. 26, it is determined whether or not the coordinate vector value is outside the specific displacement amount (V) and the locus of the coordinate vector length is decreasing (abnormal displacement direction). In general, when drawing with a large change in the linear direction, the drawing speed for changing the direction decreases sequentially and stops at the turning point, and starts drawing again at the normal speed in the changing direction. When the coordinate vector value changes greatly, the coordinate vector length decreases sequentially and then increases in the conversion direction. That is, when the detected object changes its direction greatly, the operation stop state occurs immediately before, so even if the coordinate vector length is reduced, the locus in which the coordinate vector value is outside the specific displacement (V). (Abnormal displacement direction) is excluded.
[0137]
As described above, the function of the position coordinate extracting unit is executed by the processing of steps S58 to S60.
[0138]
If it is determined that the direction is not the abnormal displacement direction (N in step S60), in other words, if the abnormal vector length is not the abnormal displacement length or the abnormal displacement direction, the position coordinates of the end point are stored in a memory such as the
[0139]
Thereafter, in step S63, it is determined whether or not the number of coordinate detection cycles n has exceeded the number of calculated coordinates (number of determination coordinates) for a plurality of times sequentially obtained in time series necessary for real image determination stored in the memory. If the coordinate detection cycle number n does not exceed the number of determination coordinates (Y in step S63), the continuation vector described above is set as the starting vector (step S64), and the coordinate vector value and coordinates based on the end point are again set in step S57. Calculate the vector length.
[0140]
In other words, the processing in steps S57 to S64 changes the position coordinates of the end points until it is determined that the position coordinates of all end points are abnormal vector lengths, abnormal displacement lengths or abnormal displacement directions (Y in step S65) ( Step S66) is repeated.
[0141]
When it is determined that the position coordinates of all end points are abnormal vector lengths, abnormal displacement lengths or abnormal displacement directions (Y in step S65), the process proceeds again to step S54, where the end point position coordinates are changed, In step S51, a coordinate vector value and a coordinate vector length based on the end point are calculated.
[0142]
Therefore, for example, when the position coordinate of the end point of the starting point vector stored in the memory in step S55 is A2, and A1 → A2 is a real image locus, it is calculated immediately after that as shown in FIG. Since the position coordinates are A3, B3, C3, and D3, the position coordinates are selected as end points one by one from these position coordinates (A2, B2, C2, and D2),
A2 → A3, A2 → B3, A2 → C3, A2 → D3
The coordinate vector value (continuation vector value) and the coordinate vector length (continuation vector length) according to any one of the above are sequentially calculated, and it is sequentially determined whether the image is a real image locus.
[0143]
On the other hand, if it is determined that the number n of coordinate detection cycles has exceeded the number of determination coordinates (Y in step S63), the real image is confirmed, and the position coordinates are transferred to the
[0144]
Here, determination of whether or not a real image is obtained for another position coordinate based on one position coordinate will be described with reference to FIG. The determination of whether or not the other position coordinates are real images based on one position coordinate is as follows. In FIG. 11, if both A and A 'are real images, no coordinates are detected in the direction (2). It will be. For this reason, it is understood that one of A and A ′ is a real image. Similarly, it can be seen that one of B and B ′ is a real image. That is, only one of the position coordinates existing in the same direction is a real image, and the other is a virtual image. If it is determined that one A is a real image, the other A ′ is recognized as a virtual image, and B ′ in the direction (3) is also recognized as a virtual image. It turns out that it is. That is, it can be understood that if one of the four position coordinates stored in the memory is recognized as a real image or a virtual image, it can be determined whether all the position coordinates are real images or virtual images. Therefore, since it is not necessary to perform real image determination for all the calculated two-dimensional position coordinates, it is possible to detect the position coordinates when a plurality of locations are simultaneously indicated at a low cost.
[0145]
As shown in FIG. 27, among the plurality of position coordinates (A1, B1, C1, D1) stored in the memory, one position coordinate (B1 in FIG. 27) is the coordinate input /
[0146]
That is, if one of the four position coordinates stored in the memory recognizes a real image or a virtual image for one position coordinate, it can be determined whether the real image or the virtual image for all the position coordinates. The position coordinates are also confirmed as a real image (step S68) and transferred to the
[0147]
Next, a process when it is determined in step S53 that the coordinate vector length for the position coordinates of all end points is an abnormal vector length will be described. If it is determined that the coordinate vector length for all the end point position coordinates is an abnormal vector length (Y in step S53), the process proceeds to step S21 on the assumption that the real image cannot be determined as described above. In S21, it is determined whether or not a real image determination process is still being performed for position coordinates in the same direction (for example, C1 with respect to A1 in FIG. 21). If the real image determination process for the position coordinates in the same direction has not yet been executed (N in step S21), the starting point coordinates are changed (step S22), and the process proceeds to step S20 again to execute the real image determination process. On the other hand, when the real image determination process for the position coordinates in the same direction is being executed (Y in step S21), the determination conditions for the vector length / displacement length / displacement direction set in step S19 are changed (step S23). Then, the process proceeds again to step S20, and a real image determination process is executed. That is, the real image determination is repeated alternately under the same conditions for the position coordinates of two points in the same direction.
[0148]
If the calculated position coordinates are not plural (N in Step S15), the calculated position coordinates are transferred to the
[0149]
Next, a case where it is determined in step S17 that there is a position coordinate determined as a real image will be described. If there is a position coordinate determined as a real image (Y in step S17), the process proceeds to step S26.
[0150]
Here, the case where there are position coordinates determined as a real image is a case where a plurality of position coordinates when there are not a plurality of position coordinates calculated as described above are stored in a memory such as the
[0151]
In step S26, a coordinate vector value (real image vector value) and a coordinate vector length (real image vector length) between coordinates are calculated based on the previous and previous values of the position coordinates determined as a real image, and the
[0152]
Thereafter, after initial conditions (experimental values) for vector length / displacement length / displacement direction are set (step S27), the position coordinates of the end point of the real image vector stored in the memory in step S26 are used as the start point coordinates, and a plurality of them are detected simultaneously. A coordinate vector value and a coordinate vector length between the coordinates of the position coordinates thus calculated are calculated and stored in a memory such as the
[0153]
Then, it progresses to step S29 and it is determined whether the coordinate vector length calculated by step S28 is an abnormal coordinate vector length (abnormal vector length) which cannot move within a coordinate detection period.
[0154]
If it is determined that the coordinate vector length is not the abnormal vector length (N in step S29), the process proceeds to step S30, where the A3 → A4 coordinate trajectory, which is assumed to be a real image trajectory, for example, the A4 → A coordinate trajectory Are compared, and it is determined whether or not the coordinate vector value is within a specific displacement amount (V) and the coordinate vector length is a locus (abnormal displacement length) outside the specific displacement amount (L).
[0155]
If it is determined that the length is not an abnormal displacement length (N in step S30), the process proceeds to step S31, and the A3 → A4 coordinate locus assumed to be a real image locus is compared with, for example, the A4 → A coordinate locus, It is determined whether or not the coordinate vector value is outside a specific displacement amount (V) and the locus of the coordinate vector length is decreasing (abnormal displacement direction).
[0156]
As described above, the function of the position coordinate extracting unit is executed by the processing of steps S29 to S31.
[0157]
If it is determined that the direction is not the abnormal displacement direction (N in step S31), in other words, if the abnormal vector length is not the abnormal displacement length or the abnormal displacement direction, the position coordinates of the end point are stored in a memory such as the
[0158]
On the other hand, when it is determined that the coordinate vector length is an abnormal vector length (Y in step S29), when it is determined that it is an abnormal displacement length (Y in step S30), and when it is determined that the direction is an abnormal displacement direction (Y in step S31), until the number of detected coordinates is reached (Y in step S36), the detected coordinates are changed (step S37), and the processes in steps S28 to S31 are repeated.
[0159]
Therefore, for example, when the position coordinate of the end point of the real image vector stored in the memory in step S26 is A4, the position coordinates calculated immediately after that are A, B, C, and D as shown in FIG. , Position coordinates are selected as end points one by one from these position coordinates (A, B, C, D),
A4 → A, A4 → B, A4 → C, A4 → D
The coordinate vector value (trajectory vector value) and the coordinate vector length (trajectory vector length) according to any one of the above are sequentially calculated, and it is sequentially determined whether the image is a real image trajectory. In other words, by tracking the trajectory of one two-dimensional position coordinate determined to be a real image, other two-dimensional position coordinates positioned in the same direction with respect to the light receiving element are recognized as virtual images, and other real images The two-dimensional position coordinates are determined.
[0160]
If the number of detected coordinates has been reached (Y in step S36), the vector length / displacement length / displacement direction determination conditions set in step S27 are changed (step S38), and the process proceeds to step S28 again. A value (trajectory vector value) and its coordinate vector length (trajectory vector length) are calculated.
[0161]
Here, when a plurality of two-dimensional position coordinates are calculated, the direction and length of change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of the change between the coordinated two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0162]
Although the present embodiment has been described based on the configuration of the coordinate input /
[0163]
In each embodiment, the
[0164]
In each embodiment, the coordinate input / detection device is integrated into the electronic blackboard system. However, the present invention is not limited to this, and the coordinate input / detection device is detachable from the display device or the writing board. It is good also as a structure.
[0165]
Further, in each embodiment, a floppy disk, hard disk, optical disk (CD-ROM, CD-R, CD-R / W, DVD) is used as the
[0166]
【The invention's effect】
According to the coordinate input / detection device of the invention described in
[0172]
Claim2According to the coordinate input / detection device of the described invention,When a plurality of points are simultaneously indicated by a plurality of indication members, the position coordinates are detected by the square of the number of the indication members. Since the determination is made by using the vector coordinate value having both the direction information and the length information in which the designated coordinates change, the position coordinates in the case where a plurality of locations are designated simultaneously can be detected at low cost.
[0173]
Claim3According to the described invention,Since it is not necessary to perform the real image determination for all the calculated two-dimensional position coordinates, the position coordinates when a plurality of locations are simultaneously indicated can be detected at a lower cost.
[0174]
Claim4According to the described invention,By tracking the trajectory of one two-dimensional position coordinate determined to be a real image, other two-dimensional position coordinates positioned in the same direction with respect to the light receiving element can be recognized as a virtual image. It is possible to determine the two-dimensional position coordinates that are real images of the above, and to detect the position coordinates when the other pointing member simultaneously points from the middle while one pointing member is pointing, at a low cost.
[0182]
Claim5According to the coordinate detection method of the described invention,When a plurality of points are simultaneously indicated by a plurality of indication members, the position coordinates are detected by the square of the number of the indication members. Since the determination is made by using the vector coordinate value having both the direction information and the length information in which the designated coordinates change, the position coordinates in the case where a plurality of locations are designated simultaneously can be detected at low cost.
[0183]
Claim6According to the coordinate detection method of the described invention,When a plurality of points are simultaneously indicated by a plurality of indication members, the position coordinates are detected by the square of the number of the indication members. Since the determination is made by using the vector coordinate value having both the direction information and the length information in which the designated coordinates change, the position coordinates in the case where a plurality of locations are designated simultaneously can be detected at low cost.
[0186]
Claim7According to the storage medium of the described invention,When a plurality of points are simultaneously indicated by a plurality of indication members, the position coordinates are detected by the square of the number of the indication members. Since the determination is made by using the vector coordinate value having both the direction information and the length information in which the designated coordinates change, the position coordinates in the case where a plurality of locations are designated simultaneously can be detected at low cost.
[0187]
Claim8According to the storage medium of the described invention,When a plurality of points are simultaneously indicated by a plurality of indication members, the position coordinates are detected by the square of the number of the indication members. Since the determination is made by using the vector coordinate value having both the direction information and the length information in which the designated coordinates change, the position coordinates in the case where a plurality of locations are designated simultaneously can be detected at low cost.
[Brief description of the drawings]
FIG. 1 is an external perspective view schematically showing an electronic blackboard system according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing an electrical connection of each part built in the electronic blackboard system.
FIG. 3 is a block diagram showing electrical connection of each unit built in the computer.
FIG. 4 is an explanatory diagram schematically showing a configuration of a coordinate input / detection device.
FIG. 5 is a block diagram schematically showing the structure of an optical unit.
6A is a perspective view showing an indicating member A, and FIG. 6B is a perspective view showing an indicating member B. FIG.
FIG. 7 is a block configuration diagram of a controller.
FIG. 8 is a flowchart schematically showing a flow of coordinate detection processing.
FIG. 9 is a front view showing an example in which one point in a coordinate input / detection area is pointed by an indicating member.
FIG. 10 is an explanatory diagram schematically showing a CCD detection operation.
FIG. 11 is an explanatory diagram showing a state in which a plurality of position coordinates are calculated.
FIG. 12 is an explanatory view partially showing an example in which one point in a coordinate input / detection region is pointed by an indicating member;
FIG. 13 is a graph showing an example of a waveform of light intensity output from a CCD.
FIG. 14 is an explanatory diagram showing a numerical value storage table in a RAM.
15A and 15B are indication members used in the coordinate input / detection device according to the second embodiment of the present invention, wherein FIG. 15A is a perspective view showing the indication member A, and FIG. 15B is a perspective view showing the indication member B; FIG.
FIG. 16 is a front view showing an example in which one point in the coordinate input / detection area is pointed by an indicating member.
FIG. 17 is an explanatory diagram showing a part thereof in an enlarged manner.
FIG. 18 is a graph showing an example of a waveform of light intensity output from a CCD.
FIG. 19 is a plan view schematically showing an optical unit according to a third embodiment of the present invention.
FIG. 20 is a flowchart schematically showing a flow of coordinate detection processing according to the fourth embodiment of the present invention.
FIG. 21 is an explanatory diagram showing a state in which a plurality of position coordinates are calculated.
FIG. 22 is a flowchart schematically showing a flow of real image determination processing.
FIG. 23 is a vector diagram for explaining a coordinate vector value calculation method.
FIG. 24 is an explanatory diagram schematically showing a vector table.
FIG. 25 is an explanatory diagram showing movement when a straight line is drawn;
FIG. 26 is an explanatory diagram showing a movement when drawing while greatly changing the linear direction.
FIG. 27 is an explanatory diagram showing a state in which a real image can be automatically determined.
FIG. 28 is an explanatory diagram showing a state in which another indicating member is inserted into the coordinate input / detection area in the middle of description with one indicating member.
FIG. 29 is a front view schematically showing a conventional coordinate input / detection device.
FIG. 30 is a front view showing a situation where two points are simultaneously indicated in the coordinate input / detection area.
FIG. 31 is a time chart showing the relationship between a light reception signal and a pulse signal in each light scanner when two points are simultaneously indicated.
[Explanation of symbols]
1 Electronic blackboard system
2 display devices
3,50 Coordinate input / detection device
3a, 50a Coordinate input / detection area
4 electronic blackboard
5 Control device
26, 49 storage media
28 Retroreflective members
29,60a Light projection means
31, 61 Light source
39, 65 Light receiving element
52 Retroreflective member
A, B indicating member
A1, B1 Instruction section
D diameter size
L Distance to indicating member
a Distance from a predetermined position on the light receiving element to the peak point
b Imaging size
θL, θR Output angle
Claims (8)
前記座標入力/検出領域の周辺部に設けられ、前記投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材と、
この再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、
これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、
指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出するピーク点検出手段と、
前記ピーク点検出手段により検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出するピーク距離検出手段と、
このピーク距離検出手段により検出された前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する角度算出手段と、
この角度算出手段により算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する位置座標算出手段と、
この位置座標算出手段により複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化するベクトル化手段と、
このベクトル化手段によってベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、前記位置座標算出手段により算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する位置座標抽出手段と、
を備える座標入力/検出装置。A light source that emits light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection region;
A retroreflecting member that is provided in the periphery of the coordinate input / detection region and reflects the light projected by the light projecting means in the same direction as the incident direction;
A pair of light receiving elements that receive the light reflected by the retroreflective member; and
A light intensity distribution detecting means for detecting a light intensity distribution of the light received by these light receiving elements;
When at least one or more indicating members are inserted into the coordinate input / detection area, at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting unit are blocked by the light. A peak point detecting means for detecting an imaging position on each light receiving element of the indicating member;
Peak distance detection means for detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more peak points detected by the peak point detection means;
An emission angle at each of the light projecting means of the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element detected by the peak distance detecting means to the peak point. Angle calculating means for calculating
The two-dimensional position of the pointing member inserted into the coordinate input / detection area based on the emission angle of the light projected by the at least one pointing member calculated by the angle calculating unit in each light projecting unit Position coordinate calculating means for calculating coordinates;
A vectorizing means for vectorizing the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals when a plurality of the two-dimensional position coordinates are calculated by the position coordinate calculating means; ,
Based on the direction and length of the change between the two-dimensional position coordinates vectorized by the vectorization means, the indicating member is actually selected from the plurality of two-dimensional position coordinates calculated by the position coordinate calculation means. Position coordinate extracting means for extracting the two-dimensional position coordinates shown in FIG.
A coordinate input / detection device comprising:
これらの投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材を有する指示部材がその座標入力/検出領域に挿入された場合に、前記再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、
これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、
前記指示部材がその座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を反射した少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出するピーク点検出手段と、
前記ピーク点検出手段により検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出するピーク距離検出手段と、
このピーク距離検出手段により検出された前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材により反射された前記光の前記各投光手段における出射角度を算出する角度算出手段と、
この角度算出手段により算出された少なくとも1以上の前記指示部材により反射された前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する位置座標算出手段と、
この位置座標算出手段により複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化するベクトル化手段と、
このベクトル化手段によってベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、前記位置座標算出手段により算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する位置座標抽出手段と、
を備える座標入力/検出装置。A light source that emits light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection region;
When a pointing member having a retroreflective member that reflects the light projected by these light projecting means in the same direction as the incident direction is inserted into the coordinate input / detection region, the light is reflected by the retroreflective member. A pair of light-receiving elements that receive the emitted light; and
A light intensity distribution detecting means for detecting a light intensity distribution of the light received by these light receiving elements;
When at least one or more of the pointing member is inserted into the coordinate input / detection area, at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting means reflect at least one or more of the reflected light. A peak point detecting means for detecting an imaging position on each light receiving element of the indicating member;
Peak distance detection means for detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more peak points detected by the peak point detection means;
An emission angle at each of the light projecting means of the light reflected by at least one of the indicating members based on the distance from the predetermined position on the light receiving element detected by the peak distance detecting means to the peak point. Angle calculating means for calculating
A two-dimensional position of the indicating member inserted into the coordinate input / detection area based on an emission angle of the light reflected by the at least one indicating member calculated by the angle calculating unit in each light projecting unit Position coordinate calculating means for calculating coordinates;
A vectorizing means for vectorizing the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals when a plurality of the two-dimensional position coordinates are calculated by the position coordinate calculating means; ,
Based on the direction and length of the change between the two-dimensional position coordinates vectorized by the vectorization means, the indicating member is actually selected from the plurality of two-dimensional position coordinates calculated by the position coordinate calculation means. Position coordinate extracting means for extracting the two-dimensional position coordinates shown in FIG.
A coordinate input / detection device comprising:
指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する工程と、
検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する工程と、
前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する工程と、
算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する工程と、
複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する工程と、
ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する工程と、
を含んでなる座標検出方法。A light source that emits light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection area; and the light projecting means provided at the periphery of the coordinate input / detection area A retroreflecting member that reflects the light projected by the light in the same direction as the incident direction, a pair of light receiving elements that receive the light reflected by the retroreflective member, and the light receiving elements that receive the light. And detecting the two-dimensional position coordinates of the pointing member inserted into the coordinate input / detection area based on the detected light intensity distribution. A coordinate detection method,
When at least one indicating member is inserted into the coordinate input / detection area, at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting means block at least one of the light. Detecting as an imaging position on each light receiving element of the indicating member;
Detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more detected peak points;
Calculating an emission angle at each of the light projecting means of the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element to the peak point;
Calculating two-dimensional position coordinates of the pointing member inserted into the coordinate input / detection area based on an emission angle of each of the light projecting means of the light blocked by the calculated at least one pointing member; When,
When a plurality of the two-dimensional position coordinates are calculated, converting the direction and length of the change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval into a vector coordinate;
Based on the direction and length of the change between the two-dimensional position coordinates converted into vector coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the calculated two-dimensional position coordinates. Process,
A coordinate detection method comprising:
指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する工程と、
検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する工程と、
前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する工程と、
算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する工程と、
複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する工程と、
ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する工程と、
を含んでなる座標検出方法。A light source that emits light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection area, and the light projected by these light projecting means is the same as the incident direction When a pointing member having a retroreflective member that reflects in a direction is inserted into the coordinate input / detection area, a pair of light receiving elements that receive the light reflected by the retroreflective member, and these A light intensity distribution detecting means for detecting a light intensity distribution of the light received by the light receiving element, and a two-dimensional position of the pointing member inserted into the coordinate input / detection area based on the detected light intensity distribution A coordinate detection method for detecting coordinates,
When at least one indicating member is inserted into the coordinate input / detection area, at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting means block at least one of the light. Detecting as an imaging position on each light receiving element of the indicating member;
Detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more detected peak points;
Calculating an emission angle at each of the light projecting means of the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element to the peak point;
Calculating two-dimensional position coordinates of the pointing member inserted into the coordinate input / detection area based on an emission angle of each of the light projecting means of the light blocked by the calculated at least one pointing member; When,
When a plurality of the two-dimensional position coordinates are calculated, converting the direction and length of the change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval into a vector coordinate;
Based on the direction and length of the change between the two-dimensional position coordinates converted into vector coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the calculated two-dimensional position coordinates. Process,
A coordinate detection method comprising:
前記プログラムは、
指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する機能と、
検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する機能と、
前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する機能と、
算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する機能と、
複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する機能と、
ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する機能と、
を前記コンピュータに実行させる記憶媒体。A light source for emitting light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection area; and the light projecting means provided at the periphery of the coordinate input / detection area A retroreflecting member that reflects the light projected by the light in the same direction as the incident direction, a pair of light receiving elements that receive the light reflected by the retroreflective member, and the light receiving elements that receive the light. And a light intensity distribution detecting means for detecting a light intensity distribution of the light, and the pointing member inserted into the coordinate input / detection area based on the detected light intensity distribution. A computer-readable storage medium storing a computer-readable program for causing a computer to detect the two-dimensional position coordinates of
The program is
When at least one indicating member is inserted into the coordinate input / detection area, at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting means block at least one of the light. A function of detecting an imaging position on each light receiving element of the indicating member;
A function of detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more detected peak points;
A function of calculating an emission angle at each of the light projecting means of the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element to the peak point;
A function of calculating the two-dimensional position coordinates of the indicator member inserted in the coordinate input / detection area based on the calculated emission angle of the light blocked by the at least one indicator member in each of the light projecting means When,
When a plurality of the two-dimensional position coordinates are calculated, a function of vectorizing the direction and length of the change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval;
Based on the direction and length of the change between the two-dimensional position coordinates converted into vector coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the calculated two-dimensional position coordinates. Function and
A storage medium for causing the computer to execute
前記プログラムは、
指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する機能と、
検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する機能と、
前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する機能と、
算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する機能と、
複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する機能と、
ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する機能と、
を前記コンピュータに実行させる記憶媒体。A light source that emits light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection area, and the light projected by these light projecting means is the same as the incident direction When a pointing member having a retroreflective member that reflects in a direction is inserted into the coordinate input / detection region, a pair of light receiving elements that receive the light reflected by the retroreflective member, and these And a light intensity distribution detecting means for detecting a light intensity distribution of the light received by the light receiving element, and is inserted into the coordinate input / detection area based on the detected light intensity distribution. A storage medium storing a computer-readable program for causing a computer to detect the two-dimensional position coordinates of the pointing member;
The program is
When at least one indicating member is inserted into the coordinate input / detection area, at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting means block at least one of the light. A function of detecting an imaging position on each light receiving element of the indicating member;
A function of detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more detected peak points;
A function of calculating an emission angle at each of the light projecting means of the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element to the peak point;
A function of calculating the two-dimensional position coordinates of the indicator member inserted in the coordinate input / detection area based on the calculated emission angle of the light blocked by the at least one indicator member in each of the light projecting means When,
When a plurality of the two-dimensional position coordinates are calculated, a function of vectorizing the direction and length of the change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval;
Based on the direction and length of the change between the two-dimensional position coordinates converted into vector coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the calculated two-dimensional position coordinates. Function and
A storage medium for causing the computer to execute
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000241957A JP4414075B2 (en) | 2000-02-29 | 2000-08-10 | Coordinate input / detection device, coordinate detection method, and storage medium |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000052726 | 2000-02-29 | ||
| JP2000-52726 | 2000-02-29 | ||
| JP2000241957A JP4414075B2 (en) | 2000-02-29 | 2000-08-10 | Coordinate input / detection device, coordinate detection method, and storage medium |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2001318759A JP2001318759A (en) | 2001-11-16 |
| JP4414075B2 true JP4414075B2 (en) | 2010-02-10 |
Family
ID=26586321
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000241957A Expired - Fee Related JP4414075B2 (en) | 2000-02-29 | 2000-08-10 | Coordinate input / detection device, coordinate detection method, and storage medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4414075B2 (en) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4546224B2 (en) * | 2004-11-24 | 2010-09-15 | キヤノン株式会社 | Coordinate input method and apparatus |
| JP2010277122A (en) * | 2009-05-26 | 2010-12-09 | Xiroku:Kk | Optical position detector |
| KR101153555B1 (en) | 2010-08-06 | 2012-06-11 | 삼성전기주식회사 | Touch screen device |
| JP5017466B1 (en) | 2011-02-28 | 2012-09-05 | 株式会社東芝 | Information processing apparatus and program |
| JP5754266B2 (en) * | 2011-06-30 | 2015-07-29 | セイコーエプソン株式会社 | Indicator member, optical position detection device, and display system with input function |
-
2000
- 2000-08-10 JP JP2000241957A patent/JP4414075B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2001318759A (en) | 2001-11-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3934846B2 (en) | Coordinate input / detection device, electronic blackboard system, light receiving element positional deviation correction method, and storage medium | |
| US7015894B2 (en) | Information input and output system, method, storage medium, and carrier wave | |
| US6594023B1 (en) | Coordinate inputting/detecting apparatus, method and computer program product designed to precisely recognize a designating state of a designating device designating a position | |
| EP1083514B1 (en) | Coordinate inputting/detecting apparatus, method and computer program product | |
| JP3881148B2 (en) | Photodetection device for coordinate detection, coordinate input / detection device, electronic blackboard, mounting position detection method, and storage medium | |
| JPS63223819A (en) | Method and apparatus for operating graphic object | |
| JP4414075B2 (en) | Coordinate input / detection device, coordinate detection method, and storage medium | |
| JP2003186616A (en) | Information input device, information input / output system, position coordinate output method, program, and recording medium | |
| JP4335468B2 (en) | Information input / output system, information control method, program, and recording medium | |
| JP4560224B2 (en) | Information input device, information input / output system, program, and storage medium | |
| JP2002342015A (en) | Information input device and information input / output system | |
| JP4615178B2 (en) | Information input / output system, program, and storage medium | |
| JP4256555B2 (en) | Coordinate input / detection device, electronic blackboard system, coordinate position detection method, and storage medium | |
| JP4060040B2 (en) | Information input device, information input system, input information identification method, coordinate input / detection device, honey / tome identification method, and storage medium | |
| JP2004199181A (en) | Coordinate input device, display device, coordinate input method and program | |
| JP4603183B2 (en) | Information input / output system, display control method, storage medium, and program | |
| JP4414106B2 (en) | Information input device, information input / output system, program, and storage medium | |
| JP2001084108A (en) | Coordinate input / detection / display device | |
| JP2001243015A (en) | Information input / display system | |
| JP2001067176A (en) | Coordinate input / detection system | |
| JP4142963B2 (en) | Information input device and information input / output system | |
| JP2008217819A (en) | Information input device, information input method, information input program, and storage medium | |
| JP2000132339A (en) | Coordinate input device | |
| JP2001290583A (en) | Coordinate input / detection device and electronic blackboard system | |
| JP4320101B2 (en) | Light blocking detection device and information display system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20040928 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20051021 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060823 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060811 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090623 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090824 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091117 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091119 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121127 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131127 Year of fee payment: 4 |
|
| LAPS | Cancellation because of no payment of annual fees |