[go: up one dir, main page]

JP4414075B2 - Coordinate input / detection device, coordinate detection method, and storage medium - Google Patents

Coordinate input / detection device, coordinate detection method, and storage medium Download PDF

Info

Publication number
JP4414075B2
JP4414075B2 JP2000241957A JP2000241957A JP4414075B2 JP 4414075 B2 JP4414075 B2 JP 4414075B2 JP 2000241957 A JP2000241957 A JP 2000241957A JP 2000241957 A JP2000241957 A JP 2000241957A JP 4414075 B2 JP4414075 B2 JP 4414075B2
Authority
JP
Japan
Prior art keywords
light
position coordinates
coordinate
dimensional position
coordinate input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000241957A
Other languages
Japanese (ja)
Other versions
JP2001318759A (en
Inventor
満 佐藤
康彦 坂
賢一 竹川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2000241957A priority Critical patent/JP4414075B2/en
Publication of JP2001318759A publication Critical patent/JP2001318759A/en
Application granted granted Critical
Publication of JP4414075B2 publication Critical patent/JP4414075B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、情報の入力や選択をするためにペン等の指示部材や指等によって指示された位置座標を光学的に検出する座標入力/検出装置、この座標入力/検出装置を主体に構成される電子黒板システム、座標入力/検出装置における座標検出方法及び位置座標検出をコンピュータに実行させるコンピュータに読み取り可能なプログラムを記憶している記憶媒体に関する。
【0002】
【従来の技術】
従来より、ホワイトボードや書き込みシート等の書き込み面に筆記用具を用いて書き込んだ手書きの情報を、専用のスキャナで読み取り、専用のプリンタで記録紙に出力することが可能な電子黒板装置が知られている。これに対し、近年にあっては、電子黒板装置の書き込み面に座標入力/検出装置を配置して、書き込み面に手書きで書き込んだ情報をリアルタイムでパーソナルコンピュータ等のコンピュータに入力することを可能にした電子黒板システムも提供されている。
【0003】
例えば、マイクロフィールド・グラフィックス社製(Microfield Graphics,Inc.)のソフトボードは、ホワイトボード上に座標入力/検出装置を配設して構成され、ホワイトボード上に書かれた文字や絵等のビジュアルデータをコンピュータにリアルタイムで取り込むことを可能にした装置である。このソフトボードを用いて構成された電子黒板システムでは、ソフトボードで取り込んだビジュアルデータをコンピュータに入力してCRT(Cathode Ray Tube)に表示したり、液晶プロジェクターを用いて大型のスクリーンに表示したり、プリンタで記録紙に出力したりすること等が可能となっている。また、ソフトボードが接続されたコンピュータの画面を液晶プロジェクターでソフトボード上に投影し、ソフトボード上でコンピュータを操作することも可能となっている。
【0004】
また、文字および画像を表示するための表示装置と、表示装置の前面に座標入力面(タッチパネル面)を配設した座標入力/検出装置と、座標入力/検出装置からの入力に基づいて表示装置の表示制御を行う制御装置とを備え、表示装置および座標入力/検出装置を用いて電子黒板部の表示面および書き込み面を構成した電子黒板システムが提供されている。
【0005】
例えば、スマート・テクノロジィズ社製(SMART Technologies Inc.)のスマート2000では、コンピュータに接続された液晶プロジェクターを用いて文字・絵・図形・グラフィックの画像をパネルに投影した状態で、パネルの投影面(表示面)の前面に配設された座標入力/検出装置(書き込み面)を用いて手書きの情報をコンピュータに取り込む処理を行う。そして、コンピュータ内で手書きの情報と画像情報とを合成し、再度、液晶プロジェクターを介してリアルタイムで表示できるようにしている。
【0006】
このような電子黒板システムでは、表示装置によって表示されている画面上の画像に対して、座標入力/検出装置を用いて入力した画像を上書き画像として重ねて表示できるため、会議、プレゼンテーション、教育現場等において既に広く利用されており、その使用効果が高く評価されている。また、このような電子黒板システムに音声・画像等の通信機能を組み込み、遠隔地間を通信回線で接続することにより、電子会議システムとしても利用されている。
【0007】
また、近年においては、電子黒板システムにおいて利用される座標入力/検出装置として検出方式の異なる種々の方式のものが考えられている。しかしながら、前述した電子黒板システムに適用するのに適切な方式を検討すると、座標入力面(タッチパネル面)のような物理的な面を有さなくとも入力が可能になる、例えば光学式のような座標入力/検出装置が有望であると考えられる。
【0008】
このような光学式の座標入力/検出装置としては、各種の方式が提案されている。光学式の座標入力/検出装置の一例としては、特開平9−91094号公報に記載されているものがある。ここで、図29は従来の座標入力/検出装置100を概略的に示す正面図である。図29に示すように、座標入力/検出装置100は、レーザビーム光aを回転させながら所定の位置に向けて出射する発光装置とそのレーザビーム光aの再帰反射光bを受光する受光装置とを備えて距離Zを隔てて設けられる一対一組のライトスキャナ101(101R,101L)と、レーザビーム光aを反射して再び同一光路を辿る再帰反射光bとする再帰性反射部材102とを備え、レーザビーム光aの走査する部分が座標入力/検出領域103とされている。なお、ライトスキャナ101の発光装置は駆動装置(図示せず)により駆動されており、その駆動装置の回転駆動はパルス制御されている。
【0009】
このような光学式の座標入力/検出装置100においては、利用者の指A等を座標入力/検出領域103に挿入することにより特定の組み合わせのレーザビーム光a1,a2が遮断されるので、再帰反射光は発生しなくなる。このように再帰反射光が発生しない場合には、ライトスキャナ101の受光装置における受光信号が「L(LOW)」レベルの信号として検出部(図示せず)においてそれぞれ検出される。さらに、検出部においては、「L」レベル信号の各レーザビーム光a1,a2の出射角度が、各レーザビーム光a1,a2を出射した位置に至るまでに駆動装置を駆動制御したパルス数に基づいて検出される。そして、利用者の指Aにより指示された位置座標(x,y)が、レーザビーム光a1の出射角度とレーザビーム光a2の出射角度と距離Zとに基づいて、演算回路104において三角測量の原理によって算出されることになる。このようにして算出された位置座標(x,y)は、インタフェース回路105を介してコンピュータ等に出力される。
【0010】
以上に代表されるような座標入力面(タッチパネル面)のような物理的な面を有さない光学式の座標入力/検出装置は、表示装置の表示面に装着して使用した場合であっても視認性に優れると共に、その大型化も比較的容易になっている。
【0011】
【発明が解決しようとする課題】
ここで、座標入力/検出装置100の座標入力/検出領域103に利用者の指A,Bを同時に挿入して2点同時に指示した場合について、図30を参照して説明する。また、図31は2点同時に指示した場合の各ライトスキャナ101R,101Lにおける受光信号とパルス信号との関係を示すタイムチャートである。図30及び図31においては、各ライトスキャナ101R,101Lから走査するレーザビーム光がパルス信号に基づいてそれぞれ8方向に分割されているものとし、各遮断点A,Bが各ライトスキャナ101R,101Lから走査されるレーザビーム光の交点にあるものとする。このように各遮断点A,Bにおいて同時にレーザビーム光の遮断がなされた場合には、図31に示すように、ライトスキャナ101Rからは3と6の位置に「L」レベルの受光信号が検出され、ライトスキャナ101Lからは3と5の位置に「L」レベルの受光信号が検出されることになる。
【0012】
しかしながら、座標入力/検出装置100の各ライトスキャナ101R,101Lにおいて2点分の「L」レベルの受光信号が検出されることにより、実際の遮断点A,Bの他に、点A´,B´が誤認識されてしまう恐れが生じる。つまり、「L」レベルの受光信号に基づくパルス信号の組み合わせは、
A (101L,101R)=(5,3)
A´ (101L,101R)=(3,3)
B (101L,101R)=(3,6)
B´ (101L,101R)=(5,6)
の4通りになるので、一つの遮断点を決定することができない。
【0013】
したがって、特開平9−91094号公報に記載された座標入力/検出装置100では、2点同時に指示した場合にそれらの位置座標を検出することが不可能になっている。
【0014】
また、2点同時に指示した場合にそれらの位置座標を検出するためには、ライトスキャナを更にもう1つ備えて3つの走査光を有することが必要になるが、部品点数が増加するとともに装置構成が複雑化して高価な構成になってしまうという問題がある。
【0015】
本発明の目的は、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる座標入力/検出装置を得ることである。
【0016】
本発明の目的は、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる座標入力/検出装置を備えた電子黒板システムを得ることである。
【0017】
本発明の目的は、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる座標検出方法を得ることである。
【0018】
本発明の目的は、複数箇所を同時に指示した場合の位置座標の低コストでの検出をコンピュータに実行させるコンピュータに読み取り可能なプログラムを記憶している記憶媒体を得ることである。
【0019】
【課題を解決するための手段】
請求項1記載の発明の座標入力/検出装置は、光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、前記座標入力/検出領域の周辺部に設けられ、前記投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材と、この再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出するピーク点検出手段と、前記ピーク点検出手段により検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出するピーク距離検出手段と、このピーク距離検出手段により検出された前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する角度算出手段と、この角度算出手段により算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する位置座標算出手段と、この位置座標算出手段により複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化するベクトル化手段と、このベクトル化手段によってベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、前記位置座標算出手段により算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する位置座標抽出手段と、を備える。
【0030】
したがって、座標入力/検出領域に投光された光の一部が少なくとも1以上の指示部材の挿入によって遮られた場合、光強度分布のピーク点である前記光を遮った少なくとも1以上の指示部材の各受光素子上の結像位置と、光を遮った少なくとも1以上の指示部材の各受光素子上における結像サイズとが検出される。また、各受光素子上の所定の位置からそのピーク点に至る距離が検出され、この受光素子上の所定の位置からそのピーク点に至る距離に基づいて指示部材に遮られた各投光手段における光の出射角度が算出され、これらの各投光手段における出射角度に基づいて座標入力/検出領域に挿入された少なくとも1以上の指示部材の二次元位置座標が算出される。さらに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0031】
請求項記載の発明の座標入力/検出装置は、光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、これらの投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材を有する指示部材がその座標入力/検出領域に挿入された場合に、前記再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、前記指示部材がその座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を反射した少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出するピーク点検出手段と、前記ピーク点検出手段により検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出するピーク距離検出手段と、このピーク距離検出手段により検出された前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材により反射された前記光の前記各投光手段における出射角度を算出する角度算出手段と、この角度算出手段により算出された少なくとも1以上の前記指示部材により反射された前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する位置座標算出手段と、この位置座標算出手段により複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化するベクトル化手段と、このベクトル化手段によってベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、前記位置座標算出手段により算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する位置座標抽出手段と、を備える。
【0032】
したがって、座標入力/検出領域に投光された光の一部が少なくとも1以上の指示部材の挿入によって反射された場合、光強度分布のピーク点である前記光を反射した少なくとも1以上の指示部材の各受光素子上の結像位置と、光を反射した少なくとも1以上の指示部材の各受光素子上における結像サイズとが検出される。また、各受光素子上の所定の位置からそのピーク点に至る距離が検出され、この受光素子上の所定の位置からそのピーク点に至る距離に基づいて指示部材に反射された各投光手段における光の出射角度が算出され、これらの各投光手段における出射角度に基づいて座標入力/検出領域に挿入された少なくとも1以上の指示部材の二次元位置座標が算出される。さらに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0033】
請求項記載の発明は、請求項または記載の座標入力/検出装置において、前記位置座標抽出手段は、前記位置座標算出手段により算出された複数の前記二次元位置座標の内、前記受光素子に対して同一方向に位置する前記二次元位置座標の一つは必ず実像であることに着目して実像判定を行う実像判定手段を備える。
【0034】
したがって、算出された全ての二次元位置座標について実像判定を行う必要はないので、複数箇所を同時に指示した場合の位置座標をさらに低コストで検出することが可能になる。
【0035】
請求項記載の発明は、請求項記載の座標入力/検出装置において、前記実像判定手段によって実像であると判定された一の前記二次元位置座標がある場合、その実像であると判定された一の前記二次元位置座標の軌跡を追跡し、他の実像である前記二次元位置座標を確定するようにした。
【0036】
したがって、実像であると判定された一の二次元位置座標の軌跡を追跡することで、受光素子に対して同一方向に位置する他の二次元位置座標を虚像であると認識することが可能になることにより、他の実像である二次元位置座標を確定することが可能になるので、一方の指示部材が指示している際に途中から他方の指示部材が同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0051】
請求項記載の発明の座標検出方法は、光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、前記座標入力/検出領域の周辺部に設けられ、前記投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材と、この再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、を用い、検出された光強度分布に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を検出する座標検出方法であって、指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する工程と、検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する工程と、前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する工程と、算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する工程と、複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する工程と、ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する工程と、を含んでなる。
【0052】
したがって、座標入力/検出領域に投光された光の一部が少なくとも1以上の指示部材の挿入によって遮られた場合、光強度分布のピーク点である前記光を遮った少なくとも1以上の指示部材の各受光素子上の結像位置と、光を遮った少なくとも1以上の指示部材の各受光素子上における結像サイズとが検出される。また、各受光素子上の所定の位置からそのピーク点に至る距離が検出され、この受光素子上の所定の位置からそのピーク点に至る距離に基づいて指示部材に遮られた各投光手段における光の出射角度が算出され、これらの各投光手段における出射角度に基づいて座標入力/検出領域に挿入された少なくとも1以上の指示部材の二次元位置座標が算出される。さらに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0053】
請求項記載の発明の座標検出方法は、光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、これらの投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材を有する指示部材がその座標入力/検出領域に挿入された場合に、前記再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、を用い、検出された光強度分布に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を検出する座標検出方法であって、指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する工程と、検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する工程と、前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する工程と、算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する工程と、複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する工程と、ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する工程と、を含んでなる。
【0054】
したがって、座標入力/検出領域に投光された光の一部が少なくとも1以上の指示部材の挿入によって反射された場合、光強度分布のピーク点である前記光を反射した少なくとも1以上の指示部材の各受光素子上の結像位置と、光を反射した少なくとも1以上の指示部材の各受光素子上における結像サイズとが検出される。また、各受光素子上の所定の位置からそのピーク点に至る距離が検出され、この受光素子上の所定の位置からそのピーク点に至る距離に基づいて指示部材に反射された各投光手段における光の出射角度が算出され、これらの各投光手段における出射角度に基づいて座標入力/検出領域に挿入された少なくとも1以上の指示部材の二次元位置座標が算出される。さらに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0059】
請求項記載の発明の記憶媒体は、光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、前記座標入力/検出領域の周辺部に設けられ、前記投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材と、この再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、を備える座標入力/検出装置に用いられ、検出された光強度分布に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標の検出をコンピュータに実行させるコンピュータに読み取り可能なプログラムを記憶している記憶媒体であって、前記プログラムは、指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する機能と、検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する機能と、前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する機能と、算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する機能と、複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する機能と、ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する機能と、を前記コンピュータに実行させる。
【0060】
したがって、座標入力/検出領域に投光された光の一部が少なくとも1以上の指示部材の挿入によって遮られた場合、光強度分布のピーク点である前記光を遮った少なくとも1以上の指示部材の各受光素子上の結像位置と、光を遮った少なくとも1以上の指示部材の各受光素子上における結像サイズとが検出される。また、各受光素子上の所定の位置からそのピーク点に至る距離が検出され、この受光素子上の所定の位置からそのピーク点に至る距離に基づいて指示部材に遮られた各投光手段における光の出射角度が算出され、これらの各投光手段における出射角度に基づいて座標入力/検出領域に挿入された少なくとも1以上の指示部材の二次元位置座標が算出される。さらに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0061】
請求項記載の発明の記憶媒体は、光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、これらの投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材を有する指示部材がその座標入力/検出領域に挿入された場合に、前記再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、を備える座標入力/検出装置に用いられ、検出された光強度分布に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標の検出をコンピュータに実行させるコンピュータに読み取り可能なプログラムを記憶している記憶媒体であって、前記プログラムは、指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する機能と、検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する機能と、前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する機能と、算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する機能と、複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する機能と、ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する機能と、を前記コンピュータに実行させる。
【0062】
したがって、座標入力/検出領域に投光された光の一部が少なくとも1以上の指示部材の挿入によって反射された場合、光強度分布のピーク点である前記光を反射した少なくとも1以上の指示部材の各受光素子上の結像位置と、光を反射した少なくとも1以上の指示部材の各受光素子上における結像サイズとが検出される。また、各受光素子上の所定の位置からそのピーク点に至る距離が検出され、この受光素子上の所定の位置からそのピーク点に至る距離に基づいて指示部材に反射された各投光手段における光の出射角度が算出され、これらの各投光手段における出射角度に基づいて座標入力/検出領域に挿入された少なくとも1以上の指示部材の二次元位置座標が算出される。さらに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0063】
【発明の実施の形態】
本発明の第一の実施の形態を図1ないし図14に基づいて説明する。ここで、図1は電子黒板システム1を概略的に示す外観斜視図である。図1に示すように、電子黒板システム1は、表示装置であるプラズマディスプレイパネル(PDP:Plasma Display Panel)2及び座標入力/検出装置3で構成される電子黒板部4と、機器収納部9とを主体に構成されている。機器収納部9には、制御装置であるパーソナルコンピュータ等のコンピュータ5・原稿の画像を読み取るためのスキャナ6・画像データを記録紙に出力するプリンタ7・ビデオプレイヤー8(いずれも図2参照)が収納されている。なお、PDP2としては、電子黒板として利用可能な40インチや50インチ等の大画面タイプのものが用いられている。また、座標入力/検出装置3には、詳細は後述するが、扇形状に投光される光束膜によって形成される座標入力/検出面である座標入力/検出領域3aを有し、この座標入力/検出領域3aに専用の指示部材A,B(図6参照)を挿入することで座標入力/検出領域3a内の光束を遮ることにより、CCD(Charge Coupled Device)等の受光素子39(図5参照)における受光位置に基づいてその指示位置を検出し、文字等の入力を可能にする光学式の座標入力/検出装置が適用されている。
【0064】
PDP2及び座標入力/検出装置3は、PDP2のディスプレイ面2a側に座標入力/検出装置3が位置するようにして一体化され、PDP2のディスプレイ面2aに座標入力/検出装置3の座標入力/検出領域3aが略一致するようにして電子黒板部4を形成している。このように、電子黒板部4はPDP2及び座標入力/検出装置3を収納して、電子黒板システム1の表示面(PDP2のディスプレイ面2a)及び書き込み面(座標入力/検出領域3a)を構成している。
【0065】
さらに、図示することは省略するが、PDP2にはビデオ入力端子やスピーカーが設けられており、ビデオプレイヤー8をはじめ、その他レーザディスクプレイヤー、DVDプレイヤー、ビデオカメラ等の各種情報機器やAV機器を接続し、PDP2を大画面モニタとして利用することが可能な構成になっている。また、PDP2には、PDP2の表示位置、幅、高さ、歪等についての調整を行うための調整手段(図示せず)も設けられている。
【0066】
次に、電子黒板システム1に内蔵される各部の電気的接続について図2を参照して説明する。図2に示すように、電子黒板システム1は、コンピュータ5にPDP2、スキャナ6、プリンタ7、ビデオプレイヤー8をそれぞれ接続し、コンピュータ5によってシステム全体を制御するようにしている。また、コンピュータ5には、指示部材A,Bで指示された座標入力/検出領域3a内の位置座標の演算等を行う座標入力/検出装置3に設けられるコントローラ10が接続されており、このコントローラ10を介して座標入力/検出装置3もコンピュータ5に接続されている。また、コンピュータ5を介して電子黒板システム1をネットワーク11に接続することができ、ネットワーク11上に接続された他のコンピュータで作成したデータをPDP2に表示したり、電子黒板システム1で作成したデータを他のコンピュータに転送することも可能になっている。
【0067】
次に、コンピュータ5について説明する。ここで、図3はコンピュータ5に内蔵される各部の電気的接続を示すブロック図である。図3に示すように、コンピュータ5は、システム全体を制御するCPU12(Central Processing Unit)と、起動プログラム等を記憶したROM(Read Only Memory)13と、CPU12のワークエリアとして使用されるRAM(Random Access Memory)14と、文字・数値・各種指示等の入力を行うためのキーボード15と、カーソルの移動や範囲選択等を行うためのマウス16と、ハードディスク17と、PDP2に接続されておりそのPDP2に対する画像の表示を制御するグラフィックス・ボード18と、ネットワーク11に接続するためのネットワーク・カード(またはモデムでも良い。)19と、コントローラ10・スキャナ6・プリンタ7等を接続するためのインタフェース(I/F)20と、上記各部を接続するためのバス21とを備えている。
【0068】
ハードディスク17には、オペレーティング・システム(OS:Operating System)22、コントローラ10を介してコンピュータ5上で座標入力/検出装置3を動作させるためのデバイスドライバ23、描画ソフト・ワードプロセッサソフト・表計算ソフト・プレゼンテーションソフト等の各種アプリケーションプログラム24等が格納されている。
【0069】
また、コンピュータ5には、OS22、デバイスドライバ23や各種アプリケーションプログラム24等の各種のプログラムコード(制御プログラム)を記憶した記憶媒体26、すなわち、フロッピーディスク、ハードディスク、光ディスク(CD−ROM,CD−R,CD−R/W,DVD−ROM,DVD−RAMなど)、光磁気ディスク(MO)、メモリカードなどに記憶されているプログラムコードを読み取る装置であるフロッピーディスクドライブ装置、CD−ROMドライブ装置、MOドライブ装置等のプログラム読取装置25が搭載されている。
【0070】
各種アプリケーションプログラム24は、コンピュータ5への電源の投入に応じて起動するOS22による制御の下、CPU12によって実行される。例えば、キーボード15やマウス16の所定の操作によって描画ソフトを起動した場合には、PDP2にグラフィックス・ボード18を介して描画ソフトに基づく所定の画像が表示される。また、デバイスドライバ23もOS22とともに起動され、コントローラ10を介した座標入力/検出装置3からのデータ入力が可能な状態になる。このように描画ソフトを起動した状態で座標入力/検出装置3の座標入力/検出領域3aにユーザが指示部材A,Bを挿入して文字や図形を描いた場合、座標情報が指示部材A,Bの記述に基づく画像データとしてコンピュータ5に入力され、例えばPDP2に表示されている画面上の画像に対して上書き画像として重ねて表示される。より詳細には、コンピュータ5のCPU12は、入力された画像データに基づいて線や文字を描画するための描画情報を生成し、入力された座標情報に基づく位置座標に併せてグラフィックス・ボード18に設けられるビデオメモリ(図示せず)に書き込んでいく。その後、グラフィックス・ボード18が、ビデオメモリに書き込まれた描画情報を画像信号としてPDP2に送信することにより、ユーザが書いた文字と同一の文字が、PDP2に表示されることになる。つまり、コンピュータ5は座標入力/検出装置3をマウス16のようなポインティングデバイスとして認識しているため、コンピュータ5では、描画ソフト上でマウス16を用いて文字を書いた場合と同様な処理が行われることになる。
【0071】
次に、座標入力/検出装置3について詳細に説明する。ここで、図4は座標入力/検出装置3の構成を概略的に示す説明図である。図4に示すように、座標入力/検出装置3は、PDP2のディスプレイ面2aのサイズに対応したサイズで横長の四角形状の座標入力/検出領域3aを備えている。この座標入力/検出領域3aは、手書きにより文字や図形等の入力を可能にする領域である。この座標入力/検出領域3aの下方両端部に位置する角部の近傍には、光ビームの発光と受光とを行う光学ユニット27(左側光学ユニット27L、右側光学ユニット27R)が取付角度β(図12参照)で設けられている。これらの光学ユニット27からは、平面若しくはほぼ平面をなし、例えばL1,L2,L3,・・・,Ln(R1,R2,R3,・・・,Rn)といった光ビーム(プローブ光)の束で構成される扇形状の光束膜が、座標入力/検出領域3aの全域に行き渡るようにPDP2のディスプレイ面2aの表面に沿って平行に投光される。
【0072】
また、座標入力/検出装置3の座標入力/検出領域3aの下部を除く周辺部には、再帰性反射部材28が設けられている。この再帰性反射部材28は、例えば円錐形状のコーナーキューブを多数配列して形成されており、入射した光をその入射角度によらずに所定の位置に向けて反射する特性を有している。例えば、左側光学ユニット27Lから投光されたプローブ光L3は、再帰性反射部材28によって反射され、再び同一光路を辿る再帰反射光L3´として左側光学ユニット27Lにより受光されることになる。つまり、再帰性反射部材28によっても座標入力/検出領域3aが形成されている。
【0073】
次に、光学ユニット27について説明する。ここで、図5は光学ユニット27の構造を概略的に示す構成図である。なお、図5はx−z方向を主体に示しているが、二点鎖線で示す部分については同一の構成要素を別方向(x−y方向、又はy−z方向)から見た図である。
【0074】
図5に示すように、光学ユニット27は、投光手段29と受光手段30とを備えている。投光手段29は、スポットをある程度絞ることの可能なLD(Laser Diode:半導体レーザ),ピンポイントLED(Light Emitting Diode:発光ダイオード)等の光源31を備えている。この光源31からPDP2のディスプレイ面2aに対して垂直に照射された光は、一方向の倍率のみを変更可能なシリンドリカルレンズ32によってx方向にコリメートされる。シリンドリカルレンズ32によってx方向にコリメートされた光は、シリンドリカルレンズ32とは曲率の分布が直交する2枚のシリンドリカルレンズ33,34によりy方向に対して集光される。つまり、これらのシリンドリカルレンズ群(シリンドリカルレンズ32,33,34)の作用により、光源31からの光を線状に集光した領域がシリンドリカルレンズ34の後方に形成されることになる。ここに、y方向に狭くx方向に細長いスリットを有するスリット板35を配置する。したがって、シリンドリカルレンズ群(シリンドリカルレンズ32,33,34)を通過した光は、スリット板35のスリット位置において、線状の二次光源36を形成する。二次光源36から発した光は、ハーフミラー37で折り返され、PDP2のディスプレイ面2aの垂直方向には広がらずにディスプレイ面2aの表面に沿った平行光で、ディスプレイ面2aと平行方向には二次光源36を中心にした扇形状の光束膜となって座標入力/検出領域3aを進行する。換言すれば、扇形状の光が座標入力/検出領域3aを形成する。これらのシリンドリカルレンズ群(シリンドリカルレンズ32,33,34)とスリット板35とによって、集光光学系が形成されている。
【0075】
前述したように、扇形状となって座標入力/検出領域3aを進行した光束膜は、再帰性反射部材28で再帰的に反射され、再び同一光路を辿ってハーフミラー37に戻ることになる。したがって、再帰性反射部材28で再帰的に反射された光束膜も座標入力/検出領域3aを形成する。
【0076】
再帰性反射部材28で反射されてハーフミラー37に戻った再帰反射光は、ハーフミラー37を透過して受光手段30に入射する。受光手段30に入射した再帰反射光は、集光レンズであるシリンドリカルレンズ38を通って線状にされた後、このシリンドリカルレンズ38から距離f(fはシリンドリカルレンズ38の焦点距離)の間隔で設けられたCCD(Charge Coupled Device:受光素子)39において、プローブ光毎に異なる位置で受光される。なお、本実施の形態のCCD(受光素子)39は、1次元CCDであって、その画素数は2,048画素とされている。
【0077】
詳細には、再帰性反射部材28で反射された再帰反射光は、z軸方向ではシリンドリカルレンズ38の作用を受けず、コリメートされたままCCD(受光素子)39に到達する。また、再帰反射光は、PDP2のディスプレイ面2aと平行方向では、シリンドリカルレンズ38の中心に集光するように伝搬し、その結果、シリンドリカルレンズ38の作用を受けてシリンドリカルレンズ38の焦点面に設置されたCCD(受光素子)39上に結像する。これにより、CCD(受光素子)39上に再帰反射光の有無に応じて光強度の分布が形成される。すなわち、再帰反射光を指示部材A,Bで遮った場合、CCD(受光素子)39上の遮られた再帰反射光に相当する位置に光強度が弱い点(後述するピーク点)が生じることになる。再帰反射光を受光したCCD(受光素子)39は、再帰反射光(プローブ光)の光強度分布に基づいた電気信号を生成し、前述したコントローラ10に対して出力する。なお、図5に示すように、二次光源36とシリンドリカルレンズ38とは、ハーフミラー37に対して共に距離dの位置に配設されて共役な位置関係にある。
【0078】
次に、指示部材A,Bについて説明する。ここで、図6(a)は指示部材Aを示す斜視図、図6(b)は指示部材Bを示す斜視図である。図6(a)に示すように、指示部材Aは、座標入力/検出装置3の座標入力/検出領域3a内の一点を指し示すための球形状の指示部A1と、ユーザが把持するための略円柱形状の把持部A2とで構成されている。なお、指示部材Aの指示部A1は、その中心部を座標入力/検出領域3aを形成する光束膜が通過する大きさの球形に形成されている。このように、指示部材Aの指示部A1を球形に形成し、かつ、その中心部を座標入力/検出領域3aを形成する光束膜が通過する大きさに形成することにより、座標入力/検出領域3aに挿入される指示部材Aの角度にかかわらずに、指示部材Aの指示部A1の直径のサイズDAを一定の大きさにすることができる。
【0079】
一方、図6(b)に示すように、指示部材Bは、座標入力/検出装置3の座標入力/検出領域3a内の一点を指し示すための球形状の指示部B1と、ユーザが把持するための略円柱形状の把持部B2と、球形状の高さ調整部B3とで構成されている。なお、指示部材Aの指示部A1の直径の実サイズDAと、指示部材Bの指示部B1の直径の実サイズDBとの関係は、
A>DB
とされている。また、指示部材Bの指示部B1の中心部は、高さ調整部B3によって座標入力/検出領域3aを形成する光束膜が通過する位置とされている。このように、指示部材Bの指示部B1を球形に形成し、かつ、その中心部を座標入力/検出領域3aを形成する光束膜が通過する位置とすることにより、座標入力/検出領域3aに挿入される指示部材Bの角度にかかわらずに、指示部材Bの指示部B1の直径DBを一定の大きさにすることができる。また、以上のように専用の指示部材A,Bを用いることにより、座標入力/検出領域3aに挿入された指示部材A,Bの二次元位置座標の算出精度を高めることが可能になる。
【0080】
ここで、図7は受光素子39から再帰反射光の光強度分布に基づいた電気信号が入力され、座標入力/検出領域3aを進行する光が遮られた位置の座標を特定する処理を実行するコントローラ10のブロック構成図である。このコントローラ10は、光学ユニット27(左側光学ユニット27L、右側光学ユニット27R)の光源(LD)31の発光制御と、光学ユニット27(左側光学ユニット27L、右側光学ユニット27R)のCCD(受光素子)39からの出力の演算を行うものである。図7に示すように、コントローラ10には、各部を集中的に制御するCPU40が設けられており、このCPU40には、プログラム及びデータを記憶するROM41、各種データを書き換え自在に格納してワークエリアとして機能するRAM42、コンピュータ5に接続するためのインタフェース43、A/D(Analog/Digital)コンバータ44及びLDドライバ45がバス接続されている。また、CPU40には、各種のプログラムコード(制御プログラム)を格納するハードディスク46や不揮発性のメモリであるEEPROM(Electrically Erasable Programmable Read Only Memory)47がバス接続されている。ここに、CPU40、ROM41及びRAM42によりコンピュータとしてのマイクロコンピュータが構成されている。このようなマイクロコンピュータには、各種のプログラムコード(制御プログラム)を記憶した記憶媒体49、すなわち、フロッピーディスク、ハードディスク、光ディスク(CD−ROM,CD−R,CD−R/W,DVD−ROM,DVD−RAMなど)、光磁気ディスク(MO)、メモリカードなどに記憶されているプログラムコードを読み取る装置であるフロッピーディスクドライブ装置、CD−ROMドライブ装置、MOドライブ装置等のプログラム読取装置48が接続されている。
【0081】
CCD(受光素子)39からの出力を演算する回路として、CCD(受光素子)39の出力端子に、アナログ処理回路51が図のように接続される。CCD(受光素子)39に入射した反射光は、CCD(受光素子)39内で光の強度に応じた電圧値を持つアナログの画像データに変換され、アナログ信号として出力される。このアナログ信号は、アナログ処理回路51で処理された後、A/D(Analog/Digital)コンバータ44によってデジタル信号に変換されてCPU40に渡される。ここに、光強度分布検出手段が実現されている。なお、このような光強度分布検出手段は、サンプリング信号に伴う所定の時間間隔で時系列的に実行される。この後、CPU40によって指示部材A,Bの二次元位置座標の演算が行われる。
【0082】
ハードディスク46に格納された各種のプログラムコード(制御プログラム)または記憶媒体49に記憶された各種のプログラムコード(制御プログラム)は、コントローラ10への電源の投入に応じてRAM42に書き込まれ、各種のプログラムコード(制御プログラム)が実行されることになる。
【0083】
続いて、制御プログラムに基づいてCPU40によって実行される機能について説明する。ここでは、本実施の形態の座標入力/検出装置3の備える特長的な機能である座標検出手段を実現する座標検出処理について図8ないし図14を参照しつつ以下において具体的に説明する。
【0084】
ここで、図8は座標検出処理の流れを概略的に示すフローチャート、図9は座標入力/検出装置3の座標入力/検出領域3a内の一点を指示部材Aで指し示した一例を示す正面図である。図9に示すように、例えば、左側光学ユニット27Lから照射されたL1,L2,L3,・・・,Lnといったプローブ光で構成される扇形状の光の中でn番目のプローブ光Lnが指示部材Aによって遮られた場合、そのプローブ光Lnは再帰性反射部材28に到達することはない。
【0085】
このときCCD(受光素子)39上の光強度分布を考える。ここで、図10はCCD(受光素子)39の検出動作を模式的に示す説明図である。指示部材Aが座標入力/検出領域3a内に挿入されていなければ、CCD(受光素子)39上の光強度分布はほぼ一定であるが、図10に示すように指示部材Aが座標入力/検出領域3a内に挿入されてプローブ光Lnが指示部材Aによって遮られた場合、そのプローブ光Lnは光学ユニット27のCCD(受光素子)39によって受光されることはないため、プローブ光Lnに対応する光学ユニット27のCCD(受光素子)39上の所定の位置Xnが光強度の弱い領域(暗点)となる。この光強度の弱い領域(暗点)である位置Xnは、CCD(受光素子)39から出力される光強度の波形にピーク点として出現することになるので、CPU40は、このような光強度の波形におけるピーク点の出現を電圧の変化により認識し、この光強度の波形のピーク点となった暗点の位置Xnを検出する(図8に示すステップS1のY)。ここに、ピーク点検出手段の機能が実行される。
【0086】
また、光強度の波形のピーク点となった暗点位置Xnが検出されると、暗点位置XnからCCD(受光素子)39の中心画素までの距離aが、例えばCCD(受光素子)39の画素番号(例えば、図10においては、画素番号m)に基づいて検出される。ここに、図8に示すステップS2の処理としてピーク距離検出手段の機能が実行される。
【0087】
光強度の弱い領域(暗点)である位置Xn(左側光学ユニット27LのCCD(受光素子)39上ではXnL,右側光学ユニット27RのCCD(受光素子)39上ではXnR)は、遮られたプローブ光の出射/入射角θnと対応しており、Xnを検出することによりθnを知ることができる。即ち、暗点位置XnからCCD(受光素子)39の中心画素までの距離をaとすると、θnはa(Xn)の関数として、
θn=tan-1(a/f) ………………………………(1)
と表すことができる。ただし、fはシリンドリカルレンズ38の焦点距離である。ここで、左側光学ユニット27LにおけるθnをθnL、aをXnLと置き換える。
【0088】
さらに、図9において、左側光学ユニット27Lと座標入力/検出領域3aとの幾何学的な相対位置関係の変換係数gにより、指示部材Aと左側光学ユニット27Lとのなす角度θLは、(1)式で求められるXnLの関数として、
θL=g(θnL) ………………………………(2)
ただし、θnL=tan-1(XnL/f)
と表すことができる。
【0089】
同様に、右側光学ユニット27Rについても、上述の(1)(2)式中の記号Lを記号Rに置き換えて、右側光学ユニット27Rと座標入力/検出領域3aとの幾何学的な相対位置関係の変換係数hにより、
θR=h(θnR) ………………………………(3)
ただし、θnR=tan-1(XnR/f)
と表すことができる。ここに、図8に示すステップS3の処理として各投光手段における出射角度を算出する角度算出手段の機能が実行される。
【0090】
ここで、左側光学ユニット27Lと右側光学ユニット27Rとの取付間隔を図9に示すwとすると、座標入力/検出領域3a内の指示部材Aで指示した点の二次元位置座標(x,y)は、三角測量の原理により、
x=w・tanθR/(tanθL+tanθR) ………………(4)
y=w・tanθL・tanθR/(tanθL+tanθR) ……(5)
として算出することができる。以上により、図8に示すステップS4の処理として位置座標算出手段の機能が実行される。
【0091】
これらの(1)(2)(3)(4)(5)式は制御プログラムの一部として予めハードディスク46や記憶媒体49に格納されており、(1)(2)(3)(4)(5)式により、指示部材Aの位置座標(x,y)は、XnL,XnRの関数として算出される。すなわち、左側光学ユニット27LのCCD(受光素子)39上の暗点の位置と右側光学ユニット27RのCCD(受光素子)39上の暗点の位置とを検出することで、指示部材Aの位置座標(x,y)が算出されることになる。
【0092】
ところで、本実施の形態においては、前述したように指示部の直径が異なる2つの指示部材A,Bを用いていることにより、指示部材A,Bを座標入力/検出装置3の座標入力/検出領域3a内に同時に挿入する場合がある。ところが、このように座標入力/検出領域3a内に指示部材A,Bが同時に挿入された場合には、図11に示すように、指示部材A,Bによる実際の遮断点A,Bの位置座標の他に、実在しない点A´,B´の位置座標も検出されてしまう。これは、座標入力/検出領域3a内に指示部材A,Bを同時に挿入したために、光学ユニット27(左側光学ユニット27L,右側光学ユニット27R)のCCD(受光素子)39上に2箇所の光強度の弱い領域(暗点)が、それぞれ生じてしまうことによる。つまり、位置座標は前述したようにXnL,XnRの関数として算出されることから、2つの指示部材A,Bを座標入力/検出領域3a内に同時に挿入した場合には、指示部材Aと右側光学ユニット27Rとのなす角度θR1と指示部材Bと右側光学ユニット27Rとのなす角度θR2とが算出されるとともに、指示部材Aと左側光学ユニット27Lとのなす角度θL1と指示部材Bと左側光学ユニット27Lとのなす角度θL2とが算出され、合計4つの位置座標が算出されることになる。
【0093】
なお、算出される位置座標の数は、指示部材の数“N”により決まるものであって、“N2”により求めることができる。つまり、上述したように指示部材の数が“1”である場合には1つの位置座標のみが算出されるが、指示部材の数が“2”である場合には4つの位置座標が算出され、指示部材の数が“3”である場合には9つの位置座標が算出されることになる。
【0094】
そこで、本実施の形態においては、複数個の位置座標が算出された場合には(図8に示すステップS5のY)、複数個の位置座標の中から指示部材A,Bによる実際の遮断点A,Bの位置座標を抽出する座標抽出処理(図8に示すステップS6〜S8)が、座標検出処理の一部として実行される。座標抽出処理としては、まず、指示部材A,Bの指示部A1,B1の直径のサイズDの測定処理(図8に示すステップS6)が実行される。このサイズ測定処理は、算出された各位置座標毎に実行される。以下に、CPU40によるサイズ測定処理について説明する。ここで、図12は座標入力/検出領域3a内の一点を指示部材Aで指し示した一例を部分的に示す説明図、図13はCCD(受光素子)39から出力される光強度の波形の一例を示すグラフである。図12および図13に示すように、暗点位置XnからCCD(受光素子)39の中心画素までの距離(CCD(受光素子)39の中心からそのピーク点に至る距離)aをCCD(受光素子)39の画素番号に基づいて検出するとともに、スレシュホルドレベルに応じてCCD(受光素子)39が受光した指示部材Aの指示部A1の結像サイズ(指示部材AのCCD(受光素子)39上における結像サイズ)bも検出する。ここに、結像サイズ検出手段の機能が実行される。
【0095】
そして、暗点位置XnLからCCD(受光素子)39の中心画素までの距離aは、CCD(受光素子)39の中心からの垂線と、指示部材Aの中心と暗点位置XnLとを結ぶ線とで形成される角度αに依存しており、この角度αが、
α=tan-1(a/f) ………………(6)
として算出される。ただし、fはシリンドリカルレンズ38の焦点距離である。
【0096】
また、指示部材Aの中心からシリンドリカルレンズ38に至る距離Lは算出された位置座標より求めることができ、かつ、CCD(受光素子)39が受光する指示部材Aの被写体像の像倍率はシリンドリカルレンズ38から指示部材Aの中心に至る距離Lに依存しており、
L:l=D:b (l:シリンドリカルレンズ38から暗点位置XnLまでの距離)
の関係が成立することにより、指示部材Aの指示部A1の直径のサイズDは、
D=(b/l)・L
=(b/(a/sinα)・L
=(b/(a/sin(tan-1(a/f)))・L ………(7)
として算出される。以上により、図8に示すステップS6の処理としてサイズ算出手段の機能が実行される。
【0097】
つまり、このような指示部材Aの指示部A1の直径のサイズDの測定は、1つのCCD(受光素子)39上における結像サイズbと、2つの位置座標(例えば、図11に示すような、実際の遮断点Aの位置座標と、実在しない点A´の位置座標)に基づいて算出される2つの距離Lとに基づいて行われる。また、同様の処理が、指示部材Bの指示部B1の直径のサイズDの測定についても行われる。
【0098】
なお、以上においては、左側光学ユニット27LでのCCD(受光素子)39上における結像サイズbに基づく処理について説明したが、右側光学ユニット27Rにおいても同様であることは言うまでもない。以上により、サイズ測定処理が終了する。
【0099】
このようにして検出・算出・測定された各種の数値は、RAM42において記憶保持される。ここで、図14はRAM42の数値記憶テーブルTを示す説明図である。図14に示すように、数値記憶テーブルTには、各指示部材A,Bと右側光学ユニット27Rとのなす角度θR1,θR2と、各指示部材A,Bと左側光学ユニット27Lとのなす角度θL1,θL2との組み合わせ毎に、その角度θRと角度θLとの組み合わせに応じて算出される4つの位置座標が記憶保持されている。また、数値記憶テーブルTには、角度θRおよび角度θLにより一義的に決まるCCD(受光素子)39上における結像サイズb(bR1,bR2,bL1,bL2)が、角度θRと角度θLとの組み合わせ毎に記憶保持されている。さらに、数値記憶テーブルTには、前述したように指示部材の中心からシリンドリカルレンズに至る距離Lは算出された位置座標より求めることができることから、右側光学ユニット27Rおよび左側光学ユニット27Lにおいて算出された指示部材の指示部の直径のサイズD(DA,DB,DC,DD,DE,DF)が、4つの位置座標毎に記憶保持されている。
【0100】
続いて、座標抽出処理の一部であるサイズ比較処理(図8に示すステップS7)が、CPU40によって実行される。このサイズ比較処理は、数値記憶テーブルTに4つの位置座標毎に右側光学ユニット27Rおよび左側光学ユニット27Lに分けてそれぞれ記憶保持されている直径サイズDを比較するものである。比較の手法としては、例えば、右側光学ユニット27Rで算出された直径サイズDと左側光学ユニット27Lで算出された直径サイズDとの比率を算出する。
【0101】
その後、サイズ比較処理によって算出された比率が“1”に近い2つの位置座標が、指示部材A,Bによる実際の遮断点A,Bの位置座標として抽出される(図8に示すステップS8に示す抽出処理)。なお、抽出処理において抽出する位置座標の数は、指示部材の数“N”である。したがって、図14に示すように、右側光学ユニット27Rで算出された直径サイズDと左側光学ユニット27Lで算出された直径サイズDとが等しい値である(x1,y1)と(x4,y4)とが、遮断点A,Bの位置座標として抽出されることになる。なお、抽出された2つの位置座標が、指示部材Aによるものか、指示部材Bによるものかの区別は、指示部材Aの指示部A1の直径の実サイズDAと、指示部材Bの指示部B1の直径の実サイズDBとの関係は、
A>DB
とされていることから、それぞれ算出された直径サイズDの大小で区別することができる。したがって、指示部材Aによる遮断点Aの位置座標は(x1,y1)であって、指示部材Aによる遮断点Aの位置座標は(x4,y4)である。以上のステップS7およびステップS8により、位置座標抽出手段の機能が実行される。
【0102】
CPU40は、以上のようにして算出された指示部材A,Bの指示した位置座標をインタフェース43を介してコンピュータ5に転送し、指示部材A,Bによる指示位置の表示や指示位置に対応するコマンド入力などの処理に利用することになる。以上により、図8に示すステップS9の処理が実行される。つまり、描画ソフトを起動した状態で座標入力/検出装置3の座標入力/検出領域3aにユーザが指示部材A,Bを挿入して文字や図形を描いた場合、それぞれの位置座標が指示部材A,Bの記述に基づく画像データとしてコンピュータ5に入力され、例えばPDP2に表示されている画面上の画像に対して上書き画像として重ねて表示される。
【0103】
ここに、座標入力/検出領域3aを形成する光の一部が指示部材A,Bの挿入によって遮られた場合、光強度分布のピーク点である光を遮った指示部材A,Bの光学ユニット27(左側光学ユニット27L,右側光学ユニット27R)の各CCD(受光素子)39上の結像位置と、光を遮った指示部材A,Bの光学ユニット27(左側光学ユニット27L,右側光学ユニット27R)の各CCD(受光素子)39上における結像サイズbとが検出される。また、各CCD(受光素子)39上の中心からそのピーク点に至る距離aが検出され、このCCD(受光素子)39上の中心からそのピーク点に至る距離aに基づいて指示部材A,Bに遮られた各投光手段29における光の出射角度θL,θRが算出され、これらの各投光手段29における出射角度θL,θRに基づいて座標入力/検出領域3aに挿入された指示部材A,Bの二次元位置座標が算出される。さらに、CCD(受光素子)39上の中心からそのピーク点に至る距離aと結像サイズbと算出された各二次元位置座標から算出される指示部材までの距離Lとに基づいて、それらの各二次元位置座標における指示部材A,Bの光を遮った部分の径サイズDが算出された後、各CCD(受光素子)39における指示部材A,Bの光を遮った部分の径サイズDが略一致する二次元位置座標が、指示部材A,Bが実際に示した二次元位置座標として抽出される。これにより、2つの指示部材A,Bで同時に指示した場合にはそれらの指示部材A,Bの数の二乗の数(ここでは、4つ)だけ位置座標が検出されることになるが、指示部材A,Bは座標入力/検出領域3aにおける径サイズDA,DBが各々異なることから、各位置座標における指示部材A,Bの光を遮った部分の径サイズDを算出し、各CCD(受光素子)39における指示部材A,Bの光を遮った部分の径サイズDが略一致しない位置座標を誤認識によるものとして排除することで、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0104】
なお、本実施の形態においては、座標入力/検出装置3を表示装置であるプラズマディスプレイパネル(PDP:Plasma Display Panel)2に備えたが、これに限るものではなく、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、前面投影型プロジェクター、背面投影型プロジェクター等を表示装置として適用しても良い。さらに、これらの表示装置に限るものではなく、特に図示しないが、ライティングボードとして機能する黒板やホワイトボード等に備えるようにしても良い。
【0105】
本発明の第二の実施の形態を図15ないし図18に基づいて説明する。なお、本発明の第一の実施の形態において説明した部分と同一部分については同一符号を用い、説明も省略する。本実施の形態は、座標入力/検出装置の方式の変形例である。詳細には、本発明の第一の実施の形態で用いた座標入力/検出装置3は光遮蔽式であったが、本実施の形態の座標入力/検出装置50においては、光反射式としたものである。
【0106】
ここで、図15は座標入力/検出装置50に用いられる指示部材であって、(a)は指示部材Aを示す斜視図、(b)は指示部材Bを示す斜視図である。また、図16は座標入力/検出装置50の座標入力/検出領域50a内の一点を指示部材Aで指し示した一例を示す正面図、図17はその一部を拡大して示す説明図である。図16に示すように、座標入力/検出装置50の座標入力/検出領域50a内の一点を指し示すために用いられる指示部材A,Bの球形状の指示部A1,B1には、再帰性反射部材52がそれぞれ設けられている。この再帰性反射部材52は、例えば円錐形状のコーナーキューブを多数配列して形成されており、入射した光をその入射角度によらずに所定の位置に向けて反射する特性を有している。例えば、左側光学ユニット27Lから投光されたプローブ光Lnは、図16に示すように、再帰性反射部材52によって反射され、再び同一光路を辿る再帰反射光Ln´として光学ユニット27により受光されることになる。そのため、図16に示すように、本実施の形態の座標入力/検出装置50においては、本発明の第一の実施の形態で用いた座標入力/検出装置3のように座標入力/検出領域3aの下部を除く周辺部に再帰性反射部材28を設ける必要はない。
【0107】
図17に示すように、このような指示部材Aの再帰性反射部材52を備えた指示部A1を座標入力/検出装置50の座標入力/検出領域50aの適当な位置(x,y)に挿入し、例えば光学ユニット27から投光された扇形状の光束膜の中のプローブ光Lnが指示部材Aの指示部A1によって反射された場合、その再帰反射光Ln´は光学ユニット27のCCD(受光素子)39によって受光される。このようにしてCCD(受光素子)39が再帰反射光Ln´を受光した場合には、図17に示すように、再帰反射光Ln´に対応する光学ユニット27のCCD(受光素子)39上の所定の位置XnLが光強度の強い領域(明点)となる。より詳細には、光束膜の中のプローブ光Lnが指示部材Aによって反射された場合、図18に示すようなCCD(受光素子)39から出力される光強度の波形にピーク点が出現することになる。
【0108】
したがって、このような光反射式の座標入力/検出装置50を電子黒板システム1に適用した場合であっても、光遮蔽式の座標入力/検出装置3を用いた場合と同様の作用効果を得ることができる。
【0109】
本発明の第三の実施の形態を図19に基づいて説明する。なお、本発明の第一の実施の形態または本発明の第二の実施の形態において説明した部分と同一部分については同一符号を用い、説明も省略する。本実施の形態は、光学ユニットの変形例である。詳細には、本発明の第一の実施の形態または本発明の第二の実施の形態で用いた光学ユニット27においては扇形状の光束膜を投光して座標入力/検出領域を形成したが、本実施の形態の光学ユニット60においては、ポリゴンミラー等の回転走査系を有しており、その回転走査系によって光源から出射された光ビームを放射状に投光して座標入力/検出領域を形成するものである。
【0110】
ここで、図19は光学ユニット60を概略的に示す平面図である。図19に示すように、光学ユニット60は、駆動回路(図示せず)を有してレーザ光を出射する光源であるLD(Laser Diode:半導体レーザ)61とハーフミラー62とポリゴンミラー63と集光レンズ64とで構成される投光手段60aと、受光素子65とが備えられている。受光素子65は、集光レンズ64から距離f(fは集光レンズ64の焦点距離)の間隔で設けられたCCD(Charge Coupled Device)で構成されている。このような光学ユニット60は、LD61から出射したレーザ光をハーフミラー62を透過させた後、モータ(図示せず)により回転駆動されるポリゴンミラー63によって放射状に順次反射する。したがって、光学ユニット60は、ビーム光を放射状に繰り返し投光することになる。つまり、2つの光学ユニット60から放射状に投光されるビーム光によって座標入力/検出領域66が形成されることになる。
【0111】
したがって、このような光学ユニット60を光学ユニット27(左側光学ユニット27L、右側光学ユニット27R)に代えて座標入力/検出装置3,50に適用した場合であっても、指示部材による光の遮蔽または反射によってCCD(受光素子)65から出力される光強度の波形にピーク点が出現することになる。したがって、技術的には公知であるため詳細な説明は省略するが、このCCD(受光素子)65から出力される光強度の波形のピーク点に基づいてポリゴンミラー63を回転させたパルスモータのパルス数を検出し、この検出されたパルス数に応じて指示部材により遮蔽または反射された光の出射角度を光学ユニット60毎に求め、それらの出射角度に基づく三角測量の手法によって指示部材を挿入した座標位置を検出することができる。これにより、このような光学ユニット60を座標入力/検出装置3,50に適用した場合であっても、前述した光学ユニット27を用いた場合と同様の作用効果を得ることができる。
【0112】
次に、本発明の第四の実施の形態を図20ないし図28に基づいて説明する。なお、本発明の第一の実施の形態または第二の実施の形態において説明した部分と同一部分については同一符号を用い、説明も省略する。
【0113】
本実施の形態は、第一の実施の形態の座標入力/検出装置3で用いたような指示部の直径が異なる2つの指示部材や第二の実施の形態の座標入力/検出装置50で用いたような再帰性反射部材52がそれぞれ設けられた指示部の直径が異なる2つの指示部材を不要とするとともに、制御プログラムに基づいてCPU40によって実行される機能である座標検出手段を実現する座標検出処理における複数個の位置座標の中から指示部材による実際の遮断点/反射点の位置座標を抽出する座標抽出処理の方法が異なるものである。概略的には、本実施の形態の座標抽出処理は、実際の遮断点/反射点であるか否かの判定において、指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたものである。なお、以下においては、座標入力/検出装置3の構成に基づいて説明する。
【0114】
ここで、図20は本実施の形態の座標検出処理の流れを概略的に示すフローチャート、図21は複数個の位置座標が算出される状態を示す説明図である。なお、図21において、“A1,A2,A3,A4”は一方の指示部材で指示した実像の座標軌跡、“B1,B2,B3,B4”は他方の指示部材で指示した実像の座標軌跡を示すものである。また、“C1,C2,C3,C4”および“D1,D2,D3,D4”は、虚像である。
【0115】
図20に示すように、本実施の形態の座標検出処理の内、ステップS11〜S15の処理については、図8で示したステップS1〜S5の処理と何ら変わるところがないので、その説明は省略する。
【0116】
例えば指やペン等の指示部材が座標入力/検出領域3a内に同時に複数挿入され、複数個の位置座標(図21に示すA1,B1,C1,D1)が算出された場合には(図20に示すステップS15のY)、複数個の位置座標の中から複数の指示部材による実際の遮断点の位置座標を抽出する座標抽出処理(図20に示すステップS16〜S38)が、座標検出処理の一部として実行される。
【0117】
座標抽出処理としては、まず、算出された複数個の位置座標(A1,B1,C1,D1)をRAM42やEEPROM47等のメモリに記憶する(ステップS16)。
【0118】
続くステップS17においては、メモリに記憶された複数個の位置座標(A1,B1,C1,D1)の内、実像として確定した位置座標が有るか否かが判定される。
【0119】
実像として確定した位置座標が無い場合には(ステップS17のN)、ステップS18に進み、実像判定に必要な時系列的に順次得られる複数回分の算出座標がメモリに記憶されているか否かを判定する。
【0120】
複数回分の算出座標がメモリに記憶されている場合には(ステップS18のY)、ベクトル長・変位長・変位方向の初期判定条件(実験値)を設定した後(ステップS19)、ステップS20に進み、実像判定処理を実行する。
【0121】
ここで、図22は実像判定処理の流れを概略的に示すフローチャートである。実像判定処理は、図22に示すように、まず、ステップS51において、所定の算出座標を起点座標とし、座標間の座標ベクトル値及び座標ベクトル長を算出して、サンプリングされた二次元位置座標毎にRAM42やEEPROM47等のメモリに記憶する。
【0122】
ここで、座標ベクトル値の算出方法について図23を参照して説明する。図23において、前回検出された二次元位置座標を(X1,Y1)、今回得られた二次元位置座標を(X2,Y2)とする。X座標方向の変化量ΔX=X2−X1、Y座標方向の変化量ΔY=Y2−Y1から、座標ベクトル値をΔY/ΔXにより算出する。この場合の座標ベクトル値は、図24に示すRAM42に格納されるベクトルテーブルT2に、X軸方向から10度間隔で数値化されて予め格納されている。なお、この間隔(10度)は任意に設定すればよい。また、座標ベクトル値は、算出結果の近似値を用いるものとする。例えば、−ΔY,−ΔXでΔY/ΔX=0.900の場合であれば、座標ベクトル値=24となる。
【0123】
また、図23において示すように、各サンプリングにおける座標間の座標ベクトル値は上述のように算出され、各座標間の座標ベクトル長Lは、例えば、座標(X1,Y1),(X2,Y2)間の座標ベクトル長L1であれば、
L1=√{(Y2−Y1)2+(X2−X1)2
により算出される。このようにして、サンプリングされた二次元位置座標毎にその座標ベクトル値とその座標ベクトル長とがそれぞれ算出される。
【0124】
つまり、ステップS51においては、時系列的に順次得られる二次元位置座標間の変化する方向とその変化分を示す長さについて、ベクトルテーブルT2に予め設定格納されているベクトルデータを用いてベクトル座標化する処理を実行するものである。ここに、ベクトル化手段の機能が実行される。
【0125】
続いて、ステップS52に進み、ステップS51で算出した座標ベクトル長が、座標検出周期(サンプリング信号に伴う所定の時間間隔)内において移動不可能な異常な座標ベクトル長(異常ベクトル長)であるか否かが判定される。なお、本実施の形態における座標検出周期は、20msとする。つまり、ステップS52は、ステップS51で算出した座標ベクトル長が座標検出周期(20ms)内に検出される長さより長い場合には、実際には移動不可能であることから、その座標軌跡は、異常な座標ベクトル長(異常ベクトル長)であって実像軌跡ではないものと判定するものである。ここに、位置座標抽出手段の機能が実行される。
【0126】
座標ベクトル長が異常ベクトル長である場合には(ステップS52のY)、ステップS53に進み、異常ベクトル長を判定した座標ベクトル長の数が検知された位置座標数に達したか否かが判定され、検知された位置座標数に達していなければ(ステップS53のN)、終点の位置座標を変更して(ステップS54)、再びステップS51においてその終点に基づく座標ベクトル値と座標ベクトル長とを算出する。
【0127】
つまり、ステップS51〜S52の処理は、座標ベクトル長が異常ベクトル長でないと判定されるまで(ステップS52のN)、または、全ての終点の位置座標についての座標ベクトル長が異常ベクトル長であると判定されるまで(ステップS53のY)、繰り返される。
【0128】
したがって、例えば位置座標A1を起点座標とした場合について説明すると、図21に示すようにその直後に算出される位置座標はA2,B2,C2,D2であることから、これらの位置座標(A2,B2,C2,D2)の中から一つずつ位置座標が終点として選択され、
A1→A2,A1→B2,A1→C2,A1→D2
の何れか一つに係る座標ベクトル値(起点ベクトル値)とその座標ベクトル長(起点ベクトル長)とが順次算出され、実像軌跡であるか否かが順次判定されることになる。
【0129】
なお、全ての終点の位置座標についての座標ベクトル長が異常ベクトル長であると判定された場合には(ステップS53のY)、実像の確定ができないことになるので、後述するステップS21に進む。
【0130】
一方、座標ベクトル長が異常ベクトル長でないと判定された場合には(ステップS52のN)、その終点の位置座標をRAM42やEEPROM47等のメモリに記憶し(ステップS55)、所定の初期設定(n=3(n:座標検出周期回数))を実行する(ステップS56)。
【0131】
続くステップS57においては、ステップS55においてメモリに記憶した起点ベクトルの終点の位置座標を起点座標とし、n番目の座標検出周期において検出された位置座標との座標間の座標ベクトル値及び座標ベクトル長を算出し、RAM42やEEPROM47等のメモリに記憶する。ここに、ベクトル化手段の機能が実行される。
【0132】
続いて、ステップS58に進み、ステップS57で算出した座標ベクトル長が、座標検出周期内において移動不可能な異常な座標ベクトル長(異常ベクトル長)であるか否かを判定する。
【0133】
座標ベクトル長が異常ベクトル長でないと判定された場合には(ステップS58のN)、ステップS59に進み、実像軌跡であるものとされたA1→A2の座標軌跡とA2→A3の座標軌跡とを比較し、座標ベクトル値が特定の変位量(V)内にあり、且つ,座標ベクトル長が特定の変位量(L)外である軌跡(異常変位長)であるか否かを判定する。
【0134】
このように座標ベクトル値が特定の変位量(V)内にあり、且つ,座標ベクトル長が特定の変位量(L)外である軌跡(異常変位長)であるか否かを判定するのは、図25に示すように、一般的に直線を描く場合には、座標ベクトル値、同一時間内における座標ベクトル長はほぼ同じであり、また、特に図示しないが、曲線を描く場合においても、座標ベクトル値は変化するが変化量は略同一であって座標ベクトル長も略同一となることに起因している。つまり、直線または曲線上に検出物が移動する場合には、座標ベクトル長および座標ベクトル値に大きな差は生じないことから、座標ベクトル値が特定の変位量(V)内であっても、座標ベクトル長が特定の変位量(L)外である軌跡(異常変位長)については、排除するものである。
【0135】
異常変位長でないと判定された場合には(ステップS59のN)、ステップS60に進み、実像軌跡であるものとされたA1→A2の座標軌跡とA2→A3の座標軌跡とを比較し、座標ベクトル値が特定の変位量(V)外にあり、且つ,座標ベクトル長が減少している軌跡(異常変位方向)であるか否かを判定する。
【0136】
このように座標ベクトル値が特定の変位量(V)外にあり、且つ,座標ベクトル長が減少している軌跡(異常変位方向)であるか否かを判定するのは、図26に示すように、一般的に直線方向を大きく変化させて描く場合には、方向転換する描画速度は順次低減して方向転換点で停止状態となり、再び転換方向に通常の速度で描きはじめることになるので、座標ベクトル値が大きく変化する場合には、座標ベクトル長は逐次減少した後、変換方向に向かって増加することに起因している。つまり、検出物が大きく方向を変える場合には、直前に動作の停止状態が発生することから、座標ベクトル長が減少していても、座標ベクトル値が特定の変位量(V)外である軌跡(異常変位方向)については、排除するものである。
【0137】
以上、ステップS58〜S60の処理によって、位置座標抽出手段の機能が実行される。
【0138】
異常変位方向でないと判定された場合(ステップS60のN)、言い換えれば異常ベクトル長でも異常変位長でも異常変位方向でもない場合には、その終点の位置座標をRAM42やEEPROM47等のメモリに記憶し(ステップS61)、座標検出周期回数nを“1”インクリメントする(ステップS62)。
【0139】
その後、ステップS63において、座標検出周期回数nがメモリに記憶されている実像判定に必要な時系列的に順次得られる複数回分の算出座標の数(判定座標数)を超えたか否かが判定され、座標検出周期回数nが判定座標数を超えていない場合には(ステップS63のY)、前述した継続ベクトルを起点ベクトルとし(ステップS64)、再びステップS57においてその終点に基づく座標ベクトル値と座標ベクトル長とを算出する。
【0140】
つまり、ステップS57〜S64の処理は、全ての終点の位置座標について異常ベクトル長または異常変位長若しくは異常変位方向であると判定されるまで(ステップS65のY)、終点の位置座標を変更し(ステップS66)、繰り返される。
【0141】
そして、全ての終点の位置座標について異常ベクトル長または異常変位長若しくは異常変位方向であると判定された場合には(ステップS65のY)、再びステップS54に進み、終点の位置座標を変更し、ステップS51においてその終点に基づく座標ベクトル値と座標ベクトル長とを算出する。
【0142】
したがって、例えば、ステップS55においてメモリに記憶した起点ベクトルの終点の位置座標がA2であって、A1→A2が実像軌跡であるものとされた場合、図21に示すようにその直後に算出される位置座標はA3,B3,C3,D3であることから、これらの位置座標(A2,B2,C2,D2)の中から一つずつ位置座標が終点として選択され、
A2→A3,A2→B3,A2→C3,A2→D3
の何れか一つに係る座標ベクトル値(継続ベクトル値)とその座標ベクトル長(継続ベクトル長)とが順次算出され、実像軌跡であるか否かが順次判定されることになる。
【0143】
一方、座標検出周期回数nが判定座標数を超えたと判定された場合には(ステップS63のY)、実像が確定したことになるので、その位置座標をインタフェース43を介してコンピュータ5に転送し(ステップS67)、指示部材による指示位置の表示や指示位置に対応するコマンド入力などの処理に利用することになる。
【0144】
ここで、一の位置座標に基づく他の位置座標についての実像か否かの判定について図11を参照して説明する。一の位置座標に基づく他の位置座標についての実像か否かの判定は、図11において、AとA´とがいずれも実像であるものとすると、▲2▼の方向には座標は検出されないことになる。このため、AとA´とのいずれか一方が実像であることが解かる。また、同様に、BとB´とのいずれか一方が実像であることが解かる。つまり、同一方向に存在する位置座標は、何れか一方のみが実像であって、他方は虚像であることになる。また、一方のAが実像であると解かった場合には、他方のA´は虚像として認識されるとともに、▲3▼方向のB´も虚像として認識されることになるので、Bが実像であることが解かる。つまり、メモリに記憶された四つの位置座標の内、一の位置座標について実像か虚像かが認識されれば、全ての位置座標についての実像か虚像かの判定が可能であることが解かる。したがって、算出された全ての二次元位置座標について実像判定を行う必要はないので、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0145】
なお、図27に示すように、メモリに記憶された複数個の位置座標(A1,B1,C1,D1)の内、一の位置座標(図27においてはB1)が座標入力/検出領域3aの外に存在してしまう場合には、A1とC1とを実像として確定することができることになる。
【0146】
すなわち、メモリに記憶された四つの位置座標の内、一の位置座標について実像か虚像かが認識されれば、全ての位置座標についての実像か虚像かの判定が可能であることにより、他方の位置座標も実像として確定し(ステップS68)、インタフェース43を介してコンピュータ5に転送する(ステップS69)。以上、ステップS67〜S69の処理によって実像判定手段の機能が実行される。また、ステップS67〜S69の処理は、判定座標数全てについて確定するまで(ステップS70のY)、繰り返される。そして、判定座標数全てについての実像の位置座標の送信が終了した場合に(ステップS70のY)、実像判定処理は終了し、ステップS11に戻る。
【0147】
次に、ステップS53において全ての終点の位置座標についての座標ベクトル長が異常ベクトル長であると判定された場合の処理について説明する。全ての終点の位置座標についての座標ベクトル長が異常ベクトル長であると判定された場合には(ステップS53のY)、前述したように実像の確定ができないものとしてステップS21に進むが、このステップS21においては、まだ同一方向の位置座標(例えば、図21においてA1に対するC1)についての実像判定処理を実行しているかいないかを判定する。まだ同一方向の位置座標についての実像判定処理を実行していない場合には(ステップS21のN)、起点座標を変更して(ステップS22)、再度ステップS20に進み、実像判定処理を実行する。一方、同一方向の位置座標についての実像判定処理を実行している場合には(ステップS21のY)、ステップS19で設定したベクトル長・変位長・変位方向の判定条件を変更し(ステップS23)、再度ステップS20に進み、実像判定処理を実行する。つまり、同一方向の2点の位置座標について、交互に同条件にて実像判定を繰り返すことになる。
【0148】
また、算出された位置座標が複数ではない場合には(ステップS15のN)、その算出された位置座標をインタフェース43を介してコンピュータ5に転送するとともに(ステップS24)、RAM42やEEPROM47等のメモリに記憶し(ステップS25)、ステップS11に戻る。
【0149】
次に、ステップS17において、実像として確定した位置座標が有ると判定された場合について説明する。実像として確定した位置座標が有る場合には(ステップS17のY)、ステップS26に進む。
【0150】
ここで、実像として確定した位置座標が有る場合とは、前述したように算出された位置座標が複数ではない場合の位置座標がRAM42やEEPROM47等のメモリに複数記憶されている場合であって、例えば図28に示すような場合である。図28は、一の指示部材で記述している途中において、他の指示部材が座標入力/検出領域3a内に挿入された状態を示している。なお、実像として確定した位置座標が有る場合とは、前述したような処理により2点の座標が確定している場合を含むことは言うまでもない。
【0151】
ステップS26においては、実像として確定した位置座標の前回および前々回の値に基づき、座標間の座標ベクトル値(実像ベクトル値)及び座標ベクトル長(実像ベクトル長)を算出して、RAM42やEEPROM47等のメモリに記憶する。
【0152】
その後、ベクトル長・変位長・変位方向の初期判定条件(実験値)を設定した後(ステップS27)、ステップS26においてメモリに記憶した実像ベクトルの終点の位置座標を起点座標とし、複数個同時に検出された位置座標との座標間の座標ベクトル値及び座標ベクトル長を算出し、RAM42やEEPROM47等のメモリに記憶する。ここに、ベクトル化手段の機能が実行される。
【0153】
続いて、ステップS29に進み、ステップS28で算出した座標ベクトル長が、座標検出周期内において移動不可能な異常な座標ベクトル長(異常ベクトル長)であるか否かを判定する。
【0154】
座標ベクトル長が異常ベクトル長でないと判定された場合には(ステップS29のN)、ステップS30に進み、実像軌跡であるものとされたA3→A4の座標軌跡と例えばA4→Aの座標軌跡とを比較し、座標ベクトル値が特定の変位量(V)内にあり、且つ,座標ベクトル長が特定の変位量(L)外である軌跡(異常変位長)であるか否かを判定する。
【0155】
異常変位長でないと判定された場合には(ステップS30のN)、ステップS31に進み、実像軌跡であるものとされたA3→A4の座標軌跡と例えばA4→Aの座標軌跡とを比較し、座標ベクトル値が特定の変位量(V)外にあり、且つ,座標ベクトル長が減少している軌跡(異常変位方向)であるか否かを判定する。
【0156】
以上、ステップS29〜S31の処理によって、位置座標抽出手段の機能が実行される。
【0157】
異常変位方向でないと判定された場合(ステップS31のN)、言い換えれば異常ベクトル長でも異常変位長でも異常変位方向でもない場合には、その終点の位置座標をRAM42やEEPROM47等のメモリに記憶し(ステップS32)、その位置座標をインタフェース43を介してコンピュータ5に転送するとともに(ステップS33)、他方の位置座標も実像として確定し(ステップS34)、インタフェース43を介してコンピュータ5に転送する(ステップS35)。
【0158】
一方、座標ベクトル長が異常ベクトル長であると判定された場合(ステップS29のY)、異常変位長であると判定された場合(ステップS30のY)、異常変位方向であると判定された場合には(ステップS31のY)、検出座標数に達するまで(ステップS36のY)、検出座標を変更し(ステップS37)、ステップS28〜S31の処理を繰り返す。
【0159】
したがって、例えば、ステップS26においてメモリに記憶した実像ベクトルの終点の位置座標がA4である場合、図28に示すようにその直後に算出される位置座標はA,B,C,Dであることから、これらの位置座標(A,B,C,D)の中から一つずつ位置座標が終点として選択され、
A4→A,A4→B,A4→C,A4→D
の何れか一つに係る座標ベクトル値(軌跡ベクトル値)とその座標ベクトル長(軌跡ベクトル長)とが順次算出され、実像軌跡であるか否かが順次判定されることになる。つまり、実像であると判定された一の二次元位置座標の軌跡を追跡することで、受光素子に対して同一方向に位置する他の二次元位置座標を虚像であると認識し、他の実像である二次元位置座標を確定するものである。
【0160】
また、検出座標数に達した場合には(ステップS36のY)、ステップS27で設定したベクトル長・変位長・変位方向の判定条件を変更し(ステップS38)、再度ステップS28に進み、座標ベクトル値(軌跡ベクトル値)とその座標ベクトル長(軌跡ベクトル長)とを算出する。
【0161】
ここに、複数の二次元位置座標が算出された場合には、ベクトル化手段によって所定の時間間隔で順次算出される二次元位置座標間の変化の方向及び長さがベクトル座標化され、このベクトル座標化された二次元位置座標間の変化の方向及び長さに基づき、複数の二次元位置座標の中から指示部材が実際に示した二次元位置座標が抽出される。これにより、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたことにより、複数箇所を同時に指示した場合の位置座標を低コストで検出することが可能になる。
【0162】
なお、本実施の形態は、座標入力/検出装置3の構成に基づいて説明したが、座標入力/検出装置50を適用しても同様の作用・効果を得ることができる。また、扇形状の光束膜を投光する光学ユニット27に代えて、第三の実施の形態で説明した光ビームを放射状に投光する光学ユニット60を用いても良い。
【0163】
なお、各実施の形態においては、コントローラ10をコンピュータ5とは別体で設けたが、これに限るものではなく、コントローラ10をコンピュータ5に組み込んで、コンピュータ5をコントローラ10として機能させるようにしても良い。
【0164】
また、各実施の形態においては、座標入力/検出装置を電子黒板システムに一体化させて組み込んだが、これに限るものではなく、座標入力/検出装置を表示装置やライティングボードに対して着脱自在な構成としても良い。
【0165】
さらに、各実施の形態においては、各種のプログラムコード(制御プログラム)を記憶した記憶媒体26や記憶媒体49としてフロッピーディスク、ハードディスク、光ディスク(CD−ROM,CD−R,CD−R/W,DVD−ROM,DVD−RAMなど)、光磁気ディスク(MO)、メモリカード等を適用したが、これに限るものではなく、記憶媒体には、コンピュータと独立した媒体に限らず、LANやインターネット等により伝送されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。
【0166】
【発明の効果】
請求項1記載の発明の座標入力/検出装置によれば、複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたので、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる。
【0172】
請求項記載の発明の座標入力/検出装置によれば複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたので、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる。
【0173】
請求項記載の発明によれば算出された全ての二次元位置座標について実像判定を行う必要はないので、複数箇所を同時に指示した場合の位置座標をさらに低コストで検出することができる。
【0174】
請求項記載の発明によれば実像であると判定された一の二次元位置座標の軌跡を追跡することで、受光素子に対して同一方向に位置する他の二次元位置座標を虚像であると認識することができるので、他の実像である二次元位置座標を確定することができ、一方の指示部材が指示している際に途中から他方の指示部材が同時に指示した場合の位置座標を低コストで検出することができる。
【0182】
請求項記載の発明の座標検出方法によれば複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたので、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる。
【0183】
請求項記載の発明の座標検出方法によれば複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたので、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる。
【0186】
請求項記載の発明の記憶媒体によれば複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたので、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる。
【0187】
請求項記載の発明の記憶媒体によれば複数箇所を複数の指示部材で同時に指示した場合にはそれらの指示部材の数の二乗の数だけ位置座標が検出されることになるが、指示部材で実際に指示した点であるか否かの判定を指示座標の変化する方向情報と長さ情報とを併せ持つベクトル座標値を利用するようにしたので、複数箇所を同時に指示した場合の位置座標を低コストで検出することができる。
【図面の簡単な説明】
【図1】本発明の第一の実施の形態の電子黒板システムを概略的に示す外観斜視図である。
【図2】電子黒板システムに内蔵される各部の電気的接続を示すブロック図である。
【図3】コンピュータに内蔵される各部の電気的接続を示すブロック図である。
【図4】座標入力/検出装置の構成を概略的に示す説明図である。
【図5】光学ユニットの構造を概略的に示す構成図である。
【図6】(a)は指示部材Aを示す斜視図、(b)は指示部材Bを示す斜視図である。
【図7】コントローラのブロック構成図である。
【図8】座標検出処理の流れを概略的に示すフローチャートである。
【図9】座標入力/検出領域内の一点を指示部材で指し示した一例を示す正面図である。
【図10】CCDの検出動作を模式的に示す説明図である。
【図11】複数個の位置座標が算出される状態を示す説明図である。
【図12】座標入力/検出領域内の一点を指示部材で指し示した一例を部分的に示す説明図である。
【図13】CCDから出力される光強度の波形の一例を示すグラフである。
【図14】RAMの数値記憶テーブルを示す説明図である。
【図15】本発明の第二の実施の形態の座標入力/検出装置に用いられる指示部材であって、(a)は指示部材Aを示す斜視図、(b)は指示部材Bを示す斜視図である。
【図16】座標入力/検出領域内の一点を指示部材で指し示した一例を示す正面図である。
【図17】その一部を拡大して示す説明図である。
【図18】CCDから出力される光強度の波形の一例を示すグラフである。
【図19】本発明の第三の実施の形態の光学ユニットを概略的に示す平面図である。
【図20】本発明の第四の実施の形態の座標検出処理の流れを概略的に示すフローチャートである。
【図21】複数個の位置座標が算出される状態を示す説明図である。
【図22】実像判定処理の流れを概略的に示すフローチャートである。
【図23】座標ベクトル値算出方法を説明するためのベクトル図である。
【図24】ベクトルテーブルを模式的に示す説明図である。
【図25】直線を描く場合の動きを示す説明図である。
【図26】直線方向を大きく変化させて描く場合の動きを示す説明図である。
【図27】実像を自動的に確定することができる状態を示す説明図である。
【図28】一の指示部材で記述している途中において、他の指示部材が座標入力/検出領域内に挿入された状態を示す説明図である。
【図29】従来の座標入力/検出装置を概略的に示す正面図である。
【図30】座標入力/検出領域において2点同時に指示した状況を示す正面図である。
【図31】2点同時に指示した場合の各ライトスキャナにおける受光信号とパルス信号との関係を示すタイムチャートである。
【符号の説明】
1 電子黒板システム
2 表示装置
3,50 座標入力/検出装置
3a,50a 座標入力/検出領域
4 電子黒板部
5 制御装置
26,49 記憶媒体
28 再帰性反射部材
29,60a 投光手段
31,61 光源
39,65 受光素子
52 再帰性反射部材
A,B 指示部材
1,B1 指示部
D 径サイズ
L 指示部材までの距離
a 受光素子上の所定の位置からピーク点に至る距離
b 結像サイズ
θL、θR 出射角度
[0001]
BACKGROUND OF THE INVENTION
The present invention is mainly composed of a coordinate input / detection device that optically detects position coordinates indicated by a pointing member such as a pen or a finger for inputting and selecting information, and this coordinate input / detection device. The present invention relates to an electronic blackboard system, a coordinate detection method in a coordinate input / detection device, and a storage medium storing a computer-readable program that causes a computer to execute position coordinate detection.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known an electronic blackboard device capable of reading handwritten information written on a writing surface such as a whiteboard or a writing sheet using a writing tool with a dedicated scanner and outputting it to a recording paper with a dedicated printer. ing. On the other hand, in recent years, a coordinate input / detection device is arranged on the writing surface of the electronic blackboard device so that information written by hand on the writing surface can be input to a computer such as a personal computer in real time. An electronic blackboard system is also provided.
[0003]
For example, a software board made by Microfield Graphics, Inc. (Microfield Graphics, Inc.) is configured by arranging a coordinate input / detection device on a whiteboard, such as characters and pictures written on the whiteboard. It is a device that enables visual data to be imported into a computer in real time. In an electronic blackboard system configured using this software board, visual data captured by the software board is input to a computer and displayed on a CRT (Cathode Ray Tube), or displayed on a large screen using a liquid crystal projector. It is possible to output to recording paper with a printer. It is also possible to project a computer screen to which a soft board is connected onto the soft board with a liquid crystal projector and operate the computer on the soft board.
[0004]
Also, a display device for displaying characters and images, a coordinate input / detection device having a coordinate input surface (touch panel surface) disposed on the front surface of the display device, and a display device based on input from the coordinate input / detection device There is provided an electronic blackboard system that includes a display device and a control device that controls the display of the electronic blackboard portion, and includes a display device and a coordinate input / detection device.
[0005]
For example, in Smart 2000 manufactured by SMART Technologies Inc., the projection surface of the panel in a state where characters, pictures, graphics, and graphics images are projected onto the panel using a liquid crystal projector connected to a computer. Using a coordinate input / detection device (writing surface) disposed on the front surface of the (display surface), a process of taking handwritten information into the computer is performed. Then, the handwritten information and the image information are synthesized in the computer and can be displayed again in real time via the liquid crystal projector.
[0006]
In such an electronic blackboard system, an image input using a coordinate input / detection device can be displayed as an overwritten image on an image displayed on a screen displayed by a display device. Have already been widely used in the field, and its use effect is highly evaluated. In addition, the electronic blackboard system is also used as an electronic conference system by incorporating a communication function such as voice and image into a remote communication line.
[0007]
In recent years, various types of coordinate input / detection devices used in an electronic blackboard system with different detection methods have been considered. However, if a method suitable for application to the above-described electronic blackboard system is studied, input is possible without having a physical surface such as a coordinate input surface (touch panel surface), such as an optical type. Coordinate input / detection devices are considered promising.
[0008]
As such an optical coordinate input / detection device, various methods have been proposed. An example of an optical coordinate input / detection device is described in Japanese Patent Laid-Open No. 9-91094. Here, FIG. 29 is a front view schematically showing a conventional coordinate input / detection apparatus 100. As shown in FIG. 29, the coordinate input / detection device 100 includes a light emitting device that emits a laser beam light a toward a predetermined position while rotating it, and a light receiving device that receives retroreflected light b of the laser beam light a. And a pair of light scanners 101 (101R, 101L) provided at a distance Z, and a retroreflecting member 102 that reflects the laser beam light a and follows the same optical path again as a retroreflecting light b. A portion where the laser beam light a scans is a coordinate input / detection region 103. The light emitting device of the light scanner 101 is driven by a driving device (not shown), and the rotational driving of the driving device is pulse-controlled.
[0009]
In such an optical coordinate input / detection device 100, since a specific combination of the laser beam lights a1 and a2 is blocked by inserting the user's finger A or the like into the coordinate input / detection region 103, recursion is performed. No reflected light is generated. When retroreflected light is not generated in this way, a light reception signal in the light receiving device of the light scanner 101 is detected as a “L (LOW)” level signal by a detection unit (not shown). Further, in the detection unit, the emission angle of each of the laser beam lights a1 and a2 of the “L” level signal is based on the number of pulses that drive-controls the driving device until the laser beam lights a1 and a2 are emitted. Detected. Then, the position coordinates (x, y) designated by the user's finger A is triangulated in the arithmetic circuit 104 based on the emission angle of the laser beam light a1, the emission angle of the laser beam light a2, and the distance Z. It is calculated by the principle. The position coordinates (x, y) calculated in this way are output to a computer or the like via the interface circuit 105.
[0010]
An optical coordinate input / detection device having no physical surface such as a coordinate input surface (touch panel surface) as typified above is a case where it is used by being mounted on a display surface of a display device. In addition to being excellent in visibility, its enlargement is relatively easy.
[0011]
[Problems to be solved by the invention]
Here, a case where the user's fingers A and B are simultaneously inserted into the coordinate input / detection area 103 of the coordinate input / detection apparatus 100 and two points are designated simultaneously will be described with reference to FIG. FIG. 31 is a time chart showing the relationship between the light reception signal and the pulse signal in each of the light scanners 101R and 101L when two points are designated simultaneously. 30 and 31, it is assumed that the laser beam light scanned from each of the light scanners 101R and 101L is divided into eight directions based on the pulse signal, and the respective blocking points A and B are the respective light scanners 101R and 101L. It is assumed that the laser beam is scanned at the intersection of In this way, when the laser beam is simultaneously blocked at each of the blocking points A and B, as shown in FIG. 31, the light scanner 101R detects a light reception signal of “L” level at positions 3 and 6. As a result, the light scanner 101L detects “L” level light reception signals at positions 3 and 5.
[0012]
However, when each light scanner 101R, 101L of the coordinate input / detection device 100 detects a light reception signal of “L” level for two points, in addition to the actual cutoff points A, B, the points A ′, B There is a risk that 'will be erroneously recognized. In other words, the combination of pulse signals based on the light reception signal of “L” level is
A (101L, 101R) = (5, 3)
A ′ (101L, 101R) = (3, 3)
B (101L, 101R) = (3, 6)
B ′ (101L, 101R) = (5, 6)
Therefore, it is not possible to determine one interception point.
[0013]
Therefore, in the coordinate input / detection device 100 described in Japanese Patent Application Laid-Open No. 9-91094, it is impossible to detect the position coordinates when two points are designated simultaneously.
[0014]
In addition, in order to detect the position coordinates when two points are specified at the same time, it is necessary to provide one more light scanner and have three scanning lights. However, there is a problem that it becomes complicated and expensive.
[0015]
An object of the present invention is to obtain a coordinate input / detection device that can detect position coordinates when a plurality of locations are simultaneously designated at low cost.
[0016]
An object of the present invention is to obtain an electronic blackboard system provided with a coordinate input / detection device capable of detecting position coordinates when a plurality of locations are simultaneously designated at low cost.
[0017]
An object of the present invention is to obtain a coordinate detection method capable of detecting position coordinates when a plurality of locations are simultaneously indicated at low cost.
[0018]
An object of the present invention is to obtain a storage medium storing a computer-readable program that causes a computer to execute low-cost detection of position coordinates when a plurality of locations are simultaneously indicated.
[0019]
[Means for Solving the Problems]
  The coordinate input / detection device of the invention according to claim 1 is:A light source that emits light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection area; and the light projecting means provided at the periphery of the coordinate input / detection area A retroreflecting member that reflects the light projected by the light in the same direction as the incident direction, a pair of light receiving elements that receive the light reflected by the retroreflective member, and the light receiving elements that receive the light. A light intensity distribution detecting means for detecting the light intensity distribution of the light, and a light intensity distribution detected by the light intensity distribution detecting means when at least one indicating member is inserted in the coordinate input / detection area. A peak point detecting means for detecting at least one or more peak points as an imaging position on each of the light receiving elements of at least one of the indicating members blocking the light; and at least one or more detected by the peak point detecting means. A peak distance detecting means for detecting a distance from the predetermined position on the light receiving element to each peak point based on the peak point of the light receiving element, and a peak from the predetermined position on the light receiving element detected by the peak distance detecting means. An angle calculating means for calculating an emission angle of each light projecting means of the light blocked by at least one of the indicating members based on the distance to the point; and at least one or more calculated by the angle calculating means Position coordinate calculating means for calculating a two-dimensional position coordinate of the pointing member inserted into the coordinate input / detection area based on an emission angle of the light blocked by the pointing member in each of the light projecting means, and this position When a plurality of the two-dimensional position coordinates are calculated by the coordinate calculating means, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval are calculated. A plurality of two-dimensional positions calculated by the position coordinate calculating means based on a vectorizing means for tol coordinate conversion and a direction and length of a change between the two-dimensional position coordinates vectorized by the vectorizing means. Position coordinate extracting means for extracting the two-dimensional position coordinates actually indicated by the pointing member from the coordinates.
[0030]
Therefore, when a part of the light projected to the coordinate input / detection area is blocked by the insertion of at least one indicating member, at least one indicating member that blocks the light that is the peak point of the light intensity distribution. The image forming position on each light receiving element and the image forming size on each light receiving element of at least one indicating member that blocks light are detected. Further, the distance from the predetermined position on each light receiving element to the peak point is detected, and the light projecting means blocked by the indicating member based on the distance from the predetermined position on the light receiving element to the peak point is detected. An emission angle of light is calculated, and two-dimensional position coordinates of at least one indicating member inserted into the coordinate input / detection area are calculated based on the emission angle in each of the light projecting units. Further, when a plurality of two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of change between the converted two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0031]
  Claim2The coordinate input / detection device according to the invention includes a light source that emits light, a pair of light projecting units that project the light onto a two-dimensional coordinate input / detection region, and the light projecting unit. When an indicator member having a retroreflecting member that reflects the projected light in the same direction as the incident direction is inserted into the coordinate input / detection area, the light reflected by the retroreflecting member is received. A pair of light receiving elements to be detected, light intensity distribution detecting means for detecting the light intensity distribution of the light received by these light receiving elements, and at least one or more indicating members inserted in the coordinate input / detection area Further, a peak inspection for detecting at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting means as an imaging position on each light receiving element of at least one or more of the indicating members reflecting the light. Out A peak distance detecting means for detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more peak points detected by the peak point detecting means, and the peak distance detecting means An angle calculation for calculating an emission angle at each of the light projecting means of the light reflected by at least one of the indicating members based on the distance from the predetermined position on the light receiving element detected by the step to the peak point. And an indication member inserted into the coordinate input / detection area based on an emission angle of each light projecting means of the light reflected by at least one indication member calculated by the angle calculation means. A position coordinate calculation means for calculating two-dimensional position coordinates, and a plurality of the two-dimensional position coordinates calculated by the position coordinate calculation means; Vectorization means for vectorizing the direction and length of the change between the two-dimensional position coordinates sequentially calculated at time intervals, and the direction of change between the two-dimensional position coordinates vectorized by the vectorization means And position coordinate extracting means for extracting the two-dimensional position coordinates actually indicated by the pointing member from the plurality of two-dimensional position coordinates calculated by the position coordinate calculating means based on the length.
[0032]
Therefore, when a part of the light projected on the coordinate input / detection area is reflected by the insertion of at least one indicating member, at least one indicating member that reflects the light that is the peak point of the light intensity distribution. The image forming position on each light receiving element and the image forming size on each light receiving element of at least one indicating member reflecting the light are detected. Further, the distance from the predetermined position on each light receiving element to the peak point is detected, and the light projecting means reflected on the indication member based on the distance from the predetermined position on the light receiving element to the peak point is detected. An emission angle of light is calculated, and two-dimensional position coordinates of at least one indicating member inserted into the coordinate input / detection area are calculated based on the emission angle in each of the light projecting units. Further, when a plurality of two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of change between the converted two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0033]
  Claim3The described invention is claimed.1Or2In the coordinate input / detection device described above, the position coordinate extraction unit includes the two-dimensional position located in the same direction with respect to the light receiving element among the plurality of two-dimensional position coordinates calculated by the position coordinate calculation unit. Real image determination means for performing real image determination by paying attention to the fact that one of the coordinates is always a real image.
[0034]
Accordingly, since it is not necessary to perform real image determination for all the calculated two-dimensional position coordinates, it is possible to detect the position coordinates when a plurality of locations are simultaneously indicated at a lower cost.
[0035]
  Claim4The described invention is claimed.3In the coordinate input / detection device described above, when there is one two-dimensional position coordinate determined to be a real image by the real image determination unit, a trajectory of the one two-dimensional position coordinate determined to be the real image is obtained. The two-dimensional position coordinates, which are other real images, are tracked and determined.
[0036]
Therefore, by tracking the trajectory of one two-dimensional position coordinate determined to be a real image, other two-dimensional position coordinates positioned in the same direction with respect to the light receiving element can be recognized as a virtual image. As a result, it becomes possible to determine the two-dimensional position coordinates that are other real images, so that when one pointing member is pointing, the position coordinates when the other pointing member simultaneously points from the middle are reduced. It becomes possible to detect at cost.
[0051]
  Claim5The coordinate detection method of the described invention has a light source that emits light, a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection region, and the periphery of the coordinate input / detection region A retroreflective member that is provided in the unit and reflects the light projected by the light projecting means in the same direction as the incident direction, and a pair of light receiving units that receive the light reflected by the retroreflective member The instruction inserted into the coordinate input / detection area based on the detected light intensity distribution using an element and light intensity distribution detecting means for detecting the light intensity distribution of the light received by these light receiving elements A coordinate detection method for detecting a two-dimensional position coordinate of a member, wherein when at least one pointing member is inserted into the coordinate input / detection area, at least one of the light intensity distributions detected by the light intensity distribution detection means. 1 or more peaks From the predetermined position on the light receiving element on the basis of the detected at least one or more peak points. A step of detecting a distance to each peak point, and each of the light projecting means for the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element to the peak point And calculating the emission angle of the light, and the indicating member inserted into the coordinate input / detection area based on the calculated emission angle of the light projecting means in the light projecting means. Calculating the two-dimensional position coordinates, and when a plurality of the two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval. Based on the direction and length of the change between the two-dimensional position coordinates converted into vector coordinates and the step of converting into the coordinates of the vector, the pointing member actually indicated from the plurality of calculated two-dimensional position coordinates Extracting two-dimensional position coordinates.
[0052]
Therefore, when a part of the light projected to the coordinate input / detection area is blocked by the insertion of at least one indicating member, at least one indicating member that blocks the light that is the peak point of the light intensity distribution. The image forming position on each light receiving element and the image forming size on each light receiving element of at least one indicating member that blocks light are detected. Further, the distance from the predetermined position on each light receiving element to the peak point is detected, and the light projecting means blocked by the indicating member based on the distance from the predetermined position on the light receiving element to the peak point is detected. An emission angle of light is calculated, and two-dimensional position coordinates of at least one indicating member inserted into the coordinate input / detection area are calculated based on the emission angle in each of the light projecting units. Further, when a plurality of two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of change between the converted two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0053]
  Claim6The coordinate detection method according to the invention includes a light source that emits light, a pair of light projecting units that project the light onto a two-dimensional coordinate input / detection region, and light projection by these light projecting units. When a pointing member having a retroreflective member that reflects the emitted light in the same direction as the incident direction is inserted into the coordinate input / detection region, a pair that receives the light reflected by the retroreflective member A set of light receiving elements and a light intensity distribution detecting means for detecting the light intensity distribution of the light received by these light receiving elements are used to insert into the coordinate input / detection area based on the detected light intensity distribution A coordinate detection method for detecting a two-dimensional position coordinate of the pointing member, wherein the light detected by the light intensity distribution detecting means when at least one pointing member is inserted into the coordinate input / detection region Less intensity distribution Detecting at least one peak point as an imaging position on each of the light receiving elements of the at least one indicating member that blocks the light, and the light receiving element based on the detected at least one peak point Detecting the distance from the predetermined position to each peak point, and the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element to the peak point A step of calculating an emission angle at each of the light projecting means, and the coordinate input / detection region based on the calculated light output angle at each of the light projecting means of the light blocked by at least one of the indicating members. A step of calculating a two-dimensional position coordinate of the inserted pointing member; and when a plurality of the two-dimensional position coordinates are calculated, a change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval. A step of converting the direction and length of the two-dimensional position coordinates into a vector coordinate, and the direction member and the direction of the change between the two-dimensional position coordinates converted into the vector coordinates, the indicator member from among the plurality of two-dimensional position coordinates calculated The step of extracting the two-dimensional position coordinates actually shown.
[0054]
Therefore, when a part of the light projected on the coordinate input / detection area is reflected by the insertion of at least one indicating member, at least one indicating member that reflects the light that is the peak point of the light intensity distribution. The image forming position on each light receiving element and the image forming size on each light receiving element of at least one indicating member reflecting the light are detected. Further, the distance from the predetermined position on each light receiving element to the peak point is detected, and the light projecting means reflected on the indication member based on the distance from the predetermined position on the light receiving element to the peak point is detected. An emission angle of light is calculated, and two-dimensional position coordinates of at least one indicating member inserted into the coordinate input / detection area are calculated based on the emission angle in each of the light projecting units. Further, when a plurality of two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of change between the converted two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0059]
  Claim7The storage medium of the described invention has a light source that emits light, a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection area, and a peripheral portion of the coordinate input / detection area And a pair of light receiving elements that receive the light reflected by the retroreflective member and that reflect the light projected by the light projecting means in the same direction as the incident direction. And a light intensity distribution detecting means for detecting the light intensity distribution of the light received by these light receiving elements, and the coordinate input / detection based on the detected light intensity distribution. A storage medium storing a computer-readable program for causing a computer to detect the two-dimensional position coordinates of the pointing member inserted into a region, wherein the pointing member inputs and detects the coordinates. When at least one or more peak members of the light intensity distribution detected by the light intensity distribution detecting means are inserted into the area, at least one peak point of the light intensity distribution detected on the light receiving elements of the at least one indicating member that blocks the light. A function for detecting the image forming position, a function for detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one detected peak point, and a predetermined value on the light receiving element. A function of calculating an emission angle of each of the light projecting means of the light blocked by at least one of the indicating members based on the distance from the position to the peak point, and the calculated at least one or more of the indicating members A function of calculating the two-dimensional position coordinates of the pointing member inserted in the coordinate input / detection region based on the emission angle of the light blocked by the light projecting means; When two or more two-dimensional position coordinates are calculated, a function for converting the direction and length of the change between the two-dimensional position coordinates, which are sequentially calculated at a predetermined time interval, into a vector coordinate, A function of extracting the two-dimensional position coordinates actually indicated by the pointing member from the plurality of calculated two-dimensional position coordinates based on the direction and length of change between the two-dimensional position coordinates. Let it run.
[0060]
Therefore, when a part of the light projected to the coordinate input / detection area is blocked by the insertion of at least one indicating member, at least one indicating member that blocks the light that is the peak point of the light intensity distribution. The image forming position on each light receiving element and the image forming size on each light receiving element of at least one indicating member that blocks light are detected. Further, the distance from the predetermined position on each light receiving element to the peak point is detected, and the light projecting means blocked by the indicating member based on the distance from the predetermined position on the light receiving element to the peak point is detected. An emission angle of light is calculated, and two-dimensional position coordinates of at least one indicating member inserted into the coordinate input / detection area are calculated based on the emission angle in each of the light projecting units. Further, when a plurality of two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of change between the converted two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0061]
  Claim8The storage medium according to the invention includes a light source that emits light, a pair of light projecting units that project the light onto a two-dimensional coordinate input / detection region, and light projected by these light projecting units. When a pointing member having a retroreflecting member that reflects the light in the same direction as the incident direction is inserted into the coordinate input / detection area, the one-to-one light receiving the light reflected by the retroreflecting member is received. Used in a coordinate input / detection device comprising a pair of light receiving elements and a light intensity distribution detecting means for detecting a light intensity distribution of the light received by these light receiving elements, and based on the detected light intensity distribution A storage medium storing a computer-readable program for causing a computer to detect the two-dimensional position coordinates of the pointing member inserted into a coordinate input / detection area, the program being stored in the pointing member When at least one or more peak members of the light intensity distribution detected by the light intensity distribution detecting means are inserted into the coordinate input / detection area, at least one of the indicating members that block the light. A function for detecting the imaging position on each light receiving element, a function for detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one detected peak point, and the light receiving A function for calculating an emission angle of each light projecting means of the light blocked by at least one of the indicating members based on the distance from a predetermined position on the element to the peak point, and at least one calculated The two-dimensional position coordinates of the pointing member inserted into the coordinate input / detection area based on the emission angle of the light blocked by the pointing member in each light projecting means A function for calculating, a function for converting the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals into a vector coordinate when a plurality of the two-dimensional position coordinates are calculated, and a vector coordinate A function of extracting the two-dimensional position coordinates actually indicated by the pointing member from the plurality of calculated two-dimensional position coordinates based on the changed direction and length between the two-dimensional position coordinates. Are executed by the computer.
[0062]
Therefore, when a part of the light projected on the coordinate input / detection area is reflected by the insertion of at least one indicating member, at least one indicating member that reflects the light that is the peak point of the light intensity distribution. The image forming position on each light receiving element and the image forming size on each light receiving element of at least one indicating member reflecting the light are detected. Further, the distance from the predetermined position on each light receiving element to the peak point is detected, and the light projecting means reflected on the indication member based on the distance from the predetermined position on the light receiving element to the peak point is detected. An emission angle of light is calculated, and two-dimensional position coordinates of at least one indicating member inserted into the coordinate input / detection area are calculated based on the emission angle in each of the light projecting units. Further, when a plurality of two-dimensional position coordinates are calculated, the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of change between the converted two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0063]
DETAILED DESCRIPTION OF THE INVENTION
A first embodiment of the present invention will be described with reference to FIGS. Here, FIG. 1 is an external perspective view schematically showing the electronic blackboard system 1. As shown in FIG. 1, an electronic blackboard system 1 includes an electronic blackboard portion 4 including a plasma display panel (PDP) 2 and a coordinate input / detection device 3 that are display devices, an apparatus storage portion 9, It is mainly composed. A computer 5 such as a personal computer that is a control device, a scanner 6 for reading an image of an original, a printer 7 that outputs image data to a recording paper, and a video player 8 (both of which are shown in FIG. 2) are provided in the device storage unit 9. It is stored. As the PDP 2, a large screen type such as 40 inches or 50 inches that can be used as an electronic blackboard is used. The coordinate input / detection device 3 has a coordinate input / detection area 3a which is a coordinate input / detection surface formed by a light flux film projected in a fan shape, as will be described in detail later. A light receiving element 39 (FIG. 5) such as a CCD (Charge Coupled Device) is formed by inserting dedicated instruction members A and B (see FIG. 6) into the detection area 3a to block the light flux in the coordinate input / detection area 3a. An optical coordinate input / detection device that detects the indicated position based on the light receiving position in (refer to FIG. 1) and enables input of characters or the like is applied.
[0064]
The PDP 2 and the coordinate input / detection device 3 are integrated so that the coordinate input / detection device 3 is positioned on the display surface 2a side of the PDP 2, and the coordinate input / detection device 3 of the coordinate input / detection device 3 is located on the display surface 2a of the PDP 2. The electronic blackboard portion 4 is formed so that the regions 3a substantially coincide with each other. In this way, the electronic blackboard unit 4 accommodates the PDP 2 and the coordinate input / detection device 3, and constitutes the display surface (display surface 2a of the PDP 2) and the writing surface (coordinate input / detection region 3a) of the electronic blackboard system 1. ing.
[0065]
Further, although not shown in the figure, the PDP 2 is provided with a video input terminal and a speaker to connect various information devices such as a video player 8, a laser disc player, a DVD player, a video camera, and an AV device. However, the PDP 2 can be used as a large screen monitor. The PDP 2 is also provided with adjusting means (not shown) for adjusting the display position, width, height, distortion, etc. of the PDP 2.
[0066]
Next, the electrical connection of each part built in the electronic blackboard system 1 will be described with reference to FIG. As shown in FIG. 2, in the electronic blackboard system 1, a PDP 2, a scanner 6, a printer 7, and a video player 8 are connected to a computer 5, and the entire system is controlled by the computer 5. The computer 5 is connected to a controller 10 provided in the coordinate input / detection device 3 that performs calculation of position coordinates in the coordinate input / detection area 3a designated by the designation members A and B. A coordinate input / detection device 3 is also connected to the computer 5 via 10. Further, the electronic blackboard system 1 can be connected to the network 11 via the computer 5, and data created by another computer connected on the network 11 is displayed on the PDP 2 or data created by the electronic blackboard system 1. Can be transferred to other computers.
[0067]
Next, the computer 5 will be described. Here, FIG. 3 is a block diagram showing an electrical connection of each part built in the computer 5. As shown in FIG. 3, the computer 5 includes a CPU 12 (Central Processing Unit) that controls the entire system, a ROM (Read Only Memory) 13 that stores a startup program and the like, and a RAM (Random) that is used as a work area of the CPU 12. Access Memory) 14, a keyboard 15 for inputting characters, numerical values, various instructions, a mouse 16 for moving a cursor, selecting a range, and the like, a hard disk 17, and a PDP 2 connected to the PDP 2. A graphics board 18 for controlling the display of images on the network, a network card (or a modem) 19 for connection to the network 11, an interface for connecting the controller 10, the scanner 6, the printer 7, etc. I / F) 20 and a bus 21 for connecting the above-described units.
[0068]
The hard disk 17 includes an operating system (OS) 22, a device driver 23 for operating the coordinate input / detection device 3 on the computer 5 via the controller 10, drawing software, word processor software, spreadsheet software, Various application programs 24 such as presentation software are stored.
[0069]
The computer 5 also has a storage medium 26 that stores various program codes (control programs) such as the OS 22, device driver 23, and various application programs 24, that is, a floppy disk, a hard disk, and an optical disk (CD-ROM, CD-R). , CD-R / W, DVD-ROM, DVD-RAM, etc.), magneto-optical disk (MO), floppy disk drive device that is a device for reading program codes stored in a memory card, CD-ROM drive device, A program reading device 25 such as an MO drive device is mounted.
[0070]
The various application programs 24 are executed by the CPU 12 under the control of the OS 22 that is activated when the computer 5 is powered on. For example, when the drawing software is activated by a predetermined operation of the keyboard 15 or the mouse 16, a predetermined image based on the drawing software is displayed on the PDP 2 via the graphics board 18. The device driver 23 is also activated together with the OS 22 so that data can be input from the coordinate input / detection device 3 via the controller 10. When the user inserts the pointing members A and B into the coordinate input / detection area 3a of the coordinate input / detection device 3 and draws characters or figures with the drawing software activated, the coordinate information is indicated by the pointing members A and B. The image data based on the description of B is input to the computer 5 and displayed, for example, as an overwrite image on the image on the screen displayed on the PDP 2. More specifically, the CPU 12 of the computer 5 generates drawing information for drawing lines and characters based on the input image data, and the graphics board 18 in accordance with the position coordinates based on the input coordinate information. Are written in a video memory (not shown). After that, the graphics board 18 transmits the drawing information written in the video memory to the PDP 2 as an image signal, so that the same character as the character written by the user is displayed on the PDP 2. That is, since the computer 5 recognizes the coordinate input / detection device 3 as a pointing device such as the mouse 16, the computer 5 performs the same processing as when writing characters using the mouse 16 on the drawing software. It will be.
[0071]
Next, the coordinate input / detection device 3 will be described in detail. Here, FIG. 4 is an explanatory diagram schematically showing the configuration of the coordinate input / detection device 3. As shown in FIG. 4, the coordinate input / detection device 3 includes a horizontally-long rectangular coordinate input / detection region 3a having a size corresponding to the size of the display surface 2a of the PDP 2. The coordinate input / detection area 3a is an area that enables input of characters, figures, and the like by handwriting. Near the corners located at both lower ends of the coordinate input / detection area 3a, the optical units 27 (left optical unit 27L, right optical unit 27R) for emitting and receiving light beams are attached at an attachment angle β (FIG. 12). These optical units 27 form a plane or a substantially plane, for example L1, L2, LThree, ..., Ln(R1, R2, RThree, ..., RnA fan-shaped light flux film composed of a bundle of light beams (probe light) is projected in parallel along the surface of the display surface 2a of the PDP 2 so as to reach the entire coordinate input / detection region 3a.
[0072]
In addition, a retroreflecting member 28 is provided in a peripheral portion of the coordinate input / detection device 3 excluding the lower portion of the coordinate input / detection region 3a. The retroreflective member 28 is formed by arranging a large number of conical corner cubes, for example, and has a characteristic of reflecting incident light toward a predetermined position regardless of the incident angle. For example, the probe light L projected from the left optical unit 27LThreeAre reflected by the retroreflective member 28 and follow the same optical path again.Three'Is received by the left optical unit 27L. That is, the coordinate input / detection region 3 a is also formed by the retroreflective member 28.
[0073]
Next, the optical unit 27 will be described. Here, FIG. 5 is a block diagram schematically showing the structure of the optical unit 27. Note that FIG. 5 mainly shows the xz direction, but with respect to the portion indicated by the two-dot chain line, the same components are viewed from another direction (the xy direction or the yz direction). .
[0074]
As shown in FIG. 5, the optical unit 27 includes a light projecting unit 29 and a light receiving unit 30. The light projecting means 29 includes a light source 31 such as an LD (Laser Diode: semiconductor laser) and a pinpoint LED (Light Emitting Diode) capable of narrowing the spot to some extent. The light emitted from the light source 31 perpendicularly to the display surface 2a of the PDP 2 is collimated in the x direction by a cylindrical lens 32 that can change only the magnification in one direction. The light collimated in the x direction by the cylindrical lens 32 is condensed in the y direction by the two cylindrical lenses 33 and 34 having a curvature distribution orthogonal to that of the cylindrical lens 32. That is, an area where light from the light source 31 is linearly formed is formed behind the cylindrical lens 34 by the action of these cylindrical lens groups (cylindrical lenses 32, 33, 34). Here, a slit plate 35 having slits narrow in the y direction and elongated in the x direction is disposed. Therefore, the light passing through the cylindrical lens group (cylindrical lenses 32, 33, 34) forms a linear secondary light source 36 at the slit position of the slit plate 35. The light emitted from the secondary light source 36 is folded back by the half mirror 37, and does not spread in the vertical direction of the display surface 2a of the PDP 2, but is parallel light along the surface of the display surface 2a. It becomes a fan-shaped light flux film centered on the secondary light source 36 and travels through the coordinate input / detection region 3a. In other words, the fan-shaped light forms the coordinate input / detection area 3a. A condensing optical system is formed by these cylindrical lens groups (cylindrical lenses 32, 33, and 34) and the slit plate 35.
[0075]
As described above, the luminous flux film that has formed a fan shape and traveled through the coordinate input / detection region 3a is recursively reflected by the retroreflecting member 28, and then returns to the half mirror 37 along the same optical path. Therefore, the light flux film recursively reflected by the retroreflective member 28 also forms the coordinate input / detection region 3a.
[0076]
The retroreflected light reflected by the retroreflective member 28 and returned to the half mirror 37 passes through the half mirror 37 and enters the light receiving means 30. The retroreflected light incident on the light receiving means 30 is linearized through a cylindrical lens 38 that is a condenser lens, and then provided at a distance f (f is the focal length of the cylindrical lens 38) from the cylindrical lens 38. The received CCD (Charge Coupled Device) 39 receives light at different positions for each probe light. The CCD (light receiving element) 39 of the present embodiment is a one-dimensional CCD, and the number of pixels is 2,048 pixels.
[0077]
Specifically, retroreflected light reflected by the retroreflective member 28 does not receive the action of the cylindrical lens 38 in the z-axis direction, and reaches a CCD (light receiving element) 39 while being collimated. Further, the retroreflected light propagates so as to be condensed at the center of the cylindrical lens 38 in the direction parallel to the display surface 2a of the PDP 2, and as a result, is installed on the focal plane of the cylindrical lens 38 due to the action of the cylindrical lens 38. An image is formed on a CCD (light receiving element) 39. Thereby, a light intensity distribution is formed on the CCD (light receiving element) 39 according to the presence or absence of retroreflected light. That is, when the retroreflected light is blocked by the indicator members A and B, a point (peak point described later) having a low light intensity is generated at a position corresponding to the blocked retroreflected light on the CCD (light receiving element) 39. Become. The CCD (light receiving element) 39 that has received the retroreflected light generates an electrical signal based on the light intensity distribution of the retroreflected light (probe light) and outputs it to the controller 10 described above. As shown in FIG. 5, the secondary light source 36 and the cylindrical lens 38 are both disposed at a distance d with respect to the half mirror 37 and have a conjugate positional relationship.
[0078]
Next, the instruction members A and B will be described. 6A is a perspective view showing the pointing member A, and FIG. 6B is a perspective view showing the pointing member B. As shown in FIG. 6A, the pointing member A is a spherical pointing portion A for pointing to one point in the coordinate input / detection area 3a of the coordinate input / detection device 3.1And a generally cylindrical gripping part A for the user to grip2It consists of and. In addition, the indication part A of the indication member A1Is formed in a spherical shape having a size through which the light flux film forming the coordinate input / detection region 3a passes. In this way, the indication portion A of the indication member A1Is formed in a spherical shape, and the central portion thereof is formed to have a size through which the light flux film forming the coordinate input / detection region 3a passes, so that the angle of the pointing member A inserted into the coordinate input / detection region 3a is set. Regardless, the indication part A of the indication member A1Diameter size DACan be made a certain size.
[0079]
On the other hand, as shown in FIG. 6B, the pointing member B is a spherical pointing portion B for pointing to one point in the coordinate input / detection area 3a of the coordinate input / detection device 3.1And a generally cylindrical gripping part B for the user to grip2And spherical height adjustment part BThreeIt consists of and. In addition, the indication part A of the indication member A1The actual size D of the diameterAAnd an indicator B of the indicator member B1The actual size D of the diameterBThe relationship with
DA> DB
It is said that. In addition, the indicating portion B of the indicating member B1The center of the height adjustment part BThreeThus, the light flux film that forms the coordinate input / detection region 3a passes through. In this way, the indicating portion B of the indicating member B1Is formed into a spherical shape, and the center portion thereof is set to a position through which the light flux film forming the coordinate input / detection region 3a passes, regardless of the angle of the pointing member B inserted into the coordinate input / detection region 3a. In addition, the indicating portion B of the indicating member B1Diameter DBCan be made a certain size. Further, by using the dedicated indicating members A and B as described above, it is possible to improve the calculation accuracy of the two-dimensional position coordinates of the indicating members A and B inserted into the coordinate input / detection region 3a.
[0080]
Here, in FIG. 7, an electric signal based on the light intensity distribution of the retroreflected light is input from the light receiving element 39, and the process of specifying the coordinates of the position where the light traveling through the coordinate input / detection region 3a is blocked is executed. 2 is a block configuration diagram of a controller 10. FIG. The controller 10 controls light emission of the light source (LD) 31 of the optical unit 27 (left optical unit 27L, right optical unit 27R) and CCD (light receiving element) of the optical unit 27 (left optical unit 27L, right optical unit 27R). The output from 39 is calculated. As shown in FIG. 7, the controller 10 is provided with a CPU 40 for centrally controlling each part. In the CPU 40, a ROM 41 for storing programs and data and various data are stored in a rewritable work area. A RAM 42 functioning as an interface, an interface 43 for connecting to the computer 5, an A / D (Analog / Digital) converter 44, and an LD driver 45 are bus-connected. The CPU 40 is connected to a hard disk 46 for storing various program codes (control programs) and an EEPROM (Electrically Erasable Programmable Read Only Memory) 47 which is a nonvolatile memory. Here, the CPU 40, the ROM 41, and the RAM 42 constitute a microcomputer as a computer. In such a microcomputer, a storage medium 49 storing various program codes (control programs), that is, a floppy disk, a hard disk, an optical disk (CD-ROM, CD-R, CD-R / W, DVD-ROM, Connected to a program reading device 48 such as a floppy disk drive device, a CD-ROM drive device, or an MO drive device, which is a device for reading a program code stored in a DVD-RAM, a magneto-optical disk (MO), a memory card, etc. Has been.
[0081]
As a circuit for calculating the output from the CCD (light receiving element) 39, an analog processing circuit 51 is connected to the output terminal of the CCD (light receiving element) 39 as shown in the figure. The reflected light incident on the CCD (light receiving element) 39 is converted into analog image data having a voltage value corresponding to the intensity of light in the CCD (light receiving element) 39, and is output as an analog signal. The analog signal is processed by the analog processing circuit 51, converted to a digital signal by an A / D (Analog / Digital) converter 44, and passed to the CPU 40. Here, light intensity distribution detection means is realized. Note that such light intensity distribution detection means is executed in time series at a predetermined time interval associated with the sampling signal. Thereafter, the CPU 40 calculates the two-dimensional position coordinates of the pointing members A and B.
[0082]
Various program codes (control program) stored in the hard disk 46 or various program codes (control program) stored in the storage medium 49 are written in the RAM 42 in response to the power supply to the controller 10 and various programs are stored. The code (control program) will be executed.
[0083]
Next, functions executed by the CPU 40 based on the control program will be described. Here, the coordinate detection process for realizing the coordinate detection means, which is a characteristic function of the coordinate input / detection device 3 of the present embodiment, will be specifically described below with reference to FIGS.
[0084]
8 is a flowchart schematically showing the flow of the coordinate detection process, and FIG. 9 is a front view showing an example in which one point in the coordinate input / detection area 3a of the coordinate input / detection device 3 is indicated by the pointing member A. is there. As shown in FIG. 9, for example, L irradiated from the left optical unit 27L.1, L2, LThree, ..., LnThe n-th probe light L among the fan-shaped lights composed of such probe lightsnIs blocked by the indicator member A, the probe light LnDoes not reach the retroreflective member 28.
[0085]
At this time, the light intensity distribution on the CCD (light receiving element) 39 is considered. Here, FIG. 10 is an explanatory view schematically showing the detection operation of the CCD (light receiving element) 39. If the pointing member A is not inserted into the coordinate input / detection area 3a, the light intensity distribution on the CCD (light receiving element) 39 is substantially constant. However, as shown in FIG. The probe light L is inserted into the region 3a.nIs blocked by the indicator member A, the probe light LnIs not received by the CCD (light receiving element) 39 of the optical unit 27, the probe light LnThe predetermined position X on the CCD (light receiving element) 39 of the optical unit 27 corresponding tonBecomes a low light intensity region (dark spot). Position X which is a low light intensity region (dark spot)nAppears as a peak point in the light intensity waveform output from the CCD (light receiving element) 39, the CPU 40 recognizes the appearance of such a peak point in the light intensity waveform by a change in voltage, The position X of the dark spot that is the peak point of this light intensity waveformnIs detected (Y in step S1 shown in FIG. 8). Here, the function of the peak point detecting means is executed.
[0086]
Also, the dark spot position X that is the peak point of the light intensity waveformnIs detected, the dark spot position XnThe distance a from the center pixel of the CCD (light receiving element) 39 is detected based on, for example, the pixel number of the CCD (light receiving element) 39 (for example, the pixel number m in FIG. 10). Here, the function of the peak distance detecting means is executed as the processing of step S2 shown in FIG.
[0087]
Position X, which is a low light intensity area (dark spot)n(X on the CCD (light receiving element) 39 of the left optical unit 27L)nL, X on the right side optical unit 27R CCD (light receiving element) 39nR) is the intercepted probe light exit / incident angle θ.nAnd XnBy detectingnCan know. That is, the dark spot position XnAnd the distance from the center pixel of the CCD (light receiving element) 39 to a is θnIs a (Xn) As a function
θn= Tan-1(a / f) ……………………………… (1)
It can be expressed as. Here, f is the focal length of the cylindrical lens 38. Here, θ in the left optical unit 27LnΘnL, a to XnReplace with L.
[0088]
Further, in FIG. 9, the angle θL formed by the pointing member A and the left optical unit 27L is expressed by (1) by the conversion coefficient g of the geometric relative positional relationship between the left optical unit 27L and the coordinate input / detection region 3a. X calculated by formulanAs a function of L,
θL = g (θnL) ……………………………… (2)
Where θnL = tan-1(XnL / f)
It can be expressed as.
[0089]
Similarly, for the right optical unit 27R, the symbol L in the above equations (1) and (2) is replaced with the symbol R, and the geometric relative positional relationship between the right optical unit 27R and the coordinate input / detection region 3a. By the conversion coefficient h of
θR = h (θnR) ……………………………… (3)
Where θnR = tan-1(XnR / f)
It can be expressed as. Here, the function of the angle calculating means for calculating the emission angle in each light projecting means is executed as the processing of step S3 shown in FIG.
[0090]
Here, if the mounting interval between the left optical unit 27L and the right optical unit 27R is w shown in FIG. 9, the two-dimensional position coordinates (x, y) of the point indicated by the indicating member A in the coordinate input / detection region 3a. Is based on the principle of triangulation
x = w · tanθR / (tanθL + tanθR) (4)
y = w · tanθL · tanθR / (tanθL + tanθR) (5)
Can be calculated as As described above, the function of the position coordinate calculation means is executed as the process of step S4 shown in FIG.
[0091]
These equations (1), (2), (3), (4), and (5) are stored in advance in the hard disk 46 and the storage medium 49 as a part of the control program, and (1), (2), (3), and (4). According to the equation (5), the position coordinates (x, y) of the indicating member A is XnL, XnCalculated as a function of R. That is, the position coordinates of the pointing member A are detected by detecting the position of the dark spot on the CCD (light receiving element) 39 of the left optical unit 27L and the position of the dark spot on the CCD (light receiving element) 39 of the right optical unit 27R. (X, y) is calculated.
[0092]
By the way, in the present embodiment, as described above, the two pointing members A and B having different diameters of the pointing portion are used, so that the pointing members A and B are coordinate input / detection of the coordinate input / detection device 3. There is a case where it is inserted into the region 3a at the same time. However, when the pointing members A and B are simultaneously inserted into the coordinate input / detection area 3a in this way, as shown in FIG. 11, the position coordinates of the actual blocking points A and B by the pointing members A and B are shown. In addition, the position coordinates of points A ′ and B ′ that do not actually exist are also detected. This is because the indicator members A and B are simultaneously inserted into the coordinate input / detection area 3a, so that the two light intensities on the CCD (light receiving element) 39 of the optical unit 27 (left optical unit 27L, right optical unit 27R). This is because weak areas (dark spots) are generated. That is, the position coordinates are X as described above.nL, XnSince it is calculated as a function of R, when two indicating members A and B are simultaneously inserted into the coordinate input / detection region 3a, an angle θR formed by the indicating member A and the right optical unit 27R.1Angle θR between the indicator member B and the right optical unit 27R2And the angle θL formed between the indicating member A and the left optical unit 27L.1Angle θL between the indicator member B and the left optical unit 27L2And a total of four position coordinates are calculated.
[0093]
Note that the number of position coordinates calculated is determined by the number “N” of pointing members,2That is, as described above, when the number of indicating members is “1”, only one position coordinate is calculated, but when the number of indicating members is “2”, Four position coordinates are calculated. When the number of pointing members is “3”, nine position coordinates are calculated.
[0094]
Therefore, in the present embodiment, when a plurality of position coordinates are calculated (Y in step S5 shown in FIG. 8), the actual cutoff points by the pointing members A and B from the plurality of position coordinates. A coordinate extraction process (steps S6 to S8 shown in FIG. 8) for extracting the position coordinates of A and B is executed as a part of the coordinate detection process. As the coordinate extraction process, first, the indication part A of the indication members A and B is used.1, B1The measurement process of the size D of the diameter (step S6 shown in FIG. 8) is executed. This size measurement process is executed for each calculated position coordinate. Below, the size measurement process by CPU40 is demonstrated. Here, FIG. 12 is an explanatory view partially showing an example in which one point in the coordinate input / detection area 3a is indicated by the pointing member A, and FIG. 13 shows an example of a waveform of light intensity output from a CCD (light receiving element) 39. It is a graph which shows. As shown in FIGS. 12 and 13, the dark spot position XnTo the center pixel of the CCD (light receiving element) 39 (the distance from the center of the CCD (light receiving element) 39 to its peak point) a based on the pixel number of the CCD (light receiving element) 39 and the threshold The indicator A of the indicator member A received by the CCD (light receiving element) 39 according to the level1The image forming size (image forming size of the indicating member A on the CCD (light receiving element) 39) b is also detected. Here, the function of the imaging size detection means is executed.
[0095]
And the dark spot position XnThe distance a from L to the center pixel of the CCD (light receiving element) 39 is a perpendicular line from the center of the CCD (light receiving element) 39, the center of the indicating member A, and the dark spot position X.nDepends on the angle α formed by the line connecting L and this angle α
α = tan-1(A / f) ……………… (6)
Is calculated as Here, f is the focal length of the cylindrical lens 38.
[0096]
The distance L from the center of the pointing member A to the cylindrical lens 38 can be obtained from the calculated position coordinates, and the image magnification of the subject image of the pointing member A received by the CCD (light receiving element) 39 is the cylindrical lens. Depends on the distance L from 38 to the center of the indicating member A,
L: l = D: b (l: dark spot position X from the cylindrical lens 38)nDistance to L)
Is established, the indication part A of the indication member A1The diameter size D of
D = (b / l) · L
= (B / (a / sinα) · L
= (B / (a / sin (tan-1(A / f))) ・ L ......... (7)
Is calculated as As described above, the function of the size calculating means is executed as the process of step S6 shown in FIG.
[0097]
That is, the indication part A of such an indication member A1The measurement of the size D of the diameter is performed by measuring the imaging size b on one CCD (light receiving element) 39, two position coordinates (for example, the actual position coordinates of the cutoff point A as shown in FIG. And the two distances L calculated based on the position coordinates of the point A ′ not to be performed. In addition, the same processing is performed by the instruction section B of the instruction member B.1The measurement of the size D of the diameter is also performed.
[0098]
In the above description, the processing based on the imaging size b on the CCD (light receiving element) 39 in the left optical unit 27L has been described. Needless to say, the same applies to the right optical unit 27R. Thus, the size measurement process ends.
[0099]
Various numerical values detected, calculated, and measured in this manner are stored and held in the RAM 42. Here, FIG. 14 is an explanatory diagram showing the numerical value storage table T of the RAM 42. As shown in FIG. 14, the numerical value storage table T includes an angle θR formed between each of the indicating members A and B and the right optical unit 27R.1, ΘR2And an angle θL formed between each of the indicating members A and B and the left optical unit 27L.1, ΘL2For each combination, the four position coordinates calculated according to the combination of the angle θR and the angle θL are stored and held. In the numerical value storage table T, the imaging size b (bR on the CCD (light receiving element) 39 that is uniquely determined by the angle θR and the angle θL.1, BR2, BL1, BL2) Is stored and held for each combination of the angle θR and the angle θL. Furthermore, since the distance L from the center of the pointing member to the cylindrical lens can be obtained from the calculated position coordinates in the numerical value storage table T as described above, it is calculated in the right optical unit 27R and the left optical unit 27L. The size D (D of the diameter of the indicating part of the indicating memberA, DB, DC, DD, DE, DF) Is stored and held for every four position coordinates.
[0100]
Subsequently, the CPU 40 executes a size comparison process (step S7 shown in FIG. 8) which is a part of the coordinate extraction process. This size comparison process compares the diameter size D stored and held separately in the right optical unit 27R and the left optical unit 27L for each of four position coordinates in the numerical value storage table T. As a comparison method, for example, a ratio between the diameter size D calculated by the right optical unit 27R and the diameter size D calculated by the left optical unit 27L is calculated.
[0101]
After that, two position coordinates whose ratio calculated by the size comparison process is close to “1” are extracted as the position coordinates of the actual blocking points A and B by the pointing members A and B (in step S8 shown in FIG. 8). Extraction process shown). Note that the number of position coordinates extracted in the extraction process is the number of indicating members “N”. Therefore, as shown in FIG. 14, the diameter size D calculated by the right optical unit 27R is equal to the diameter size D calculated by the left optical unit 27L (x1, Y1) And (xFour, YFour) Is extracted as the position coordinates of the cutoff points A and B. Note that whether or not the two extracted position coordinates are based on the pointing member A or the pointing member B is determined by the pointing portion A of the pointing member A.1The actual size D of the diameterAAnd an indicator B of the indicator member B1The actual size D of the diameterBThe relationship with
DA> DB
Therefore, it can be distinguished by the size of the calculated diameter size D. Therefore, the position coordinate of the blocking point A by the pointing member A is (x1, Y1) And the position coordinate of the blocking point A by the pointing member A is (xFour, YFour). The function of the position coordinate extracting means is executed by the above steps S7 and S8.
[0102]
The CPU 40 transfers the position coordinates designated by the pointing members A and B calculated as described above to the computer 5 via the interface 43, and displays the indication positions by the pointing members A and B and the commands corresponding to the designated positions. It will be used for processing such as input. Thus, the process of step S9 shown in FIG. 8 is executed. That is, when the user inserts the pointing members A and B into the coordinate input / detection area 3a of the coordinate input / detection device 3 and draws a character or a figure with the drawing software activated, the respective position coordinates are indicated by the pointing member A. , B is input to the computer 5 as image data based on the description of B, and displayed as an overwritten image superimposed on an image on the screen displayed on the PDP 2, for example.
[0103]
Here, when a part of the light forming the coordinate input / detection area 3a is blocked by the insertion of the pointing members A and B, the optical units of the pointing members A and B that block the light that is the peak point of the light intensity distribution. 27 (left optical unit 27L, right optical unit 27R) on each CCD (light receiving element) 39 and the optical units 27 (left optical unit 27L, right optical unit 27R) of the indicator members A and B that block light. ) And the imaging size b on each CCD (light receiving element) 39 is detected. A distance a from the center on each CCD (light receiving element) 39 to the peak point is detected, and the indication members A and B are based on the distance a from the center on the CCD (light receiving element) 39 to the peak point. The light emitting angles θL and θR of the light projecting means 29 blocked by the light are calculated, and the pointing member A inserted into the coordinate input / detection area 3a based on the light emitting angles θL and θR of the light projecting means 29 is calculated. , B are calculated. Further, based on the distance a from the center on the CCD (light receiving element) 39 to the peak point, the imaging size b, and the distance L to the pointing member calculated from the calculated two-dimensional position coordinates, After calculating the diameter size D of the portion that blocks the light of the indicating members A and B in each two-dimensional position coordinate, the diameter size D of the portion of each CCD (light receiving element) 39 that blocks the light of the indicating members A and B is calculated. Are approximately extracted as the two-dimensional position coordinates actually indicated by the pointing members A and B. As a result, when two instruction members A and B are instructed at the same time, position coordinates are detected by the number of squares of these instruction members A and B (four in this case). The members A and B have a diameter size D in the coordinate input / detection area 3a.A, DBAre different from each other, the diameter size D of the portion where the light of the indication members A and B is blocked at each position coordinate is calculated, and the diameter of the portion of each CCD (light receiving element) 39 where the light of the indication members A and B is blocked. By eliminating the position coordinates whose sizes D do not substantially coincide with each other as a result of erroneous recognition, it is possible to detect the position coordinates when a plurality of locations are simultaneously designated at a low cost.
[0104]
In the present embodiment, the coordinate input / detection device 3 is provided in a plasma display panel (PDP) 2 that is a display device, but the present invention is not limited to this, and a CRT (Cathode Ray Tube), An LCD (Liquid Crystal Display), a front projection projector, a rear projection projector, or the like may be applied as the display device. Further, the display device is not limited to these, and although not particularly illustrated, a blackboard or whiteboard that functions as a writing board may be provided.
[0105]
A second embodiment of the present invention will be described with reference to FIGS. The same parts as those described in the first embodiment of the present invention are denoted by the same reference numerals, and description thereof is also omitted. This embodiment is a modification of the method of the coordinate input / detection device. Specifically, the coordinate input / detection device 3 used in the first embodiment of the present invention is a light shielding type, but the coordinate input / detection device 50 of the present embodiment is a light reflection type. Is.
[0106]
Here, FIG. 15 is an indication member used for the coordinate input / detection device 50, wherein (a) is a perspective view showing the indication member A, and (b) is a perspective view showing the indication member B. FIG. 16 is a front view showing an example in which one point in the coordinate input / detection area 50a of the coordinate input / detection device 50 is indicated by the pointing member A, and FIG. 17 is an explanatory view showing a part thereof enlarged. As shown in FIG. 16, the spherical pointing portion A of the pointing members A and B used to point to one point in the coordinate input / detection area 50a of the coordinate input / detection device 50.1, B1Are respectively provided with retroreflective members 52. The retroreflective member 52 is formed by arranging a large number of conical corner cubes, for example, and has a characteristic of reflecting incident light toward a predetermined position regardless of the incident angle. For example, the probe light L projected from the left optical unit 27Ln16, the retroreflected light L reflected by the retroreflective member 52 and follows the same optical path again, as shown in FIG.nThe light is received by the optical unit 27 as'. Therefore, as shown in FIG. 16, in the coordinate input / detection device 50 of the present embodiment, the coordinate input / detection region 3a is the same as the coordinate input / detection device 3 used in the first embodiment of the present invention. It is not necessary to provide the retroreflective member 28 in the peripheral part except for the lower part of the member.
[0107]
As shown in FIG. 17, the indicating unit A including the retroreflecting member 52 of the indicating member A is used.1Is inserted into an appropriate position (x, y) of the coordinate input / detection area 50a of the coordinate input / detection device 50, and the probe light L in the fan-shaped light flux film projected from the optical unit 27, for example.nIs the indicating part A of the indicating member A1Is reflected by the retroreflected light Ln′ Is received by a CCD (light receiving element) 39 of the optical unit 27. In this way, the CCD (light receiving element) 39 makes the retroreflected light LnWhen ′ is received, as shown in FIG.nA predetermined position X on the CCD (light receiving element) 39 of the optical unit 27 corresponding to 'nL is a region having a high light intensity (bright point). More specifically, the probe light L in the light flux filmnIs reflected by the indicating member A, a peak point appears in the waveform of the light intensity output from the CCD (light receiving element) 39 as shown in FIG.
[0108]
Therefore, even when such a light reflection type coordinate input / detection device 50 is applied to the electronic blackboard system 1, the same effect as that obtained when the light shielding type coordinate input / detection device 3 is used is obtained. be able to.
[0109]
A third embodiment of the present invention will be described with reference to FIG. In addition, the same code | symbol is used about the same part as the part demonstrated in 1st embodiment of this invention, or 2nd embodiment of this invention, and description is also abbreviate | omitted. This embodiment is a modification of the optical unit. Specifically, in the optical unit 27 used in the first embodiment of the present invention or the second embodiment of the present invention, the fan-shaped luminous flux film is projected to form the coordinate input / detection area. The optical unit 60 of the present embodiment has a rotational scanning system such as a polygon mirror, and the coordinate input / detection area is defined by projecting a light beam emitted from the light source radially by the rotational scanning system. To form.
[0110]
Here, FIG. 19 is a plan view schematically showing the optical unit 60. As shown in FIG. 19, the optical unit 60 includes a driving circuit (not shown) and a laser diode (LD) 61, a half mirror 62, a polygon mirror 63, and a light source that emits laser light. A light projecting means 60 a composed of an optical lens 64 and a light receiving element 65 are provided. The light receiving element 65 is composed of a CCD (Charge Coupled Device) provided at a distance f from the condenser lens 64 (f is the focal length of the condenser lens 64). In such an optical unit 60, the laser light emitted from the LD 61 is transmitted through the half mirror 62, and then sequentially reflected radially by the polygon mirror 63 that is rotationally driven by a motor (not shown). Therefore, the optical unit 60 repeatedly projects the beam light radially. That is, the coordinate input / detection region 66 is formed by the beam light projected radially from the two optical units 60.
[0111]
Therefore, even when such an optical unit 60 is applied to the coordinate input / detection devices 3 and 50 in place of the optical unit 27 (the left optical unit 27L and the right optical unit 27R), A peak point appears in the waveform of the light intensity output from the CCD (light receiving element) 65 by reflection. Therefore, since it is known in the art, a detailed description will be omitted, but the pulse of the pulse motor that rotates the polygon mirror 63 based on the peak point of the light intensity waveform output from the CCD (light receiving element) 65. The output angle of the light shielded or reflected by the indicating member according to the detected number of pulses is determined for each optical unit 60, and the indicating member is inserted by a triangulation method based on the output angle. The coordinate position can be detected. Thereby, even when such an optical unit 60 is applied to the coordinate input / detection devices 3 and 50, the same effect as that obtained when the optical unit 27 described above is used can be obtained.
[0112]
Next, a fourth embodiment of the present invention will be described with reference to FIGS. In addition, the same code | symbol is used about the same part as the part demonstrated in 1st embodiment or 2nd embodiment of this invention, and description is also abbreviate | omitted.
[0113]
The present embodiment is used for two indicating members having different diameters of the indicating section used in the coordinate input / detection device 3 of the first embodiment and the coordinate input / detection device 50 of the second embodiment. The coordinate detection that realizes the coordinate detection means that is a function executed by the CPU 40 based on the control program while eliminating the need for two indicating members having different diameters of the indicating portions each provided with the retroreflective member 52 The method of the coordinate extraction process which extracts the position coordinate of the actual interruption | blocking point / reflection point by a pointing member from the several position coordinate in a process differs. Schematically, the coordinate extraction process according to the present embodiment uses a vector coordinate value having both direction information and length information of the designated coordinate in determining whether or not an actual interception point / reflection point. It is what you do. The following description is based on the configuration of the coordinate input / detection device 3.
[0114]
Here, FIG. 20 is a flowchart schematically showing the flow of coordinate detection processing of the present embodiment, and FIG. 21 is an explanatory diagram showing a state in which a plurality of position coordinates are calculated. In FIG. 21, “A1, A2, A3, A4” is the coordinate locus of the real image designated by one indicating member, and “B1, B2, B3, B4” is the coordinate locus of the real image designated by the other indicating member. It is shown. “C1, C2, C3, C4” and “D1, D2, D3, D4” are virtual images.
[0115]
As shown in FIG. 20, in the coordinate detection process of the present embodiment, the processes in steps S11 to S15 are not different from the processes in steps S1 to S5 shown in FIG. .
[0116]
For example, when a plurality of pointing members such as fingers and pens are simultaneously inserted into the coordinate input / detection area 3a and a plurality of position coordinates (A1, B1, C1, D1 shown in FIG. 21) are calculated (FIG. 20). The coordinate extraction process (steps S16 to S38 shown in FIG. 20) for extracting the position coordinates of the actual blocking points by the plurality of pointing members from the plurality of position coordinates is the coordinate detection process. Run as part.
[0117]
In the coordinate extraction process, first, a plurality of calculated position coordinates (A1, B1, C1, D1) are stored in a memory such as the RAM 42 or the EEPROM 47 (step S16).
[0118]
In the subsequent step S17, it is determined whether or not there is a position coordinate determined as a real image among a plurality of position coordinates (A1, B1, C1, D1) stored in the memory.
[0119]
If there is no position coordinate determined as a real image (N in Step S17), the process proceeds to Step S18, and whether or not a plurality of calculated coordinates obtained sequentially in a time series necessary for real image determination is stored in the memory. judge.
[0120]
When the calculated coordinates for a plurality of times are stored in the memory (Y in step S18), after setting initial determination conditions (experimental values) for vector length / displacement length / displacement direction (step S19), the process proceeds to step S20. The process proceeds to execute a real image determination process.
[0121]
Here, FIG. 22 is a flowchart schematically showing the flow of the real image determination process. As shown in FIG. 22, in the real image determination process, first, in step S51, a predetermined calculated coordinate is used as a starting point coordinate, a coordinate vector value and a coordinate vector length between coordinates are calculated, and each sampled two-dimensional position coordinate is calculated. Are stored in a memory such as the RAM 42 or the EEPROM 47.
[0122]
Here, a calculation method of the coordinate vector value will be described with reference to FIG. In FIG. 23, the previously detected two-dimensional position coordinates are (X1, Y1), and the two-dimensional position coordinates obtained this time are (X2, Y2). From the change amount ΔX = X2−X1 in the X coordinate direction and the change amount ΔY = Y2−Y1 in the Y coordinate direction, a coordinate vector value is calculated by ΔY / ΔX. In this case, the coordinate vector values are digitized and stored in advance in the vector table T2 stored in the RAM 42 shown in FIG. 24 at intervals of 10 degrees from the X-axis direction. In addition, what is necessary is just to set this space | interval (10 degree | times) arbitrarily. In addition, an approximate value of a calculation result is used as the coordinate vector value. For example, if ΔY / ΔX = 0.900 for −ΔY and −ΔX, the coordinate vector value = 24.
[0123]
Further, as shown in FIG. 23, the coordinate vector value between coordinates in each sampling is calculated as described above, and the coordinate vector length L between the coordinates is, for example, coordinates (X1, Y1), (X2, Y2). If the coordinate vector length L1 is
L1 = √ {(Y2−Y1)2+ (X2-X1)2}
Is calculated by In this manner, the coordinate vector value and the coordinate vector length are calculated for each sampled two-dimensional position coordinate.
[0124]
In other words, in step S51, the vector coordinates previously set and stored in the vector table T2 are used for the changing direction between the two-dimensional position coordinates sequentially obtained in time series and the length indicating the change. The processing to be converted is executed. Here, the function of the vectorization means is executed.
[0125]
Subsequently, the process proceeds to step S52, and whether the coordinate vector length calculated in step S51 is an abnormal coordinate vector length (abnormal vector length) that cannot be moved within the coordinate detection cycle (predetermined time interval associated with the sampling signal). It is determined whether or not. The coordinate detection period in this embodiment is 20 ms. That is, in step S52, when the coordinate vector length calculated in step S51 is longer than the length detected within the coordinate detection period (20 ms), the coordinate locus is abnormal because it is not actually movable. It is determined that the coordinate vector length (abnormal vector length) is not a real image locus. Here, the function of the position coordinate extracting means is executed.
[0126]
If the coordinate vector length is an abnormal vector length (Y in step S52), the process proceeds to step S53, and it is determined whether or not the number of coordinate vector lengths for which the abnormal vector length has been determined has reached the detected number of position coordinates. If the number of detected position coordinates has not been reached (N in Step S53), the position coordinates of the end point are changed (Step S54), and the coordinate vector value and the coordinate vector length based on the end point are again obtained in Step S51. calculate.
[0127]
That is, in the processes of steps S51 to S52, until it is determined that the coordinate vector length is not the abnormal vector length (N in step S52), or the coordinate vector length for all the end point position coordinates is the abnormal vector length. The process is repeated until it is determined (Y in step S53).
[0128]
Therefore, for example, when the position coordinate A1 is set as the starting point coordinate, since the position coordinates calculated immediately after that are A2, B2, C2, and D2, as shown in FIG. 21, these position coordinates (A2, B2, C2, D2) are selected as the end points one by one,
A1 → A2, A1 → B2, A1 → C2, A1 → D2
The coordinate vector value (starting point vector value) and the coordinate vector length (starting point vector length) according to any one of these are sequentially calculated, and it is sequentially determined whether or not it is a real image locus.
[0129]
If it is determined that the coordinate vector length for all the end point position coordinates is an abnormal vector length (Y in step S53), the real image cannot be determined, and the process proceeds to step S21 described later.
[0130]
On the other hand, if it is determined that the coordinate vector length is not an abnormal vector length (N in step S52), the position coordinates of the end point are stored in a memory such as the RAM 42 or the EEPROM 47 (step S55), and a predetermined initial setting (n = 3 (n: number of coordinate detection cycles)) is executed (step S56).
[0131]
In subsequent step S57, the position coordinates of the end point of the start point vector stored in the memory in step S55 are set as the start point coordinates, and the coordinate vector value and the coordinate vector length between the position coordinates detected in the nth coordinate detection cycle are determined. It is calculated and stored in a memory such as the RAM 42 or the EEPROM 47. Here, the function of the vectorization means is executed.
[0132]
Subsequently, the process proceeds to step S58, and it is determined whether or not the coordinate vector length calculated in step S57 is an abnormal coordinate vector length (abnormal vector length) that cannot be moved within the coordinate detection cycle.
[0133]
If it is determined that the coordinate vector length is not the abnormal vector length (N in step S58), the process proceeds to step S59, where the coordinate trajectory of A1 → A2 and the coordinate trajectory of A2 → A3 that are assumed to be real image trajectories are obtained. By comparison, it is determined whether or not the coordinate vector value is within a specific displacement amount (V) and the coordinate vector length is a locus (abnormal displacement length) outside the specific displacement amount (L).
[0134]
In this way, it is determined whether or not the coordinate vector value is within a specific displacement amount (V) and the coordinate vector length is a locus (abnormal displacement length) outside the specific displacement amount (L). As shown in FIG. 25, generally, when drawing a straight line, the coordinate vector value and the length of the coordinate vector within the same time are substantially the same. This is because the vector value changes, but the amount of change is substantially the same and the coordinate vector length is also the same. That is, when the detected object moves on a straight line or curve, there is no significant difference between the coordinate vector length and the coordinate vector value, so even if the coordinate vector value is within a specific displacement (V), the coordinate A trajectory (abnormal displacement length) whose vector length is outside a specific displacement amount (L) is excluded.
[0135]
If it is determined that the length is not an abnormal displacement length (N in Step S59), the process proceeds to Step S60, where the coordinate trajectory A1 → A2 that is assumed to be a real image trajectory is compared with the coordinate trajectory A2 → A3. It is determined whether or not the vector value is outside a specific displacement amount (V) and the locus of the coordinate vector length is decreasing (abnormal displacement direction).
[0136]
As shown in FIG. 26, it is determined whether or not the coordinate vector value is outside the specific displacement amount (V) and the locus of the coordinate vector length is decreasing (abnormal displacement direction). In general, when drawing with a large change in the linear direction, the drawing speed for changing the direction decreases sequentially and stops at the turning point, and starts drawing again at the normal speed in the changing direction. When the coordinate vector value changes greatly, the coordinate vector length decreases sequentially and then increases in the conversion direction. That is, when the detected object changes its direction greatly, the operation stop state occurs immediately before, so even if the coordinate vector length is reduced, the locus in which the coordinate vector value is outside the specific displacement (V). (Abnormal displacement direction) is excluded.
[0137]
As described above, the function of the position coordinate extracting unit is executed by the processing of steps S58 to S60.
[0138]
If it is determined that the direction is not the abnormal displacement direction (N in step S60), in other words, if the abnormal vector length is not the abnormal displacement length or the abnormal displacement direction, the position coordinates of the end point are stored in a memory such as the RAM 42 or the EEPROM 47. (Step S61), the coordinate detection cycle number n is incremented by “1” (Step S62).
[0139]
Thereafter, in step S63, it is determined whether or not the number of coordinate detection cycles n has exceeded the number of calculated coordinates (number of determination coordinates) for a plurality of times sequentially obtained in time series necessary for real image determination stored in the memory. If the coordinate detection cycle number n does not exceed the number of determination coordinates (Y in step S63), the continuation vector described above is set as the starting vector (step S64), and the coordinate vector value and coordinates based on the end point are again set in step S57. Calculate the vector length.
[0140]
In other words, the processing in steps S57 to S64 changes the position coordinates of the end points until it is determined that the position coordinates of all end points are abnormal vector lengths, abnormal displacement lengths or abnormal displacement directions (Y in step S65) ( Step S66) is repeated.
[0141]
When it is determined that the position coordinates of all end points are abnormal vector lengths, abnormal displacement lengths or abnormal displacement directions (Y in step S65), the process proceeds again to step S54, where the end point position coordinates are changed, In step S51, a coordinate vector value and a coordinate vector length based on the end point are calculated.
[0142]
Therefore, for example, when the position coordinate of the end point of the starting point vector stored in the memory in step S55 is A2, and A1 → A2 is a real image locus, it is calculated immediately after that as shown in FIG. Since the position coordinates are A3, B3, C3, and D3, the position coordinates are selected as end points one by one from these position coordinates (A2, B2, C2, and D2),
A2 → A3, A2 → B3, A2 → C3, A2 → D3
The coordinate vector value (continuation vector value) and the coordinate vector length (continuation vector length) according to any one of the above are sequentially calculated, and it is sequentially determined whether the image is a real image locus.
[0143]
On the other hand, if it is determined that the number n of coordinate detection cycles has exceeded the number of determination coordinates (Y in step S63), the real image is confirmed, and the position coordinates are transferred to the computer 5 via the interface 43. (Step S67), it is used for processing such as display of the designated position by the designated member and command input corresponding to the designated position.
[0144]
Here, determination of whether or not a real image is obtained for another position coordinate based on one position coordinate will be described with reference to FIG. The determination of whether or not the other position coordinates are real images based on one position coordinate is as follows. In FIG. 11, if both A and A 'are real images, no coordinates are detected in the direction (2). It will be. For this reason, it is understood that one of A and A ′ is a real image. Similarly, it can be seen that one of B and B ′ is a real image. That is, only one of the position coordinates existing in the same direction is a real image, and the other is a virtual image. If it is determined that one A is a real image, the other A ′ is recognized as a virtual image, and B ′ in the direction (3) is also recognized as a virtual image. It turns out that it is. That is, it can be understood that if one of the four position coordinates stored in the memory is recognized as a real image or a virtual image, it can be determined whether all the position coordinates are real images or virtual images. Therefore, since it is not necessary to perform real image determination for all the calculated two-dimensional position coordinates, it is possible to detect the position coordinates when a plurality of locations are simultaneously indicated at a low cost.
[0145]
As shown in FIG. 27, among the plurality of position coordinates (A1, B1, C1, D1) stored in the memory, one position coordinate (B1 in FIG. 27) is the coordinate input / detection area 3a. If it exists outside, A1 and C1 can be determined as real images.
[0146]
That is, if one of the four position coordinates stored in the memory recognizes a real image or a virtual image for one position coordinate, it can be determined whether the real image or the virtual image for all the position coordinates. The position coordinates are also confirmed as a real image (step S68) and transferred to the computer 5 via the interface 43 (step S69). As described above, the function of the real image determination unit is executed by the processing of steps S67 to S69. Moreover, the process of step S67-S69 is repeated until it fixes about all the determination coordinate numbers (Y of step S70). When the transmission of the real image position coordinates for all the determination coordinate numbers is completed (Y in step S70), the real image determination process ends, and the process returns to step S11.
[0147]
Next, a process when it is determined in step S53 that the coordinate vector length for the position coordinates of all end points is an abnormal vector length will be described. If it is determined that the coordinate vector length for all the end point position coordinates is an abnormal vector length (Y in step S53), the process proceeds to step S21 on the assumption that the real image cannot be determined as described above. In S21, it is determined whether or not a real image determination process is still being performed for position coordinates in the same direction (for example, C1 with respect to A1 in FIG. 21). If the real image determination process for the position coordinates in the same direction has not yet been executed (N in step S21), the starting point coordinates are changed (step S22), and the process proceeds to step S20 again to execute the real image determination process. On the other hand, when the real image determination process for the position coordinates in the same direction is being executed (Y in step S21), the determination conditions for the vector length / displacement length / displacement direction set in step S19 are changed (step S23). Then, the process proceeds again to step S20, and a real image determination process is executed. That is, the real image determination is repeated alternately under the same conditions for the position coordinates of two points in the same direction.
[0148]
If the calculated position coordinates are not plural (N in Step S15), the calculated position coordinates are transferred to the computer 5 via the interface 43 (Step S24), and the memory such as the RAM 42 or the EEPROM 47 is used. (Step S25), and the process returns to step S11.
[0149]
Next, a case where it is determined in step S17 that there is a position coordinate determined as a real image will be described. If there is a position coordinate determined as a real image (Y in step S17), the process proceeds to step S26.
[0150]
Here, the case where there are position coordinates determined as a real image is a case where a plurality of position coordinates when there are not a plurality of position coordinates calculated as described above are stored in a memory such as the RAM 42 or the EEPROM 47. For example, as shown in FIG. FIG. 28 shows a state in which another indicating member is inserted into the coordinate input / detection area 3a in the middle of the description with one indicating member. Needless to say, the case where the position coordinates are determined as a real image includes the case where the coordinates of two points are determined by the processing as described above.
[0151]
In step S26, a coordinate vector value (real image vector value) and a coordinate vector length (real image vector length) between coordinates are calculated based on the previous and previous values of the position coordinates determined as a real image, and the RAM 42, the EEPROM 47, etc. Store in memory.
[0152]
Thereafter, after initial conditions (experimental values) for vector length / displacement length / displacement direction are set (step S27), the position coordinates of the end point of the real image vector stored in the memory in step S26 are used as the start point coordinates, and a plurality of them are detected simultaneously. A coordinate vector value and a coordinate vector length between the coordinates of the position coordinates thus calculated are calculated and stored in a memory such as the RAM 42 or the EEPROM 47. Here, the function of the vectorization means is executed.
[0153]
Then, it progresses to step S29 and it is determined whether the coordinate vector length calculated by step S28 is an abnormal coordinate vector length (abnormal vector length) which cannot move within a coordinate detection period.
[0154]
If it is determined that the coordinate vector length is not the abnormal vector length (N in step S29), the process proceeds to step S30, where the A3 → A4 coordinate trajectory, which is assumed to be a real image trajectory, for example, the A4 → A coordinate trajectory Are compared, and it is determined whether or not the coordinate vector value is within a specific displacement amount (V) and the coordinate vector length is a locus (abnormal displacement length) outside the specific displacement amount (L).
[0155]
If it is determined that the length is not an abnormal displacement length (N in step S30), the process proceeds to step S31, and the A3 → A4 coordinate locus assumed to be a real image locus is compared with, for example, the A4 → A coordinate locus, It is determined whether or not the coordinate vector value is outside a specific displacement amount (V) and the locus of the coordinate vector length is decreasing (abnormal displacement direction).
[0156]
As described above, the function of the position coordinate extracting unit is executed by the processing of steps S29 to S31.
[0157]
If it is determined that the direction is not the abnormal displacement direction (N in step S31), in other words, if the abnormal vector length is not the abnormal displacement length or the abnormal displacement direction, the position coordinates of the end point are stored in a memory such as the RAM 42 or the EEPROM 47. (Step S32) The position coordinates are transferred to the computer 5 via the interface 43 (Step S33), and the other position coordinates are also confirmed as a real image (Step S34), and transferred to the computer 5 via the interface 43 (Step S33). Step S35).
[0158]
On the other hand, when it is determined that the coordinate vector length is an abnormal vector length (Y in step S29), when it is determined that it is an abnormal displacement length (Y in step S30), and when it is determined that the direction is an abnormal displacement direction (Y in step S31), until the number of detected coordinates is reached (Y in step S36), the detected coordinates are changed (step S37), and the processes in steps S28 to S31 are repeated.
[0159]
Therefore, for example, when the position coordinate of the end point of the real image vector stored in the memory in step S26 is A4, the position coordinates calculated immediately after that are A, B, C, and D as shown in FIG. , Position coordinates are selected as end points one by one from these position coordinates (A, B, C, D),
A4 → A, A4 → B, A4 → C, A4 → D
The coordinate vector value (trajectory vector value) and the coordinate vector length (trajectory vector length) according to any one of the above are sequentially calculated, and it is sequentially determined whether the image is a real image trajectory. In other words, by tracking the trajectory of one two-dimensional position coordinate determined to be a real image, other two-dimensional position coordinates positioned in the same direction with respect to the light receiving element are recognized as virtual images, and other real images The two-dimensional position coordinates are determined.
[0160]
If the number of detected coordinates has been reached (Y in step S36), the vector length / displacement length / displacement direction determination conditions set in step S27 are changed (step S38), and the process proceeds to step S28 again. A value (trajectory vector value) and its coordinate vector length (trajectory vector length) are calculated.
[0161]
Here, when a plurality of two-dimensional position coordinates are calculated, the direction and length of change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals by the vectorization means are converted into vector coordinates. Based on the direction and length of the change between the coordinated two-dimensional position coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the plurality of two-dimensional position coordinates. As a result, when a plurality of points are simultaneously indicated by a plurality of indicating members, position coordinates are detected by the square of the number of those indicating members. Is this actually the point indicated by the indicating member? By using the vector coordinate value that has both the direction information and the length information for changing the designated coordinates for the determination of whether or not, it is possible to detect the position coordinates at the time of instructing multiple locations at low cost become.
[0162]
Although the present embodiment has been described based on the configuration of the coordinate input / detection device 3, the same operation and effect can be obtained even when the coordinate input / detection device 50 is applied. Further, instead of the optical unit 27 that projects the fan-shaped light flux film, the optical unit 60 that projects the light beam described in the third embodiment radially may be used.
[0163]
In each embodiment, the controller 10 is provided separately from the computer 5. However, the present invention is not limited to this. The controller 10 is incorporated in the computer 5 so that the computer 5 functions as the controller 10. Also good.
[0164]
In each embodiment, the coordinate input / detection device is integrated into the electronic blackboard system. However, the present invention is not limited to this, and the coordinate input / detection device is detachable from the display device or the writing board. It is good also as a structure.
[0165]
Further, in each embodiment, a floppy disk, hard disk, optical disk (CD-ROM, CD-R, CD-R / W, DVD) is used as the storage medium 26 or storage medium 49 storing various program codes (control programs). -ROM, DVD-RAM, etc.), magneto-optical disk (MO), memory card, etc. are applied. However, the present invention is not limited to this, and the storage medium is not limited to a medium independent of a computer, but may be a LAN or the Internet. A storage medium that downloads and stores or temporarily stores the transmitted program is also included.
[0166]
【The invention's effect】
  According to the coordinate input / detection device of the invention described in claim 1,When a plurality of points are simultaneously indicated by a plurality of indication members, the position coordinates are detected by the square of the number of the indication members. Since the determination is made by using the vector coordinate value having both the direction information and the length information in which the designated coordinates change, the position coordinates in the case where a plurality of locations are designated simultaneously can be detected at low cost.
[0172]
  Claim2According to the coordinate input / detection device of the described invention,When a plurality of points are simultaneously indicated by a plurality of indication members, the position coordinates are detected by the square of the number of the indication members. Since the determination is made by using the vector coordinate value having both the direction information and the length information in which the designated coordinates change, the position coordinates in the case where a plurality of locations are designated simultaneously can be detected at low cost.
[0173]
  Claim3According to the described invention,Since it is not necessary to perform the real image determination for all the calculated two-dimensional position coordinates, the position coordinates when a plurality of locations are simultaneously indicated can be detected at a lower cost.
[0174]
  Claim4According to the described invention,By tracking the trajectory of one two-dimensional position coordinate determined to be a real image, other two-dimensional position coordinates positioned in the same direction with respect to the light receiving element can be recognized as a virtual image. It is possible to determine the two-dimensional position coordinates that are real images of the above, and to detect the position coordinates when the other pointing member simultaneously points from the middle while one pointing member is pointing, at a low cost.
[0182]
  Claim5According to the coordinate detection method of the described invention,When a plurality of points are simultaneously indicated by a plurality of indication members, the position coordinates are detected by the square of the number of the indication members. Since the determination is made by using the vector coordinate value having both the direction information and the length information in which the designated coordinates change, the position coordinates in the case where a plurality of locations are designated simultaneously can be detected at low cost.
[0183]
  Claim6According to the coordinate detection method of the described invention,When a plurality of points are simultaneously indicated by a plurality of indication members, the position coordinates are detected by the square of the number of the indication members. Since the determination is made by using the vector coordinate value having both the direction information and the length information in which the designated coordinates change, the position coordinates in the case where a plurality of locations are designated simultaneously can be detected at low cost.
[0186]
  Claim7According to the storage medium of the described invention,When a plurality of points are simultaneously indicated by a plurality of indication members, the position coordinates are detected by the square of the number of the indication members. Since the determination is made by using the vector coordinate value having both the direction information and the length information in which the designated coordinates change, the position coordinates in the case where a plurality of locations are designated simultaneously can be detected at low cost.
[0187]
  Claim8According to the storage medium of the described invention,When a plurality of points are simultaneously indicated by a plurality of indication members, the position coordinates are detected by the square of the number of the indication members. Since the determination is made by using the vector coordinate value having both the direction information and the length information in which the designated coordinates change, the position coordinates in the case where a plurality of locations are designated simultaneously can be detected at low cost.
[Brief description of the drawings]
FIG. 1 is an external perspective view schematically showing an electronic blackboard system according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing an electrical connection of each part built in the electronic blackboard system.
FIG. 3 is a block diagram showing electrical connection of each unit built in the computer.
FIG. 4 is an explanatory diagram schematically showing a configuration of a coordinate input / detection device.
FIG. 5 is a block diagram schematically showing the structure of an optical unit.
6A is a perspective view showing an indicating member A, and FIG. 6B is a perspective view showing an indicating member B. FIG.
FIG. 7 is a block configuration diagram of a controller.
FIG. 8 is a flowchart schematically showing a flow of coordinate detection processing.
FIG. 9 is a front view showing an example in which one point in a coordinate input / detection area is pointed by an indicating member.
FIG. 10 is an explanatory diagram schematically showing a CCD detection operation.
FIG. 11 is an explanatory diagram showing a state in which a plurality of position coordinates are calculated.
FIG. 12 is an explanatory view partially showing an example in which one point in a coordinate input / detection region is pointed by an indicating member;
FIG. 13 is a graph showing an example of a waveform of light intensity output from a CCD.
FIG. 14 is an explanatory diagram showing a numerical value storage table in a RAM.
15A and 15B are indication members used in the coordinate input / detection device according to the second embodiment of the present invention, wherein FIG. 15A is a perspective view showing the indication member A, and FIG. 15B is a perspective view showing the indication member B; FIG.
FIG. 16 is a front view showing an example in which one point in the coordinate input / detection area is pointed by an indicating member.
FIG. 17 is an explanatory diagram showing a part thereof in an enlarged manner.
FIG. 18 is a graph showing an example of a waveform of light intensity output from a CCD.
FIG. 19 is a plan view schematically showing an optical unit according to a third embodiment of the present invention.
FIG. 20 is a flowchart schematically showing a flow of coordinate detection processing according to the fourth embodiment of the present invention.
FIG. 21 is an explanatory diagram showing a state in which a plurality of position coordinates are calculated.
FIG. 22 is a flowchart schematically showing a flow of real image determination processing.
FIG. 23 is a vector diagram for explaining a coordinate vector value calculation method.
FIG. 24 is an explanatory diagram schematically showing a vector table.
FIG. 25 is an explanatory diagram showing movement when a straight line is drawn;
FIG. 26 is an explanatory diagram showing a movement when drawing while greatly changing the linear direction.
FIG. 27 is an explanatory diagram showing a state in which a real image can be automatically determined.
FIG. 28 is an explanatory diagram showing a state in which another indicating member is inserted into the coordinate input / detection area in the middle of description with one indicating member.
FIG. 29 is a front view schematically showing a conventional coordinate input / detection device.
FIG. 30 is a front view showing a situation where two points are simultaneously indicated in the coordinate input / detection area.
FIG. 31 is a time chart showing the relationship between a light reception signal and a pulse signal in each light scanner when two points are simultaneously indicated.
[Explanation of symbols]
1 Electronic blackboard system
2 display devices
3,50 Coordinate input / detection device
3a, 50a Coordinate input / detection area
4 electronic blackboard
5 Control device
26, 49 storage media
28 Retroreflective members
29,60a Light projection means
31, 61 Light source
39, 65 Light receiving element
52 Retroreflective member
A, B indicating member
A1, B1      Instruction section
D diameter size
L Distance to indicating member
a Distance from a predetermined position on the light receiving element to the peak point
b Imaging size
θL, θR Output angle

Claims (8)

光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、
前記座標入力/検出領域の周辺部に設けられ、前記投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材と、
この再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、
これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、
指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出するピーク点検出手段と、
前記ピーク点検出手段により検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出するピーク距離検出手段と、
このピーク距離検出手段により検出された前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する角度算出手段と、
この角度算出手段により算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する位置座標算出手段と、
この位置座標算出手段により複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化するベクトル化手段と、
このベクトル化手段によってベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、前記位置座標算出手段により算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する位置座標抽出手段と、
を備える座標入力/検出装置。
A light source that emits light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection region;
A retroreflecting member that is provided in the periphery of the coordinate input / detection region and reflects the light projected by the light projecting means in the same direction as the incident direction;
A pair of light receiving elements that receive the light reflected by the retroreflective member; and
A light intensity distribution detecting means for detecting a light intensity distribution of the light received by these light receiving elements;
When at least one or more indicating members are inserted into the coordinate input / detection area, at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting unit are blocked by the light. A peak point detecting means for detecting an imaging position on each light receiving element of the indicating member;
Peak distance detection means for detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more peak points detected by the peak point detection means;
An emission angle at each of the light projecting means of the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element detected by the peak distance detecting means to the peak point. Angle calculating means for calculating
The two-dimensional position of the pointing member inserted into the coordinate input / detection area based on the emission angle of the light projected by the at least one pointing member calculated by the angle calculating unit in each light projecting unit Position coordinate calculating means for calculating coordinates;
A vectorizing means for vectorizing the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals when a plurality of the two-dimensional position coordinates are calculated by the position coordinate calculating means; ,
Based on the direction and length of the change between the two-dimensional position coordinates vectorized by the vectorization means, the indicating member is actually selected from the plurality of two-dimensional position coordinates calculated by the position coordinate calculation means. Position coordinate extracting means for extracting the two-dimensional position coordinates shown in FIG.
A coordinate input / detection device comprising:
光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、
これらの投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材を有する指示部材がその座標入力/検出領域に挿入された場合に、前記再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、
これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、
前記指示部材がその座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を反射した少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出するピーク点検出手段と、
前記ピーク点検出手段により検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出するピーク距離検出手段と、
このピーク距離検出手段により検出された前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材により反射された前記光の前記各投光手段における出射角度を算出する角度算出手段と、
この角度算出手段により算出された少なくとも1以上の前記指示部材により反射された前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する位置座標算出手段と、
この位置座標算出手段により複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化するベクトル化手段と、
このベクトル化手段によってベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、前記位置座標算出手段により算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する位置座標抽出手段と、
を備える座標入力/検出装置。
A light source that emits light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection region;
When a pointing member having a retroreflective member that reflects the light projected by these light projecting means in the same direction as the incident direction is inserted into the coordinate input / detection region, the light is reflected by the retroreflective member. A pair of light-receiving elements that receive the emitted light; and
A light intensity distribution detecting means for detecting a light intensity distribution of the light received by these light receiving elements;
When at least one or more of the pointing member is inserted into the coordinate input / detection area, at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting means reflect at least one or more of the reflected light. A peak point detecting means for detecting an imaging position on each light receiving element of the indicating member;
Peak distance detection means for detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more peak points detected by the peak point detection means;
An emission angle at each of the light projecting means of the light reflected by at least one of the indicating members based on the distance from the predetermined position on the light receiving element detected by the peak distance detecting means to the peak point. Angle calculating means for calculating
A two-dimensional position of the indicating member inserted into the coordinate input / detection area based on an emission angle of the light reflected by the at least one indicating member calculated by the angle calculating unit in each light projecting unit Position coordinate calculating means for calculating coordinates;
A vectorizing means for vectorizing the direction and length of the change between the two-dimensional position coordinates sequentially calculated at predetermined time intervals when a plurality of the two-dimensional position coordinates are calculated by the position coordinate calculating means; ,
Based on the direction and length of the change between the two-dimensional position coordinates vectorized by the vectorization means, the indicating member is actually selected from the plurality of two-dimensional position coordinates calculated by the position coordinate calculation means. Position coordinate extracting means for extracting the two-dimensional position coordinates shown in FIG.
A coordinate input / detection device comprising:
前記位置座標抽出手段は、前記位置座標算出手段により算出された複数の前記二次元位置座標の内、前記受光素子に対して同一方向に位置する前記二次元位置座標の一つは必ず実像であることに着目して実像判定を行う実像判定手段を備える請求項または記載の座標入力/検出装置。The position coordinate extraction means is one of the two-dimensional position coordinates located in the same direction with respect to the light receiving element among the plurality of two-dimensional position coordinates calculated by the position coordinate calculation means. coordinate input / detection device according to claim 1 or 2, including a real image determination means for performing a real image determination particular interest. 前記実像判定手段によって実像であると判定された一の前記二次元位置座標がある場合、その実像であると判定された一の前記二次元位置座標の軌跡を追跡し、他の実像である前記二次元位置座標を確定するようにした請求項記載の座標入力/検出装置。If there is one of the two-dimensional position coordinates determined to be a real image by the real image determination means, the locus of the one of the two-dimensional position coordinates determined to be the real image is tracked, and the other real image The coordinate input / detection device according to claim 3, wherein the two-dimensional position coordinates are determined. 光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、前記座標入力/検出領域の周辺部に設けられ、前記投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材と、この再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、を用い、検出された光強度分布に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を検出する座標検出方法であって、
指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する工程と、
検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する工程と、
前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する工程と、
算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する工程と、
複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する工程と、
ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する工程と、
を含んでなる座標検出方法。
A light source that emits light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection area; and the light projecting means provided at the periphery of the coordinate input / detection area A retroreflecting member that reflects the light projected by the light in the same direction as the incident direction, a pair of light receiving elements that receive the light reflected by the retroreflective member, and the light receiving elements that receive the light. And detecting the two-dimensional position coordinates of the pointing member inserted into the coordinate input / detection area based on the detected light intensity distribution. A coordinate detection method,
When at least one indicating member is inserted into the coordinate input / detection area, at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting means block at least one of the light. Detecting as an imaging position on each light receiving element of the indicating member;
Detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more detected peak points;
Calculating an emission angle at each of the light projecting means of the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element to the peak point;
Calculating two-dimensional position coordinates of the pointing member inserted into the coordinate input / detection area based on an emission angle of each of the light projecting means of the light blocked by the calculated at least one pointing member; When,
When a plurality of the two-dimensional position coordinates are calculated, converting the direction and length of the change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval into a vector coordinate;
Based on the direction and length of the change between the two-dimensional position coordinates converted into vector coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the calculated two-dimensional position coordinates. Process,
A coordinate detection method comprising:
光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、これらの投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材を有する指示部材がその座標入力/検出領域に挿入された場合に、前記再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、を用い、検出された光強度分布に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を検出する座標検出方法であって、
指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する工程と、
検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する工程と、
前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する工程と、
算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する工程と、
複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する工程と、
ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する工程と、
を含んでなる座標検出方法。
A light source that emits light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection area, and the light projected by these light projecting means is the same as the incident direction When a pointing member having a retroreflective member that reflects in a direction is inserted into the coordinate input / detection area, a pair of light receiving elements that receive the light reflected by the retroreflective member, and these A light intensity distribution detecting means for detecting a light intensity distribution of the light received by the light receiving element, and a two-dimensional position of the pointing member inserted into the coordinate input / detection area based on the detected light intensity distribution A coordinate detection method for detecting coordinates,
When at least one indicating member is inserted into the coordinate input / detection area, at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting means block at least one of the light. Detecting as an imaging position on each light receiving element of the indicating member;
Detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more detected peak points;
Calculating an emission angle at each of the light projecting means of the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element to the peak point;
Calculating two-dimensional position coordinates of the pointing member inserted into the coordinate input / detection area based on an emission angle of each of the light projecting means of the light blocked by the calculated at least one pointing member; When,
When a plurality of the two-dimensional position coordinates are calculated, converting the direction and length of the change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval into a vector coordinate;
Based on the direction and length of the change between the two-dimensional position coordinates converted into vector coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the calculated two-dimensional position coordinates. Process,
A coordinate detection method comprising:
光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、前記座標入力/検出領域の周辺部に設けられ、前記投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材と、この再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、を備える座標入力/検出装置に用いられ、検出された光強度分布に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標の検出をコンピュータに実行させるコンピュータに読み取り可能なプログラムを記憶している記憶媒体であって、
前記プログラムは、
指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する機能と、
検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する機能と、
前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する機能と、
算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する機能と、
複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する機能と、
ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する機能と、
を前記コンピュータに実行させる記憶媒体。
A light source for emitting light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection area; and the light projecting means provided at the periphery of the coordinate input / detection area A retroreflecting member that reflects the light projected by the light in the same direction as the incident direction, a pair of light receiving elements that receive the light reflected by the retroreflective member, and the light receiving elements that receive the light. And a light intensity distribution detecting means for detecting a light intensity distribution of the light, and the pointing member inserted into the coordinate input / detection area based on the detected light intensity distribution. A computer-readable storage medium storing a computer-readable program for causing a computer to detect the two-dimensional position coordinates of
The program is
When at least one indicating member is inserted into the coordinate input / detection area, at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting means block at least one of the light. A function of detecting an imaging position on each light receiving element of the indicating member;
A function of detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more detected peak points;
A function of calculating an emission angle at each of the light projecting means of the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element to the peak point;
A function of calculating the two-dimensional position coordinates of the indicator member inserted in the coordinate input / detection area based on the calculated emission angle of the light blocked by the at least one indicator member in each of the light projecting means When,
When a plurality of the two-dimensional position coordinates are calculated, a function of vectorizing the direction and length of the change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval;
Based on the direction and length of the change between the two-dimensional position coordinates converted into vector coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the calculated two-dimensional position coordinates. Function and
A storage medium for causing the computer to execute
光を出射する光源を有し、その光を二次元の座標入力/検出領域に投光する一対一組の投光手段と、これらの投光手段により投光された前記光を入射方向と同一方向に反射する再帰性反射部材を有する指示部材がその座標入力/検出領域に挿入された場合に、前記再帰性反射部材によって反射された前記光を受光する一対一組の受光素子と、これらの受光素子が受光した前記光の光強度分布を検出する光強度分布検出手段と、を備える座標入力/検出装置に用いられ、検出された光強度分布に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標の検出をコンピュータに実行させるコンピュータに読み取り可能なプログラムを記憶している記憶媒体であって、
前記プログラムは、
指示部材が前記座標入力/検出領域に少なくとも1以上挿入された場合に、前記光強度分布検出手段により検出された光強度分布の少なくとも1以上のピーク点を前記光を遮った少なくとも1以上の前記指示部材の前記各受光素子上の結像位置として検出する機能と、
検出された少なくとも1以上のピーク点に基づいて前記受光素子上の所定の位置から各ピーク点に至る距離を検出する機能と、
前記受光素子上の所定の位置からそのピーク点に至る前記距離に基づいて少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度を算出する機能と、
算出された少なくとも1以上の前記指示部材に遮られた前記光の前記各投光手段における出射角度に基づいて前記座標入力/検出領域に挿入された前記指示部材の二次元位置座標を算出する機能と、
複数の前記二次元位置座標が算出された場合、所定の時間間隔で順次算出される前記二次元位置座標間の変化の方向及び長さをベクトル座標化する機能と、
ベクトル座標化された前記二次元位置座標間の変化の方向及び長さに基づき、算出された複数の前記二次元位置座標の中から前記指示部材が実際に示した前記二次元位置座標を抽出する機能と、
を前記コンピュータに実行させる記憶媒体。
A light source that emits light, and a pair of light projecting means for projecting the light to a two-dimensional coordinate input / detection area, and the light projected by these light projecting means is the same as the incident direction When a pointing member having a retroreflective member that reflects in a direction is inserted into the coordinate input / detection region, a pair of light receiving elements that receive the light reflected by the retroreflective member, and these And a light intensity distribution detecting means for detecting a light intensity distribution of the light received by the light receiving element, and is inserted into the coordinate input / detection area based on the detected light intensity distribution. A storage medium storing a computer-readable program for causing a computer to detect the two-dimensional position coordinates of the pointing member;
The program is
When at least one indicating member is inserted into the coordinate input / detection area, at least one or more peak points of the light intensity distribution detected by the light intensity distribution detecting means block at least one of the light. A function of detecting an imaging position on each light receiving element of the indicating member;
A function of detecting a distance from a predetermined position on the light receiving element to each peak point based on at least one or more detected peak points;
A function of calculating an emission angle at each of the light projecting means of the light blocked by at least one of the indicating members based on the distance from the predetermined position on the light receiving element to the peak point;
A function of calculating the two-dimensional position coordinates of the indicator member inserted in the coordinate input / detection area based on the calculated emission angle of the light blocked by the at least one indicator member in each of the light projecting means When,
When a plurality of the two-dimensional position coordinates are calculated, a function of vectorizing the direction and length of the change between the two-dimensional position coordinates sequentially calculated at a predetermined time interval;
Based on the direction and length of the change between the two-dimensional position coordinates converted into vector coordinates, the two-dimensional position coordinates actually indicated by the pointing member are extracted from the calculated two-dimensional position coordinates. Function and
A storage medium for causing the computer to execute
JP2000241957A 2000-02-29 2000-08-10 Coordinate input / detection device, coordinate detection method, and storage medium Expired - Fee Related JP4414075B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000241957A JP4414075B2 (en) 2000-02-29 2000-08-10 Coordinate input / detection device, coordinate detection method, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000052726 2000-02-29
JP2000-52726 2000-02-29
JP2000241957A JP4414075B2 (en) 2000-02-29 2000-08-10 Coordinate input / detection device, coordinate detection method, and storage medium

Publications (2)

Publication Number Publication Date
JP2001318759A JP2001318759A (en) 2001-11-16
JP4414075B2 true JP4414075B2 (en) 2010-02-10

Family

ID=26586321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000241957A Expired - Fee Related JP4414075B2 (en) 2000-02-29 2000-08-10 Coordinate input / detection device, coordinate detection method, and storage medium

Country Status (1)

Country Link
JP (1) JP4414075B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4546224B2 (en) * 2004-11-24 2010-09-15 キヤノン株式会社 Coordinate input method and apparatus
JP2010277122A (en) * 2009-05-26 2010-12-09 Xiroku:Kk Optical position detector
KR101153555B1 (en) 2010-08-06 2012-06-11 삼성전기주식회사 Touch screen device
JP5017466B1 (en) 2011-02-28 2012-09-05 株式会社東芝 Information processing apparatus and program
JP5754266B2 (en) * 2011-06-30 2015-07-29 セイコーエプソン株式会社 Indicator member, optical position detection device, and display system with input function

Also Published As

Publication number Publication date
JP2001318759A (en) 2001-11-16

Similar Documents

Publication Publication Date Title
JP3934846B2 (en) Coordinate input / detection device, electronic blackboard system, light receiving element positional deviation correction method, and storage medium
US7015894B2 (en) Information input and output system, method, storage medium, and carrier wave
US6594023B1 (en) Coordinate inputting/detecting apparatus, method and computer program product designed to precisely recognize a designating state of a designating device designating a position
EP1083514B1 (en) Coordinate inputting/detecting apparatus, method and computer program product
JP3881148B2 (en) Photodetection device for coordinate detection, coordinate input / detection device, electronic blackboard, mounting position detection method, and storage medium
JPS63223819A (en) Method and apparatus for operating graphic object
JP4414075B2 (en) Coordinate input / detection device, coordinate detection method, and storage medium
JP2003186616A (en) Information input device, information input / output system, position coordinate output method, program, and recording medium
JP4335468B2 (en) Information input / output system, information control method, program, and recording medium
JP4560224B2 (en) Information input device, information input / output system, program, and storage medium
JP2002342015A (en) Information input device and information input / output system
JP4615178B2 (en) Information input / output system, program, and storage medium
JP4256555B2 (en) Coordinate input / detection device, electronic blackboard system, coordinate position detection method, and storage medium
JP4060040B2 (en) Information input device, information input system, input information identification method, coordinate input / detection device, honey / tome identification method, and storage medium
JP2004199181A (en) Coordinate input device, display device, coordinate input method and program
JP4603183B2 (en) Information input / output system, display control method, storage medium, and program
JP4414106B2 (en) Information input device, information input / output system, program, and storage medium
JP2001084108A (en) Coordinate input / detection / display device
JP2001243015A (en) Information input / display system
JP2001067176A (en) Coordinate input / detection system
JP4142963B2 (en) Information input device and information input / output system
JP2008217819A (en) Information input device, information input method, information input program, and storage medium
JP2000132339A (en) Coordinate input device
JP2001290583A (en) Coordinate input / detection device and electronic blackboard system
JP4320101B2 (en) Light blocking detection device and information display system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040928

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20051021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060823

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees