[go: up one dir, main page]

JP2015225466A - Coordinate input device, control method for the same, and program - Google Patents

Coordinate input device, control method for the same, and program Download PDF

Info

Publication number
JP2015225466A
JP2015225466A JP2014109432A JP2014109432A JP2015225466A JP 2015225466 A JP2015225466 A JP 2015225466A JP 2014109432 A JP2014109432 A JP 2014109432A JP 2014109432 A JP2014109432 A JP 2014109432A JP 2015225466 A JP2015225466 A JP 2015225466A
Authority
JP
Japan
Prior art keywords
light
unit
sensor
light projecting
housing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014109432A
Other languages
Japanese (ja)
Inventor
吉村 雄一郎
Yuichiro Yoshimura
雄一郎 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014109432A priority Critical patent/JP2015225466A/en
Publication of JP2015225466A publication Critical patent/JP2015225466A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow components of a coordinate input device to be efficiently and easily adjusted.SOLUTION: A first housing and a second housing incorporate sensor units which are provided with a plurality of light projection parts including a first light projection part and a second light projection part different in distance from an input surface as light projection parts projecting light to input surfaces in parallel and light-receiving parts receiving light respectively. Retroreflection parts are mounted on side surfaces in a longitudinal direction different from mounting surfaces mounted on the input surfaces. So as to individually light the plurality of light projection parts, light projection configurations by the first light projection part and the second light projection part are controlled. A light-receiving state in the light-receiving part of the first housing by light projection from each of the first light projection part and the second light projection part of the second housing is determined. On the basis of the determination result, posture adjustment information about the sensor unit is generated.

Description

本発明は、入力面に対する指示位置を検出する座標入力技術に関するものである。   The present invention relates to a coordinate input technique for detecting a designated position with respect to an input surface.

従来、座標入力装置の座標入力方式として、座標入力面外側に再帰性反射材を設け、投光部からの光を再帰反射材で反射し、その光量分布を受光部により検出する方式(光学遮光方式)がある(例えば、特許文献1、2参照)。   Conventionally, as a coordinate input method of a coordinate input device, a retroreflective material is provided outside the coordinate input surface, the light from the light projecting unit is reflected by the retroreflective material, and the light quantity distribution is detected by the light receiving unit (optical shading). (For example, refer to Patent Documents 1 and 2).

特許文献1の座標入力装置(図24)は、センサユニット2L及び2R、座標を入力する際に使用する座標入力面である座標入力有効領域5を有する。また、座標入力有効領域5の周囲3辺には、進入してきた光を進入してきた方向に再帰的に反射する再帰反射部4が設けられている。更に、センサユニット2L及び2Rを制御し、また、取得したセンサユニット2L及び2Rの出力信号を処理、あるいはその処理結果を外部装置に出力する演算制御回路3が設けられている。   The coordinate input device (FIG. 24) of Patent Document 1 includes sensor units 2L and 2R, and a coordinate input effective area 5 that is a coordinate input surface used when inputting coordinates. In addition, retroreflective portions 4 that recursively reflect the incoming light in the direction in which the light has entered are provided on the three sides around the coordinate input effective area 5. Further, an arithmetic control circuit 3 is provided that controls the sensor units 2L and 2R, processes the acquired output signals of the sensor units 2L and 2R, or outputs the processing results to an external device.

センサユニット2L及び2Rは、投光部及び受光部(不図示)を有している。投光部は、座標入力有効領域5の入力面にほぼ平行に扇形に広がる光を投光し、受光部は、その光が再帰反射部4で再帰反射され、戻ってきた光を受光する。そして、座標入力装置は、2つのセンサユニット2L及び2Rでそれぞれ検知された光の遮光方向(遮光角度θL及びθR)と当該センサユニット間の距離に基づいて、座標入力有効領域5に入力されたタッチ位置Pを算出することができる。   The sensor units 2L and 2R have a light projecting unit and a light receiving unit (not shown). The light projecting unit projects light that spreads in a fan shape substantially parallel to the input surface of the coordinate input effective area 5, and the light receiving unit receives the light that is retroreflected by the retroreflecting unit 4 and returned. Then, the coordinate input device is input to the coordinate input effective region 5 based on the light shielding direction (light shielding angles θL and θR) detected by the two sensor units 2L and 2R and the distance between the sensor units. The touch position P can be calculated.

特許文献2には、特許文献1におけるセンサユニットの投光部及び受光部の具体的な構成の一例が示されている。特許文献3には、複数のセンサユニットにおける一方のセンサユニットの投光部から出射された光が他方のセンサユニットの受光部で外乱光として受光されることを防止するために、センサユニットの各投光部からの光の出射を交互に行う構成が開示されている。特許文献4には、座標入力有効領域の対向する2辺に配置される複数のセンサユニットが、再帰反射部材と座標入力面との隙間に設ける構成が開示されている。   Patent Document 2 shows an example of a specific configuration of the light projecting unit and the light receiving unit of the sensor unit in Patent Document 1. In Patent Document 3, in order to prevent the light emitted from the light projecting unit of one sensor unit in the plurality of sensor units from being received as disturbance light by the light receiving unit of the other sensor unit, A configuration for alternately emitting light from the light projecting unit is disclosed. Patent Document 4 discloses a configuration in which a plurality of sensor units arranged on two opposing sides of a coordinate input effective area are provided in a gap between a retroreflective member and a coordinate input surface.

特許文献5及び6には、座標入力面に対し、垂直方向に複数の投光部を有する構成が開示されている。特許文献7には、投光光範囲に関して、光源から進行するに従って座標入力面に垂直な方向に広がる構成が開示されている。特許文献8には、投光光軸と座標入力面の平行度を調整するためのセンサユニットの姿勢調整機構が開示されている。   Patent Documents 5 and 6 disclose a configuration having a plurality of light projecting units in the vertical direction with respect to the coordinate input surface. Patent Document 7 discloses a configuration that spreads in a direction perpendicular to the coordinate input surface as it advances from the light source with respect to the light projection light range. Patent Document 8 discloses a sensor unit posture adjustment mechanism for adjusting the parallelism between a light projecting optical axis and a coordinate input surface.

この種の座標入力装置を表示装置と一体化して、表示装置の表示画面をタッチすることで、表示状態を制御したり、あたかも紙と鉛筆の様な関係で、タッチ位置の軌跡を筆跡として表示したりすることが可能となる。表示装置としては、液晶表示装置等の各種方式のフラットパネルディスプレイやフロントプロジェクターが知られている。大型の表示を可能とするフロントプロジェクターの場合には、その投影面であるスクリーンボード等に位置検出部を組み込み、そのスクリーンボードに画像を投影することになる。従って、座標入力装置の大きさは、タッチ操作面となるスクリーンボードの大きさに依存することになり、比較的大きな装置となる。   This type of coordinate input device is integrated with the display device, and the display state is controlled by touching the display screen of the display device, and the locus of the touch position is displayed as a handwriting as if it were a paper-pencil. It becomes possible to do. As display devices, flat panel displays and front projectors of various types such as liquid crystal display devices are known. In the case of a front projector that can display a large image, a position detection unit is incorporated in a screen board or the like that is the projection surface, and an image is projected onto the screen board. Therefore, the size of the coordinate input device depends on the size of the screen board serving as the touch operation surface, and is a relatively large device.

図24に示す光学遮光方式の座標入力装置の場合、センサユニット2、演算制御回路3、及び再帰反射部4が主要部品であり、それらがスクリーンボードに装着される。従って、装置が大型化しても主要部品の構成はそのままであり、大型化によるコストアップ要因はスクリーンボードの材料費が大半を占めることになる。   In the optical shading type coordinate input device shown in FIG. 24, the sensor unit 2, the arithmetic control circuit 3, and the retroreflecting unit 4 are main components, and these are mounted on the screen board. Therefore, even if the apparatus is increased in size, the configuration of the main parts remains the same, and the cost increase due to the increase in size is due to the material cost of the screen board occupying the majority.

米国特許第4507557号明細書U.S. Pat. No. 4,507,557 特開2004−272353号公報JP 2004-272353 A 特開2001−43021号公報JP 2001-43021 A 特許登録第4118664号公報Patent Registration No. 4118664 特許登録第3830121号公報Patent Registration No. 3830121 特許公開2012−3434号公報Japanese Patent Publication No. 2012-3434 米国特許第6518959号公報US Pat. No. 6,518,959 特許登録第4759189号公報Patent Registration No. 4759189

図24に示す光学遮光方式の座標入力装置の主要構成部品は、センサユニット2、演算制御回路3、及び再帰反射部4である。これらの主要構成部品を所定の位置寸法関係で、例えば、ホワイトボードに装着できれば、ホワイトボードのタッチ位置を検知することが可能となる。スクリーンボードとして既存のホワイトボードを流用すれば、コストの大半を占めるスクリーンボード自体が必須構成要素から無くなる。従って、製品価格を大幅に抑えることができ、大型であっても安価にタッチ操作環境を提供することができる。   The main components of the optical shading type coordinate input device shown in FIG. 24 are a sensor unit 2, an arithmetic control circuit 3, and a retroreflecting unit 4. If these main components can be mounted on a whiteboard, for example, in a predetermined positional dimension relationship, the touch position of the whiteboard can be detected. If an existing whiteboard is used as the screen board, the screen board, which accounts for the majority of the cost, is eliminated from the essential components. Therefore, the price of the product can be greatly reduced, and a touch operation environment can be provided at a low cost even if it is large.

この主要構成部品をホワイトボードに装着、取り外し可能な構成にする場合には、センサユニットの投光及び受光の光軸方向は、座標入力面であるホワイトボードと平行である必要がある。これは、平行でないと、センサユニットから投光した光の再帰反射光が効率よくセンサユニットで十分な光量で受光することができないからである。   In the case where the main components are mounted on and removed from the whiteboard, the light projecting and receiving optical axis directions of the sensor unit need to be parallel to the whiteboard as the coordinate input surface. This is because the retroreflected light emitted from the sensor unit cannot be efficiently received by the sensor unit with a sufficient amount of light unless it is parallel.

通常の工業的量産工程では、センサユニット単体において、まず、その受光部品(CCD等)と光学レンズとの光軸・ピント合わせを行う。その調整においては、そのセンサユニットに装着した投光部材からの投光方向も含めてほぼ入力面に平行となるように調整される。更に、そのセンサユニットをセンサバー筐体に配置された後にも入力面に平行方向に投受光方向が合うように再度調整する必要がある。これは、そのセンサバー筐体の成形の仕上がり状態が、センサユニットの取付角度に影響するため、センサバー筐体に組み込んだままでは、投受光方向が入力面に平行になっていない可能性があるからである。この調整工程は、組立工数削減のため、他の調整工程と共通化してできるだけ短時間で行うことが要求される。   In a normal industrial mass production process, in the sensor unit alone, first, the optical axis and focus of the light receiving component (CCD or the like) and the optical lens are performed. In the adjustment, adjustment is made so as to be substantially parallel to the input surface, including the light projecting direction from the light projecting member attached to the sensor unit. Further, even after the sensor unit is arranged in the sensor bar housing, it is necessary to adjust again so that the light projecting / receiving direction is in parallel with the input surface. This is because the finished state of the molding of the sensor bar casing affects the mounting angle of the sensor unit, and therefore the light projecting / receiving direction may not be parallel to the input surface when it is incorporated in the sensor bar casing. It is. This adjustment process is required to be performed in the shortest possible time in common with other adjustment processes in order to reduce assembly man-hours.

再帰反射光の光量分布を調整の対象とした場合には、その光量分布の有る特徴部分の光量が所定の基準以上になるように調整する方法が考えられる。その場合、より光量に基準値からの余裕(マージン)を持たせるのが品質確保上望ましい。このセンサユニットの調整方法は、例えば、特許文献8で開示される機構により、センサユニットの姿勢を調整することができる。この場合、センサユニットの姿勢をその受光した光量分布を監視しながら最良点を探りながら調整することになる。しかしながら、この調整方法は、工数(時間)がかかり、更には、熟練を要する工程である。従って、このセンサユニットを筐体に組込後の姿勢調整工程は、組立コストを増加させる要因となっていた。   When the light quantity distribution of the retroreflected light is an object to be adjusted, a method of adjusting the light quantity of the characteristic portion having the light quantity distribution to be equal to or greater than a predetermined reference is conceivable. In that case, it is desirable in terms of quality assurance that the light amount has a margin (margin) from the reference value. This sensor unit adjustment method can adjust the attitude of the sensor unit by a mechanism disclosed in Patent Document 8, for example. In this case, the attitude of the sensor unit is adjusted while searching for the best point while monitoring the distribution of the received light quantity. However, this adjustment method takes man-hours (time) and is a process requiring skill. Therefore, the posture adjustment process after the sensor unit is assembled in the housing has been a factor of increasing the assembly cost.

ここで、図23を用いて、入力面6上で対向するセンサバー筐体1L及び1Rが内蔵するセンサユニットの姿勢と受光量分布について説明する。今、センサバー筐体1L及び1Rの中にあるセンサユニットは調整ネジ(不図示)を回転することにより一体的にセンサバー筐体に対するセンサユニットの姿勢を調整できる機構を有することとする。センサバー筐体1L及び1Rにはそれぞれ、受光部40と投光部30を含むセンサユニットが内蔵される。図23(A1)では、これらのセンサユニットの投受光方向と入力面6とが平行であり、図23(A2)では、その投受光方向が入力面6に対して傾斜し、図23(A3)は、その傾斜角が更に大きい場合を示している。   Here, with reference to FIG. 23, the posture and the received light amount distribution of the sensor unit built in the sensor bar housings 1 </ b> L and 1 </ b> R facing each other on the input surface 6 will be described. Now, it is assumed that the sensor units in the sensor bar casings 1L and 1R have a mechanism capable of integrally adjusting the attitude of the sensor unit with respect to the sensor bar casing by rotating an adjustment screw (not shown). Sensor bar housings 1L and 1R each include a sensor unit including a light receiving unit 40 and a light projecting unit 30. In FIG. 23 (A1), the light projecting / receiving direction and the input surface 6 of these sensor units are parallel to each other. In FIG. 23 (A2), the light projecting / receiving direction is inclined with respect to the input surface 6, and FIG. ) Shows a case where the tilt angle is larger.

図23(A2)や図23(A3)の状態の場合には、センサユニットからの投受光の光線と対向する右側に配置されたセンサバー筐体1Rの再帰反射部4との位置関係がずれる。従って、図23(B)のA2やA3に示すように、センサユニットの受光量としては、不十分な値となる。このセンサユニットの調整ネジを回して、入力面6と平行になるように姿勢を図23(A)のように調整すると投受光光路と対向する再帰反射材との位置がほぼ一致する。従って、再帰反射光も増加し、図23(B)に示すように、センサユニットの受光量がA2、A3よりも大きな値(A1)となる。このように、センサユニットの受光量、特に、図23(B)中、丸印で囲む光量最小部分が最も大きくなるようにセンサユニットの姿勢を調整ネジ回転して調整する。但し、この調整方法は、調整ネジを両方向に回転させることによる試行錯誤を繰り返しながら最適点を探る方法であり、他の単純な組立工程と比較して工数(時間)がかかる工程となっている。   In the case of the state of FIG. 23 (A2) or FIG. 23 (A3), the positional relationship with the retroreflective portion 4 of the sensor bar casing 1R disposed on the right side facing the light projecting / receiving light from the sensor unit is shifted. Therefore, as shown by A2 and A3 in FIG. 23B, the amount of light received by the sensor unit is an insufficient value. When the adjustment screw of this sensor unit is turned and the posture is adjusted as shown in FIG. 23A so as to be parallel to the input surface 6, the position of the light reflecting / receiving optical path and the retroreflecting material facing each other substantially coincides. Accordingly, retroreflected light also increases, and the amount of light received by the sensor unit becomes a value (A1) larger than A2 and A3, as shown in FIG. Thus, the sensor unit posture is adjusted by rotating the adjustment screw so that the amount of light received by the sensor unit, in particular, the minimum light amount portion surrounded by a circle in FIG. However, this adjustment method is a method of searching for the optimal point while repeating trial and error by rotating the adjustment screw in both directions, and is a process that takes man-hours (time) compared to other simple assembly processes. .

本発明は上記の課題を解決するためになされたものであり、座標入力装置の構成部品の調整作業を効率的にかつ容易に行うことができる技術を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a technique capable of efficiently and easily adjusting the components of the coordinate input device.

上記の目的を達成するための本発明による座標入力装置は以下の構成を備える。即ち、
入力面に対する指示位置を検出する座標入力装置であって、
第1の筐体と第2の筐体であって、それぞれの筐体が、
前記入力面に対して平行に向けて投光する投光部として、前記入力面からの距離が異なる第1の投光部と第2の投光部を含む複数の投光部と、光を受光する受光部とを備えるセンサユニットを少なくとも2つ内蔵し、
前記入力面に装着される装着面とは異なる長手方向の側面に、入射光を再帰的に反射する再帰反射部が装着されている、
第1の筐体と第2の筐体と、
前記複数の投光部を個別に点灯するように、前記第1の投光部と前記第2の投光部による投光形態を制御する制御手段と、
前記第2の筐体の前記第1の投光部と前記第2の投光部それぞれからの投光による、前記第1の筐体の前記受光部での受光状態を判定する判定手段と、
前記判定手段の判定結果に基づいて、前記センサユニットの姿勢調整情報を生成する生成手段と
を備える。
In order to achieve the above object, a coordinate input device according to the present invention comprises the following arrangement. That is,
A coordinate input device for detecting a designated position with respect to an input surface,
A first housing and a second housing, each housing being
As a light projecting unit that projects light parallel to the input surface, a plurality of light projecting units including a first light projecting unit and a second light projecting unit having different distances from the input surface, and light Including at least two sensor units each including a light receiving unit for receiving light;
A retroreflecting portion that recursively reflects incident light is mounted on a side surface in a longitudinal direction different from the mounting surface mounted on the input surface,
A first housing and a second housing;
Control means for controlling a light projection mode by the first light projecting unit and the second light projecting unit so that the plurality of light projecting units are individually turned on;
Determining means for determining a light receiving state at the light receiving unit of the first housing by light projection from each of the first light projecting unit and the second light projecting unit of the second housing;
Generating means for generating posture adjustment information of the sensor unit based on a determination result of the determination means.

以上の構成からなる本発明によれば、座標入力装置の構成部品の調整作業を効率的にかつ容易に行うことができる。   According to the present invention having the above configuration, the adjustment work of the components of the coordinate input device can be performed efficiently and easily.

座標入力装置の概略構成図である。It is a schematic block diagram of a coordinate input device. センサユニットの詳細構成を示す図である。It is a figure which shows the detailed structure of a sensor unit. 投光部と受光部の視野範囲を説明するための図である。It is a figure for demonstrating the visual field range of a light projection part and a light-receiving part. センサバー筐体の概略構成を示す図である。It is a figure which shows schematic structure of a sensor bar housing | casing. 演算制御回路の第1の検出モードの動作を説明するための図である。It is a figure for demonstrating operation | movement of the 1st detection mode of an arithmetic control circuit. 検出信号波形の処理を説明する図である。It is a figure explaining the process of a detection signal waveform. 座標算出を説明する図である。It is a figure explaining coordinate calculation. デジタイザ座標系とスクリーン座標系を説明するための図である。It is a figure for demonstrating a digitizer coordinate system and a screen coordinate system. 演算制御回路の第2の検出モードの動作を説明するための図である。It is a figure for demonstrating operation | movement of the 2nd detection mode of an arithmetic control circuit. センサユニットの相対的な位置関係の算出を説明するための図である。It is a figure for demonstrating calculation of the relative positional relationship of a sensor unit. 初期設定処理を示すフローチャートである。It is a flowchart which shows an initial setting process. 通常動作及びキャリブレーションの処理を示すフローチャートである。It is a flowchart which shows the process of normal operation | movement and a calibration. センサユニットの姿勢調整を説明するための図である。It is a figure for demonstrating the attitude | position adjustment of a sensor unit. 演算制御回路の姿勢調整モードの動作を説明するための図である。It is a figure for demonstrating operation | movement of the attitude | position adjustment mode of a calculation control circuit. センサユニットの姿勢調整を説明するための図である。It is a figure for demonstrating the attitude | position adjustment of a sensor unit. センサユニットの姿勢調整を説明するための図である。It is a figure for demonstrating the attitude | position adjustment of a sensor unit. 姿勢調整モードの処理を示すフローチャートである。It is a flowchart which shows the process of attitude | position adjustment mode. センサユニットの姿勢調整を説明するための図である。It is a figure for demonstrating the attitude | position adjustment of a sensor unit. センサユニットの姿勢調整を説明するための図である。It is a figure for demonstrating the attitude | position adjustment of a sensor unit. センサユニットの姿勢調整を説明するための図である。It is a figure for demonstrating the attitude | position adjustment of a sensor unit. センサユニットの姿勢調整を説明するための図である。It is a figure for demonstrating the attitude | position adjustment of a sensor unit. センサユニットの姿勢調整を説明するための図である。It is a figure for demonstrating the attitude | position adjustment of a sensor unit. センサユニットの姿勢調整を説明するための図である。It is a figure for demonstrating the attitude | position adjustment of a sensor unit. 調整テーブルを示す図である。It is a figure which shows an adjustment table. 姿勢調整モードの処理を示すフローチャートである。It is a flowchart which shows the process of attitude | position adjustment mode. 調整テーブルを示す図である。It is a figure which shows an adjustment table. 姿勢変更部を備える座標入力装置の概略構成図である。It is a schematic block diagram of a coordinate input device provided with an attitude | position change part. 姿勢変更部を備えるセンサユニットの詳細構成を示す図である。It is a figure which shows the detailed structure of a sensor unit provided with an attitude | position change part. 従来技術を説明するための図である。It is a figure for demonstrating a prior art. 従来の光学式座標入力装置の基本構成を説明するための図である。It is a figure for demonstrating the basic composition of the conventional optical coordinate input device.

以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。尚、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<実施形態1>
座標入力装置の概略構成を、図1を用いて説明する。
<Embodiment 1>
A schematic configuration of the coordinate input device will be described with reference to FIG.

図中、1L及び1Rはそれぞれ、少なくとも2個のセンサユニット2−L1及び2−L2、及び2−R1及び2−R2(総称する場合は、センサユニット2と表記)を装備する筐体であるところのセンサバー筐体である。各々のセンサバー筐体1L及び1R(総称する場合は、センサバー筐体1と表記)は、矩形状の座標入力有効領域5の対向する2辺に設けられる。表示装置が仮にフロントプロジェクターとすれば、表示領域は座標入力有効領域5の範囲内に設定され、例えば、平面状のホワイトボード等の入力面6に投影される。無論、入力面6に限定されるものではなく、壁面等であっても良い。   In the figure, 1L and 1R are housings equipped with at least two sensor units 2-L1 and 2-L2, and 2-R1 and 2-R2 (collectively referred to as sensor unit 2), respectively. However, it is a sensor bar housing. Each of the sensor bar casings 1L and 1R (generally referred to as sensor bar casing 1) is provided on two opposing sides of the rectangular coordinate input effective area 5. If the display device is a front projector, the display area is set within the range of the coordinate input effective area 5 and projected onto the input surface 6 such as a flat whiteboard. Of course, it is not limited to the input surface 6 and may be a wall surface or the like.

センサバー筐体1L及び1Rの側面にはそれぞれ、再帰反射部4L及び4R(総称する場合は、再帰反射部4と表記)が装着されている。そして、再帰反射部4L及び4Rはそれぞれ、対向する辺に設けられたセンサバー筐体1Lあるいは1Rのセンサユニットが投光した赤外光を再帰的に反射できるように構成してある。換言すれば、センサバー筐体1L及び1Rの座標入力有効領域5への装着面とは異なる長手方向の側面に、再帰反射部4が装着されている。   Retroreflective portions 4L and 4R (collectively referred to as retroreflecting portions 4 when collectively referred to) are mounted on the side surfaces of the sensor bar housings 1L and 1R, respectively. Each of the retroreflective portions 4L and 4R is configured to recursively reflect the infrared light projected by the sensor unit of the sensor bar casing 1L or 1R provided on the opposite side. In other words, the retroreflective portion 4 is mounted on the side surface in the longitudinal direction different from the mounting surface of the sensor bar housings 1L and 1R to the coordinate input effective area 5.

センサバー筐体1Lにはセンサユニット2−L1及び2−L2が内蔵され、センサバー筐体1Rにはセンサユニット2−R1及び2−R2が内蔵されている。センサバー筐体1Lに内蔵される演算制御回路3Lはセンサユニット2−L1及び2−L2を制御して、その出力結果を演算処理すると共に、センサバー筐体1Rの演算制御回路3Rを制御する。センサバー筐体1Rの演算制御回路3Rは、センサユニット2−R1及び2−R2を制御して、その出力結果を演算処理して、センサバー筐体1Lの演算制御回路3Lにその結果を送信する。そして、センサバー筐体1Lの演算制御回路3Lは、4つのセンサユニット2−L1、2−L2、2−R1及び2−R2からの出力結果を処理して、タッチ位置を算出し、パーソナルコンピュータ等の外部装置へ結果を出力する。   The sensor bar housing 1L includes sensor units 2-L1 and 2-L2, and the sensor bar housing 1R includes sensor units 2-R1 and 2-R2. The arithmetic control circuit 3L built in the sensor bar casing 1L controls the sensor units 2-L1 and 2-L2, performs arithmetic processing on the output results, and controls the arithmetic control circuit 3R of the sensor bar casing 1R. The arithmetic control circuit 3R of the sensor bar housing 1R controls the sensor units 2-R1 and 2-R2, performs arithmetic processing on the output results, and transmits the results to the arithmetic control circuit 3L of the sensor bar housing 1L. Then, the arithmetic control circuit 3L of the sensor bar housing 1L processes the output results from the four sensor units 2-L1, 2-L2, 2-R1 and 2-R2, calculates the touch position, and the personal computer or the like. The result is output to the external device.

図1では、センサバー筐体1Lの演算制御回路3Lとセンサバー筐体1Rの演算制御回路3Rとはコードで接続される構成(つまり、有線接続)となっているが、これに限定されない。例えば、無線等の通信機能を互いに搭載して、それらの通信機能を使用してデータの送受信(無線接続)を行っても良い。また、演算制御回路3Lと演算制御回路3Rとを総称する場合は、演算制御回路3と表記する。   In FIG. 1, the calculation control circuit 3L of the sensor bar casing 1L and the calculation control circuit 3R of the sensor bar casing 1R are connected by a cord (that is, wired connection), but the present invention is not limited to this. For example, wireless communication functions may be mounted on each other, and data transmission / reception (wireless connection) may be performed using these communication functions. Further, the operation control circuit 3L and the operation control circuit 3R are collectively referred to as the operation control circuit 3 when collectively referred to.

尚、以後の説明にあっては、水平方向をX軸(図面右側が+)、天地方向をY軸(下側が+)として説明する。   In the following description, the horizontal direction will be described as the X axis (+ on the right side of the drawing), and the vertical direction will be described as the Y axis (lower side is +).

図2はセンサユニット2−L1、2−L2、2−R1及び2−R2の詳細構成を示す図である。図2(A)は図1における断面A−Aであり、図2(B)及び図2(C)は図中の矢印方向から見た正面図である。   FIG. 2 is a diagram showing a detailed configuration of the sensor units 2-L1, 2-L2, 2-R1, and 2-R2. 2A is a cross section AA in FIG. 1, and FIGS. 2B and 2C are front views as seen from the direction of the arrows in the figure.

図2(A)において、センサユニット2は、センサバー筐体1に収納されており、2つの投光部301及び302(総称する場合は、投光部30と表記)、及び受光部40で構成される。投光部301及び302と、受光部40の距離はそれぞれL_pdであり、その間及び近傍に再帰反射部4−1〜4−3(総称する場合は、再帰反射部4と表記)が設けられている。投光部301は入力面6に近い側に配置され、投光部302は入力面6に遠い側に配置される。つまり、投光部302は、投光部301と比べて、距離L_pd×2だけ、入力面6から離れた位置に配置されることになる。換言すれば、入力面6を基準とすると、投光部301は下段投光部(第1の投光部)、投光部302は上段投光部(第2の投光部)とも言える。投光部301と投光部302の投光形態は、演算制御回路3内の投光形態制御部61bにより変更される。この投光形態制御に関しては、後述する。   In FIG. 2A, the sensor unit 2 is housed in the sensor bar housing 1, and is composed of two light projecting units 301 and 302 (generally referred to as the light projecting unit 30) and a light receiving unit 40. Is done. The distances between the light projecting units 301 and 302 and the light receiving unit 40 are L_pd, and retroreflective units 4-1 to 4-3 (in the generic name, referred to as the retroreflecting unit 4) are provided between and in the vicinity thereof. Yes. The light projecting unit 301 is disposed on the side closer to the input surface 6, and the light projecting unit 302 is disposed on the side farther from the input surface 6. That is, the light projecting unit 302 is disposed at a position away from the input surface 6 by a distance L_pd × 2 as compared with the light projecting unit 301. In other words, when the input surface 6 is used as a reference, it can be said that the light projecting unit 301 is a lower light projecting unit (first light projecting unit) and the light projecting unit 302 is an upper light projecting unit (second light projecting unit). The light projecting forms of the light projecting section 301 and the light projecting section 302 are changed by the light projecting form control section 61 b in the arithmetic control circuit 3. This light projecting form control will be described later.

尚、図2(A)の再帰反射部4を複数に分割して離間させた装着位置は、少なくとも、センサユニット2の投受光窓近傍のみの装着形態である。従って、センサユニット2以外の装着位置に関しては、入力面6から所定距離の範囲内に連続的に装着しても良い。   Note that the mounting position where the retroreflective portion 4 in FIG. 2A is divided into a plurality of parts and separated is at least a mounting form in the vicinity of the light projecting / receiving window of the sensor unit 2. Therefore, the mounting positions other than the sensor unit 2 may be continuously mounted within a predetermined distance from the input surface 6.

45は光透過性の部材であって、センサバー筐体1内へのゴミ等の異物の侵入を防止するための保護部材である。   Reference numeral 45 denotes a light-transmitting member, which is a protective member for preventing foreign matters such as dust from entering the sensor bar casing 1.

図2(B)において、投光部301は、発光部である赤外LED311、投光レンズ321、両者を固定するための接着層331で構成される。もちろん、赤外LED311が投光レンズ321に密着あるいは近接させて光学的に問題なく投光できる構成であれば、この接着形態に限定されるものではない。例えば、赤外LED311が投光レンズ321にばね性のある部材で付勢される構成であっても良い。   2B, the light projecting unit 301 includes an infrared LED 311 which is a light emitting unit, a light projecting lens 321, and an adhesive layer 331 for fixing both. Of course, as long as the infrared LED 311 is in close contact with or close to the light projecting lens 321 and can project light optically without any problem, it is not limited to this bonding form. For example, the infrared LED 311 may be configured to be biased to the light projecting lens 321 by a springy member.

同様に、投光部302も、赤外LED312(図2(A))、投光レンズ322(図2(A))、及び接着層(不図示)で構成され、それらの機能については、投光部301と同一であるため、ここでは、投光部301に着目して説明する。   Similarly, the light projecting unit 302 includes an infrared LED 312 (FIG. 2A), a light projecting lens 322 (FIG. 2A), and an adhesive layer (not shown). Since it is the same as the light part 301, it demonstrates here paying attention to the light projection part 301. FIG.

投光レンズ321は、赤外LED311の光を、入力面6と略平行な光束となるように構成する。赤外LED311を構成する半導体素子の発光部は、実際には点ではなく、ある程度の大きさを有する。従って、投光レンズ321が入力面6と略平行な光束となるように設計されたものであっても、実際は、入力面6の垂直方向に対して拡がりを有する。つまり、受光部40は、投光部301の入力面6の垂直方向に一定の受光角度範囲を持っている。そして、対向する辺に設けられたセンサバー筐体1の再帰反射部4の全領域を照明するように、投光範囲がg〜h範囲であって、頂点が点Oの位置(センサユニット2の重心位置)の扇状の光束を出射する。この時、投光部301の光軸はf方向に設定されることになるが、その理由は後述する。   The light projecting lens 321 is configured so that the light from the infrared LED 311 becomes a light beam substantially parallel to the input surface 6. The light emitting portion of the semiconductor element constituting the infrared LED 311 is not actually a point but has a certain size. Therefore, even if the light projecting lens 321 is designed so as to have a light beam substantially parallel to the input surface 6, it actually has a spread in the vertical direction of the input surface 6. That is, the light receiving unit 40 has a certain light receiving angle range in the direction perpendicular to the input surface 6 of the light projecting unit 301. Then, the light projection range is a range from g to h, and the vertex is the position of the point O (of the sensor unit 2) so as to illuminate the entire region of the retroreflective portion 4 of the sensor bar housing 1 provided on the opposite side. A fan-shaped light beam having a center of gravity position is emitted. At this time, the optical axis of the light projecting unit 301 is set in the f direction, and the reason will be described later.

図2(C)において、受光部40は、投光部301及び302が投光した光が、対向する辺に設けられたセンサバー筐体1に装着されている再帰反射部4によって再帰反射された光を検出する。41は光電変換素子であるところのラインCCD、42は受光レンズ、43は視野絞り、44は赤外線通過フィルターである。また、保護部材45(図2(A))に赤外通過フィルター機能を設けることで、赤外線通過フィルター44を廃止してもかまわない。   In FIG. 2C, in the light receiving unit 40, the light projected by the light projecting units 301 and 302 is retroreflected by the retroreflecting unit 4 attached to the sensor bar housing 1 provided on the opposite side. Detect light. 41 is a line CCD which is a photoelectric conversion element, 42 is a light receiving lens, 43 is a field stop, and 44 is an infrared ray passing filter. Further, the infrared pass filter 44 may be eliminated by providing the protective member 45 (FIG. 2A) with an infrared pass filter function.

受光部40の光軸はX軸方向に設定される。視野範囲はg〜h範囲であり、点Oの位置が光学的な中心位置となっている。また、受光部40は、図示のように光軸に対して非対称な光学系となっている。点Oの位置、及び方向g、方向hが略一致するように、投光部301及び302と受光部40は、図2(A)のように重ねて配置される。また、受光部40は、入射する光の方向に応じて、ラインCCD41の画素に集光されるので、ラインCCD41の画素番号は入射する光の角度情報を表す。また、受光部40は、座標入力有効領域5の座標入力面と略平行な視野範囲を有し、その光軸方向は、ラインCCD41の受光面の法線方向と一致するように配置されている。   The optical axis of the light receiving unit 40 is set in the X-axis direction. The visual field range is the g to h range, and the position of the point O is the optical center position. Further, the light receiving section 40 is an optical system that is asymmetric with respect to the optical axis as shown in the figure. The light projecting units 301 and 302 and the light receiving unit 40 are arranged so as to overlap each other so that the position of the point O and the directions g and h substantially coincide with each other, as shown in FIG. Further, since the light receiving unit 40 is focused on the pixels of the line CCD 41 in accordance with the direction of the incident light, the pixel number of the line CCD 41 represents angle information of the incident light. The light receiving unit 40 has a visual field range substantially parallel to the coordinate input surface of the coordinate input effective area 5, and its optical axis direction is arranged to coincide with the normal direction of the light receiving surface of the line CCD 41. .

図2(A)において、受光部40には受光開口部46が設けられ、入力面6に対して垂直方向の寸法が狭められた構成となっている。これは、互いに対向して配置されたセンサバー筐体1L及び1Rからの再帰反射光以外の外乱光の影響を極力防ぐためである。つまり、受光開口部46を設けることにより、入力面6に平行方向から入射する再帰反射光は受光するが、入力面6に対し斜め方向からの外乱光を遮ることができる。つまり、受光部40における入力面6の垂直方向の受光角度範囲は、意図的に狭められている。このように、受光部40と投光部301及び302は、入力面6に垂直な方向に其々一定の光学的有効角度範囲を有する。この受光部40に係る受光垂直角度範囲と、投光部301及び302に係る投光垂直角度範囲の大小関係、及び、その光学的有効角度範囲と、センサユニット2の姿勢角度調整に関しては後述する。   In FIG. 2A, the light receiving portion 40 is provided with a light receiving opening 46, and the size in the direction perpendicular to the input surface 6 is narrowed. This is to prevent as much as possible the influence of disturbance light other than retroreflected light from the sensor bar housings 1L and 1R arranged to face each other. That is, by providing the light receiving opening 46, retroreflected light incident on the input surface 6 from a parallel direction is received, but disturbance light from an oblique direction to the input surface 6 can be blocked. That is, the light receiving angle range in the vertical direction of the input surface 6 in the light receiving unit 40 is intentionally narrowed. Thus, the light receiving unit 40 and the light projecting units 301 and 302 each have a certain optical effective angle range in the direction perpendicular to the input surface 6. The magnitude relationship between the light receiving vertical angle range related to the light receiving unit 40 and the light projecting vertical angle range related to the light projecting units 301 and 302, the optical effective angle range, and the attitude angle adjustment of the sensor unit 2 will be described later. .

図3(A)は座標入力装置の概略と投光部30及び受光部40の光学系の配置を示す図である。センサバー筐体1Lの投光部30より対向する辺に設けられたセンサバー筐体1Rに設けられた再帰反射部4Rに向けて照明される、入力面6に平行な水平方向範囲はg〜h範囲である。そして、実際に再帰反射部4Rが装着されている範囲j〜fの方向の光が再帰反射され、受光部40で検出される。   FIG. 3A is a diagram showing an outline of the coordinate input device and the arrangement of the optical system of the light projecting unit 30 and the light receiving unit 40. The horizontal range parallel to the input surface 6 that is illuminated toward the retroreflective portion 4R provided on the sensor bar housing 1R provided on the side facing the light projecting unit 30 of the sensor bar housing 1L is a range from g to h. It is. Then, light in the direction of the range j to f in which the retroreflecting unit 4R is actually mounted is retroreflected and detected by the light receiving unit 40.

図2(A)で説明したように、投光部30で投光した光の光束は完全には平行とはならず、投光距離が延びるに従って、その光束幅は広くなる。従って、再帰反射部4Rで再帰反射される光の量は、再帰反射部4Rに到達する距離が長くなれば減少する。従って、投光地点Oから再帰反射部4Rまでの距離が近い方向jに比べて距離の遠い方向fは再帰反射効率が悪い。   As described with reference to FIG. 2A, the luminous flux of the light projected by the light projecting unit 30 is not completely parallel, and the luminous flux width increases as the projection distance increases. Accordingly, the amount of light retroreflected by the retroreflective portion 4R decreases as the distance to reach the retroreflective portion 4R increases. Therefore, the retroreflective efficiency is poor in the direction f far from the direction j where the distance from the projection point O to the retroreflective portion 4R is short.

更には、再帰反射部4Rは再帰反射面に垂直方向から入射した場合より、その角度が斜めになるに従って、再帰反射効率が低下する。換言すれば、再帰反射部4Rに入射する光が再帰反射光として再帰反射する割合は、入射角に依存しており、方向fは最もその再帰反射効率が低下する方向と言える。   Furthermore, the retroreflective portion 4R has a lower retroreflective efficiency as the angle becomes oblique than when it enters the retroreflective surface from the vertical direction. In other words, the rate at which the light incident on the retroreflective portion 4R is retroreflected as retroreflected light depends on the incident angle, and the direction f can be said to be the direction in which the retroreflective efficiency is most reduced.

更には、受光部40の光軸は方向Xに設定されており、方向fが最も光軸となす角度が大きな方向となっている。一般的な光学レンズのレンズ特性は、光軸となす角度が大きくなるに従って性能が劣化することが知られており、例えば、方向fでの集光効率の低下により、その方向が最も暗くなる方向と言える。   Furthermore, the optical axis of the light receiving unit 40 is set in the direction X, and the direction formed by the direction f and the optical axis is the largest direction. It is known that the lens characteristics of a general optical lens deteriorate in performance as the angle with the optical axis increases. For example, the direction in which the direction becomes the darkest due to a decrease in light collection efficiency in the direction f It can be said.

以上より、仮に、投光部30が方向によらず一定の強度で照明することができたとしても、方向jから帰ってくる再帰反射光に比べて、方向Jから方向fに向かうに従って、受光部40で検出できる再帰反射光は弱くなる(図3(B)参照)。   As described above, even if the light projecting unit 30 can illuminate with a constant intensity regardless of the direction, it receives light from the direction J toward the direction f as compared with the retroreflected light returning from the direction j. The retroreflected light that can be detected by the unit 40 becomes weak (see FIG. 3B).

一方で、赤外LED311は光軸方向に光の放射強度が最大となるように構成されるのが一般的である。そして、光軸からのなす角度が大きくなるに従って放射強度は低下することになるが、その度合いを、光軸方向の照明強度の半分となる角度『半値角』で定義することが通常である(図3(C)参照)。   On the other hand, the infrared LED 311 is generally configured so that the light emission intensity is maximized in the optical axis direction. The radiation intensity decreases as the angle formed from the optical axis increases, but the degree is usually defined by an angle “half-value angle” that is half the illumination intensity in the optical axis direction ( (See FIG. 3C).

そこで、再帰反射光レベルが最も弱い方向fに投光部30の光軸を向けることで、方向fの照明強度を増大させ、相対的に方向fから方向jに向かうに従って、照明強度を低下させている。その結果、方向jから方向fまでの間、検出できる再帰反射光の強度を均一化できるようになる(図3(D)参照)ので、方向によらずより安定した信号が得られるようになる。   Therefore, by directing the optical axis of the light projecting unit 30 in the direction f where the retroreflected light level is the weakest, the illumination intensity in the direction f is increased, and the illumination intensity is relatively lowered from the direction f toward the direction j. ing. As a result, the intensity of the retroreflected light that can be detected can be made uniform from the direction j to the direction f (see FIG. 3D), so that a more stable signal can be obtained regardless of the direction. .

尚、例えば、図3(D)の受光部40での受光強度に対して破線で示すような基準光量レベルを設ける場合がある。従来の構成では、センサユニットの姿勢調整において、受光部40での再帰反射光の受光強度に対し、この基準光量レベル以上となる様に調整を行う場合がある。   For example, a reference light amount level as indicated by a broken line may be provided for the light reception intensity at the light receiving unit 40 in FIG. In the conventional configuration, in adjusting the attitude of the sensor unit, the received light intensity of the retroreflected light at the light receiving unit 40 may be adjusted to be equal to or higher than the reference light amount level.

一方、実施形態1では、赤外LED311及び312と投光レンズ321及び322により形成される投光放射強度分布を基に投光部301及び302の光軸を再帰反射光レベルが最も弱い方向fに向ける構成としている。しかし、投光部30の受光部40に対する傾斜角はこれに限定されるものではない。例えば、投光レンズ321及び322自体に非対称となる光学系を搭載する場合には、その光量分布も、図3(C)の放射強度分布も非対称性を有する。この場合、その非対称性を有する分布が最大となる方向と方向fとが一致するように、投光部30の受光部40に対する傾斜角を設定しても良い。   On the other hand, in the first embodiment, the light axis of the light projecting units 301 and 302 is based on the light projection radiation intensity distribution formed by the infrared LEDs 311 and 312 and the light projecting lenses 321 and 322. The structure is aimed at. However, the inclination angle of the light projecting unit 30 with respect to the light receiving unit 40 is not limited to this. For example, in the case where an asymmetric optical system is mounted on the projection lenses 321 and 322 themselves, both the light amount distribution and the radiation intensity distribution of FIG. In this case, the inclination angle of the light projecting unit 30 with respect to the light receiving unit 40 may be set so that the direction in which the distribution having the asymmetry becomes maximum coincides with the direction f.

図4を用いて、センサバー筐体1Lの構成の詳細を説明する。尚、図4では、センサバー筐体1Lに着目して説明するが、センサバー筐体1Rも同様の構成を有する。   Details of the configuration of the sensor bar casing 1L will be described with reference to FIG. In FIG. 4, the sensor bar casing 1 </ b> L will be described while focusing on the sensor bar casing 1 </ b> L, but the sensor bar casing 1 </ b> R has the same configuration.

センサバー筐体1には、伸縮機構(2つのセンサユニットの重心を結ぶ線分方向に伸縮する伸縮部)が設けている。これにより、センサバー筐体1の長さを、言い換えればセンサバー筐体1に内蔵される2つのセンサユニット2のセンサ間の距離を可変にできるように構成している。実際には、例えば、縦寸法900〜1200mmのホワイトボードの平面部分の大きさ820mmから1200mmに装着できるように、センサバー筐体1の外形長さが820mmから1200mmまで可変できる構成とする。   The sensor bar housing 1 is provided with an expansion / contraction mechanism (an expansion / contraction portion that expands and contracts in the direction of a line segment that connects the centers of gravity of the two sensor units). Thus, the length of the sensor bar casing 1, in other words, the distance between the sensors of the two sensor units 2 built in the sensor bar casing 1 can be made variable. Actually, for example, the outer length of the sensor bar casing 1 can be varied from 820 mm to 1200 mm so that the size of the flat portion of the whiteboard having a vertical dimension of 900 to 1200 mm can be mounted from 820 mm to 1200 mm.

尚、図1では、ホワイトボードの左右2箇所にセンサバー筐体を装着するものとして、ホワイトボードの縦寸法を基準にして伸縮量を設定しているが、これに限定されるものではない。例えば、ホワイトボードの左右でなく、上下2箇所に装着することを想定する場合には、センサバー筐体1を伸ばした時の最大寸法はより長く設定することになる。さらには、壁面等により大きな画面を投影した場合でも使えるようにすることを想定する場合には、想定する最大表示画面の大きさに応じて、センサバー筐体の伸縮量を設定することになる。   In FIG. 1, the sensor bar housings are mounted at two positions on the left and right sides of the whiteboard, and the expansion / contraction amount is set based on the vertical dimension of the whiteboard. However, the present invention is not limited to this. For example, when it is assumed that the sensor board is mounted not at the left and right sides of the whiteboard but at two places above and below, the maximum dimension when the sensor bar casing 1 is extended is set longer. Furthermore, when it is assumed that the screen can be used even when a large screen is projected on a wall surface or the like, the expansion / contraction amount of the sensor bar housing is set according to the assumed size of the maximum display screen.

図4(A)は、センサバー筐体1の概略構成を示しており、センサバー筐体1は、上側筐体51、及び下側筐体52で構成される。53は外側パイプ、54は内側パイプで有り、外側パイプ53の内径と内側パイプ54の外形が略勘合の関係にある。外側パイプ53は上側筐体51に固定され、内側パイプ54は下側筐体52に固定される。上側筐体51と下側筐体52とでセンサバー筐体1の長さを伸縮させようとすると、外側パイプ53と内側パイプ54が勘合関係を維持した状態でスライドする(図4(B)参照)。これらのパイプを金属製とすることで、伸縮動作時のセンサバー筐体1の伸縮方向や機械的強度を得ている。金属製パイプの一端は絞り加工が施され、押しつぶされた状態となり、その部分で筐体に機械的に結合されると共に、センサユニット2が装着される。   FIG. 4A shows a schematic configuration of the sensor bar casing 1, and the sensor bar casing 1 includes an upper casing 51 and a lower casing 52. Reference numeral 53 denotes an outer pipe, and reference numeral 54 denotes an inner pipe. The inner diameter of the outer pipe 53 and the outer shape of the inner pipe 54 are in a substantially fitting relationship. The outer pipe 53 is fixed to the upper casing 51, and the inner pipe 54 is fixed to the lower casing 52. When the length of the sensor bar casing 1 is extended or contracted between the upper casing 51 and the lower casing 52, the outer pipe 53 and the inner pipe 54 slide in a state in which the mating relationship is maintained (see FIG. 4B). ). By making these pipes made of metal, the direction of expansion and contraction and the mechanical strength of the sensor bar casing 1 during expansion and contraction are obtained. One end of the metal pipe is drawn and crushed, and is mechanically coupled to the housing at that portion, and the sensor unit 2 is mounted.

図4(C)は、従来技術であるところの軸対称な光学系を採用している投光部の例である。受光部40に必要な視野範囲を確保するために、センサバー筐体のスライド方向に対して、受光部40の光学系の光軸は傾いた状態にならざるを得ない。その結果、その光学系を収納するセンサバー筐体1の幅Lwが、センサバー筐体1の幅より大きくなってしまう。   FIG. 4C is an example of a light projecting unit that employs an axially symmetric optical system, which is a conventional technique. In order to secure a necessary visual field range for the light receiving unit 40, the optical axis of the optical system of the light receiving unit 40 must be inclined with respect to the sliding direction of the sensor bar housing. As a result, the width Lw of the sensor bar casing 1 that houses the optical system becomes larger than the width of the sensor bar casing 1.

図4(C)において、十分に大きな視野範囲を有する受光部40の光学系(例えば、光軸を中心として±50°の視野範囲を採用した場合を考える。図3(A)に於いて、受光光学系の視野範囲は方向hから方向mの範囲であり、光軸方向Xに対して、角度Xoh=角度Xom=50°の関係となる。座標入力装置が必要とする視野範囲は、対向する辺に設けられた再帰反射部4の全域をカバーする範囲(方向fから方向jの範囲)のみである。つまり、片側略半分の視野範囲(方向jから方向mの範囲)は無効な領域となる。従って、このような場合であっても、受光部40の有効な視野範囲は、実質的に非対称な光学系を採用している構成した場合の視野範囲と同等と言える。   4C, consider a case where an optical system of the light receiving unit 40 having a sufficiently large visual field range (for example, a visual field range of ± 50 ° around the optical axis is employed. In FIG. The field-of-view range of the light receiving optical system is a range from the direction h to the direction m, and has a relationship of angle Xoh = angle Xom = 50 ° with respect to the optical axis direction X. The field-of-view range required by the coordinate input device is opposite. Only the range (the range from the direction f to the direction j) that covers the entire area of the retroreflective portion 4 provided on the side to be in. That is, the visual field range (the range from the direction j to the direction m) on one side is an invalid area. Therefore, even in such a case, it can be said that the effective visual field range of the light receiving unit 40 is equivalent to the visual field range in the case where a substantially asymmetric optical system is employed.

図5(A)は演算制御回路3のブロック図である。本実施形態におけるセンサバー筐体1Lの演算制御回路3Lとセンサバー筐体1Rの演算制御回路3Rは、外部へのインタフェース仕様を除き、いずれも同様の回路構成であり、接続される対応するセンサユニット2の制御、演算を行う。図5(A)は、特に、センサバー筐体1Lの演算制御回路3Lの構成を示している。   FIG. 5A is a block diagram of the arithmetic control circuit 3. The arithmetic control circuit 3L of the sensor bar casing 1L and the arithmetic control circuit 3R of the sensor bar casing 1R in this embodiment have the same circuit configuration except for the interface specifications to the outside, and the corresponding sensor unit 2 to be connected is connected. Control and calculation. FIG. 5A particularly shows the configuration of the arithmetic control circuit 3L of the sensor bar casing 1L.

センサユニット2−L1及び2−L2のラインCCD41用のCCD制御信号は、ワンチップマイコン等で構成されるCPU61から出力され、ラインCCD41のシャッタータイミングやデータの出力制御等を行う。CCD用のクロックはクロック発生回路CLK62から各センサユニット2−L1及び2−L2に送信されるとともに、ラインCCD41との同期をとって各種制御を行うためにCPU61にも入力されている。尚、センサユニット2−L1及び2−L2の赤外LED311を駆動するLED駆動信号は、CPU61から供給される。   The CCD control signals for the line CCD 41 of the sensor units 2-L1 and 2-L2 are output from the CPU 61 constituted by a one-chip microcomputer or the like, and perform shutter timing of the line CCD 41, data output control, and the like. The CCD clock is transmitted from the clock generation circuit CLK62 to each of the sensor units 2-L1 and 2-L2, and is also input to the CPU 61 for performing various controls in synchronization with the line CCD 41. The LED drive signal for driving the infrared LEDs 311 of the sensor units 2-L1 and 2-L2 is supplied from the CPU 61.

センサユニット2−L1及び2−L2それぞれのラインCCD41からの検出信号は、A/Dコンバータ63に入力され、CPU61からの制御によって、デジタル値に変換される。変換されたデジタル値はメモリ64に記憶され、角度計算に用いられる。そして、計算された角度情報から幾何学的なタッチ位置を算出し、外部PC等の情報処理装置にインタフェース68(例えば、USBインタフェース)を介して出力される。   Detection signals from the line CCDs 41 of the sensor units 2-L1 and 2-L2 are input to the A / D converter 63 and converted into digital values under the control of the CPU 61. The converted digital value is stored in the memory 64 and used for angle calculation. Then, a geometric touch position is calculated from the calculated angle information, and is output to an information processing apparatus such as an external PC via an interface 68 (for example, a USB interface).

各センサバー筐体1の演算制御回路3は、各々2つのセンサユニット2を制御している。仮に、センサバー筐体1Lの演算制御回路3Lがメイン機能を果たすものとすれば、CPU61はシリアル通信部67を介して、センサバー筐体1Rの演算制御回路3Rに制御信号を送信して、回路間の同期を行う。そして、演算制御回路3Rから、必要なデータの取得を行うことになる。   The arithmetic control circuit 3 of each sensor bar casing 1 controls two sensor units 2. If the arithmetic control circuit 3L of the sensor bar casing 1L fulfills the main function, the CPU 61 transmits a control signal to the arithmetic control circuit 3R of the sensor bar casing 1R via the serial communication unit 67 to Synchronize. Then, necessary data is acquired from the arithmetic control circuit 3R.

演算制御回路3L及び3R間の動作は、マスター・スレーブ制御にて動作する。本実施形態の場合、演算制御回路3Lがマスターで、演算制御回路3Rがスレーブである。尚、各演算制御回路は、マスター・スレーブのどちらにもなりうるが、ディップスイッチ(不図示)等の切替部で、CPUのポートに切替信号を入力することで、マスター・スレーブの切替が可能となっている。   The operation between the arithmetic control circuits 3L and 3R is performed by master / slave control. In the present embodiment, the arithmetic control circuit 3L is a master, and the arithmetic control circuit 3R is a slave. Each arithmetic control circuit can be either a master or a slave, but the master / slave can be switched by inputting a switching signal to the CPU port with a switching unit such as a DIP switch (not shown). It has become.

マスターであるセンサバー筐体1Lの演算制御回路3Lからは、対向する辺に設けられたセンサバー筐体1Rのセンサユニット2−R1及び2−R2のデータを取得するために、制御信号がスレーブの演算制御回路3Rにシリアル通信部67を介して送信される。そして、センサユニット2−R1及び2−R2で得られた角度情報が算出され、シリアル通信部67を介してマスター側の演算制御回路3Lに送信される。   In order to obtain the data of the sensor units 2-R1 and 2-R2 of the sensor bar casing 1R provided on the opposite side from the arithmetic control circuit 3L of the sensor bar casing 1L as the master, the control signal is a slave calculation. The data is transmitted to the control circuit 3R via the serial communication unit 67. Then, the angle information obtained by the sensor units 2-R1 and 2-R2 is calculated and transmitted to the arithmetic control circuit 3L on the master side via the serial communication unit 67.

尚、インタフェース68は、本実施形態の場合、マスター側の演算制御回路3Lに実装されることになる。   In the case of this embodiment, the interface 68 is mounted on the arithmetic control circuit 3L on the master side.

また、演算制御回路3Lは、上述のように、CPU61を中心に、クロック発生回路CLK62、A/Dコンバータ63、メモリ64を備える。そして、演算制御回路3L内のCPU61によって、受光部の受光状態を判定し、その判定結果に応じてセンサユニット2の姿勢補正情報(補正姿勢方向/姿勢調整量)を生成する受光判定部61aが実現される。また、演算制御回路3L内のCPU61によって、センサユニット2中の2つの投光部301及び302の投光形態を制御する投光形態制御部61bが実現される。投光形態の制御の詳細に関しては後述する。   The arithmetic control circuit 3L includes the clock generation circuit CLK62, the A / D converter 63, and the memory 64 with the CPU 61 as the center as described above. Then, the CPU 61 in the arithmetic control circuit 3L determines the light reception state of the light receiving unit, and the light reception determination unit 61a that generates the posture correction information (corrected posture direction / posture adjustment amount) of the sensor unit 2 according to the determination result. Realized. In addition, the CPU 61 in the arithmetic control circuit 3L implements a light projecting form control unit 61b that controls the light projecting forms of the two light projecting parts 301 and 302 in the sensor unit 2. Details of the control of the projection mode will be described later.

また、66は、指示具として、赤外線を発光する専用ペン(不図示)を使用した時の赤外線受光部である。65は専用ペンからの信号をデコードするためのサブCPUである。専用ペンは、ペン先が入力面を押圧したことを検知するスイッチや、ペン筐体サイド部に種々のスイッチを有する。それらのスイッチの状態やペンの識別情報を専用ペンに設けられた赤外線発光部で送信することにより、専用ペンの操作状態を検知することが可能となる。   Reference numeral 66 denotes an infrared light receiving unit when a dedicated pen (not shown) that emits infrared light is used as an indicator. Reference numeral 65 denotes a sub CPU for decoding a signal from the dedicated pen. The dedicated pen has a switch that detects that the pen tip has pressed the input surface, and various switches on the side of the pen housing. It is possible to detect the operation state of the dedicated pen by transmitting the state of those switches and the identification information of the pen by the infrared light emitting unit provided in the dedicated pen.

図5(B)はセンサユニット2を動作させるためにマスター側の演算制御回路3LのCPU61が出力する制御信号、及びセンサユニット2の動作を示すタイミングチャートである。   FIG. 5B is a timing chart showing a control signal output from the CPU 61 of the arithmetic control circuit 3L on the master side in order to operate the sensor unit 2 and the operation of the sensor unit 2.

71、72、73がラインCCD41制御用の制御信号であり、SH信号71の間隔でラインCCD41のシャッター開放時間が決定される。ICGL信号72はセンサバー筐体1Lのセンサユニット2−L1及び2−L2へのゲート信号であり、ラインCCD41内部の光電変換部の電荷を読出部へ転送する信号である。   71, 72 and 73 are control signals for controlling the line CCD 41, and the shutter opening time of the line CCD 41 is determined by the interval of the SH signal 71. The ICGL signal 72 is a gate signal to the sensor units 2-L1 and 2-L2 of the sensor bar housing 1L, and is a signal for transferring the charge of the photoelectric conversion unit in the line CCD 41 to the reading unit.

CCDL信号74は、センサユニット2−L1及び2−L2のラインCCD41のシャッター開放時間を示す信号である。ICGR信号73は、対向するセンサバー筐体1Rのセンサユニット2−R1及び2−R2へのゲート信号であり、シリアル通信部67を介してセンサバー筐体1Rの演算制御回路3Rに送信される。そして、演算制御回路3RがラインCCD41内部の光電変換部の電荷を読出部へ転送する信号を生成する。CCDR信号75は、センサユニット2−R1及び2−R2のラインCCD41のシャッター開放時間を示す信号である。   The CCDL signal 74 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 2-L1 and 2-L2. The ICGR signal 73 is a gate signal to the sensor units 2-R1 and 2-R2 of the opposing sensor bar casing 1R, and is transmitted to the arithmetic control circuit 3R of the sensor bar casing 1R via the serial communication unit 67. Then, the arithmetic control circuit 3R generates a signal for transferring the charge of the photoelectric conversion unit in the line CCD 41 to the reading unit. The CCDR signal 75 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 2-R1 and 2-R2.

尚、通常の座標入力動作における以下の駆動タイミングに関しては、投光部301の赤外LED311が主として転送するので、下段の赤外LED311で代表して示す。   The following driving timing in the normal coordinate input operation is mainly represented by the lower infrared LED 311 because the infrared LED 311 of the light projecting unit 301 mainly transfers.

LEDL信号76及びLEDR信号77は、各センサユニット2L及び2Rの赤外LED311の駆動信号である。SH信号71の最初の周期でセンサバー筐体1Lのセンサユニット2−L1及び2−L2の赤外LED311を点灯するために、LEDL信号76が各々のLED駆動回路(不図示)を経て赤外LED311に供給される。   The LEDL signal 76 and the LEDR signal 77 are drive signals for the infrared LEDs 311 of the sensor units 2L and 2R. In order to light the infrared LEDs 311 of the sensor units 2-L1 and 2-L2 of the sensor bar housing 1L in the first cycle of the SH signal 71, the LEDL signal 76 passes through each LED drive circuit (not shown) and the infrared LEDs 311. To be supplied.

そして、SH信号71の次の周期で、対向する辺に設けられたセンサバー筐体1Rのセンサユニット2−R1及び2−R2の赤外LED311を点灯するために、LEDR信号77がシリアル通信部67を介して演算制御回路3Rに送信される。そして、演算制御回路3Rが各々のLED駆動回路に供給するための信号を生成する。   Then, in order to turn on the infrared LEDs 311 of the sensor units 2-R1 and 2-R2 of the sensor bar casing 1R provided on the opposite sides in the next cycle of the SH signal 71, the LEDR signal 77 is sent to the serial communication unit 67. Is transmitted to the arithmetic control circuit 3R. Then, the arithmetic control circuit 3R generates a signal to be supplied to each LED drive circuit.

赤外LED311の駆動、及びラインCCD41のシャッター開放が終了した後に、ラインCCD41の信号がセンサユニット2から読み出され、後述する方法で角度情報を算出する。そして、スレーブ側の演算制御回路3Rの演算結果はマスター側の演算制御回路3Lに送信される。   After the driving of the infrared LED 311 and the shutter release of the line CCD 41 are completed, the signal of the line CCD 41 is read from the sensor unit 2 and angle information is calculated by a method described later. Then, the calculation result of the slave-side calculation control circuit 3R is transmitted to the master-side calculation control circuit 3L.

以上のように動作させることで、センサバー筐体1Lのセンサユニット2−L1及び2−L2と対向するセンサバー筐体1Rのセンサユニット2−R1及び2−R2とは、異なるタイミングで動作するようになる。このように構成することで、対向する辺に設けられたセンサユニットの赤外光を検出することなく、センサユニット自身が発光した再帰反射光のみを検出できる。   By operating as described above, the sensor units 2-R1 and 2-R2 of the sensor bar casing 1R facing the sensor units 2-L1 and 2-L2 of the sensor bar casing 1L operate at different timings. Become. By comprising in this way, only the retroreflected light which sensor unit itself emitted can be detected, without detecting the infrared light of the sensor unit provided in the edge | side which opposes.

図6を用いて、センサバー筐体1のセンサユニット2から出力される信号について説明する。先ず、センサユニット2の投光部30の発光が無い状態である場合の受光部40の出力は図6(A)となり、発光が有る場合の受光部40の出力は図6(B)となる。図6(B)において、レベルAが検出した光量の最大レベルであり、レベルBが光を全く検出(受光)できてないレベルと言える。   A signal output from the sensor unit 2 of the sensor bar casing 1 will be described with reference to FIG. First, the output of the light receiving unit 40 when there is no light emission of the light projecting unit 30 of the sensor unit 2 is FIG. 6A, and the output of the light receiving unit 40 when there is light emission is FIG. 6B. . In FIG. 6B, level A is the maximum level of light quantity detected, and level B can be said to be a level at which no light can be detected (received).

センサユニット2が発光した赤外線は、対向する辺に設けられた再帰反射部4で再帰反射され、自身のセンサユニット2で検出される。従って、光出力が得られ始める画素番号Njの方向は図3における方向jであり、同様に、画素番号Nfの方向は図3における方向fということになる。画素番号Njから画素番号Nfまでの光量は、表示画面の大きさやそのアスペクト比、それに対応したセンサバー筐体1の配置状態(特に、2つのセンサバー筐体1間の距離)や伸縮状態等によって変化する。   The infrared light emitted from the sensor unit 2 is retroreflected by the retroreflecting unit 4 provided on the opposite side and is detected by the sensor unit 2 itself. Therefore, the direction of the pixel number Nj from which the light output starts to be obtained is the direction j in FIG. 3, and similarly, the direction of the pixel number Nf is the direction f in FIG. The amount of light from the pixel number Nj to the pixel number Nf varies depending on the size of the display screen, its aspect ratio, the arrangement state of the sensor bar housing 1 corresponding thereto (particularly the distance between the two sensor bar housings 1), the expansion / contraction state, etc. To do.

座標入力装置は、最適な光量レベルが得られるように、SH信号を制御することによって、ラインCCD41のシャッター開放時間、及び赤外LED311の露光時間を調整する。センサユニット2から得られる光量が多ければ時間を短くし、逆に少なければ時間を長く設定することができる。さらには、検出光量レベルに応じて、赤外LED311に流す電流を調整しても良い。このように出力信号を監視することで、最適な光量が得られるように構成されている。このような調整を、レベル変動が有った場合に適宜行う仕様としても良い。もしくは、センサバー筐体1が設置され、その状態が保持されている間は、安定した一定の信号が得られるはずであるので、このような光量の調整は、設置が完了した電源投入時に行えばよい。   The coordinate input device adjusts the shutter open time of the line CCD 41 and the exposure time of the infrared LED 311 by controlling the SH signal so as to obtain an optimal light level. If the amount of light obtained from the sensor unit 2 is large, the time can be shortened. Conversely, if the amount of light is small, the time can be set long. Further, the current flowing through the infrared LED 311 may be adjusted according to the detected light amount level. By monitoring the output signal in this way, an optimum light amount can be obtained. Such adjustment may be made as appropriate when there is a level fluctuation. Alternatively, while the sensor bar housing 1 is installed and maintained, a stable and constant signal should be obtained. Therefore, such light amount adjustment can be performed when the power is turned on after installation is completed. Good.

再び、図6に戻り、座標入力有効領域5の入力面6をタッチすることで光路を遮ると、図6(C)のように、例えば、画素番号Ncで光量が検出できなくなる。座標入力装置は、この図6(A)〜図6(C)の信号を用いて、タッチした方向、言い換えると、角度を算出する。   Returning again to FIG. 6, if the optical path is blocked by touching the input surface 6 of the coordinate input effective area 5, the light quantity cannot be detected with the pixel number Nc, for example, as shown in FIG. 6C. The coordinate input device calculates the touched direction, in other words, the angle, using the signals shown in FIGS. 6 (A) to 6 (C).

まず、システムの起動時、システムのリセット時、あるいは自動的に、基準データを取得する。以降、一つのセンサユニット2のデータ処理について説明するが、他のセンサユニットでも同様の処理を行っている。   First, reference data is acquired when the system is started, when the system is reset, or automatically. Hereinafter, the data processing of one sensor unit 2 will be described, but the same processing is performed in other sensor units.

電源投入時、ユーザによるタッチ操作が行われてない状態で、投光部30の照明無しの状態でラインCCD41の出力をA/Dコンバータ63によりA/D変換して、この値をBase_Data[N]としてメモリ64に記憶する。これは、ラインCCD41のバイアスのばらつき等を含んだデータとなり、図6(A)のレベルB付近のデータとなる。ここで、[N]はラインCCD41のCCD画素番号であり、有効な入力範囲に対応する画素番号が用いられる。   When the power is turned on, the output of the line CCD 41 is A / D converted by the A / D converter 63 in a state where no touch operation is performed by the user and the light projecting unit 30 is not illuminated, and this value is converted to Base_Data [N ] In the memory 64. This is data including variations in the bias of the line CCD 41 and the like, and is data in the vicinity of level B in FIG. Here, [N] is the CCD pixel number of the line CCD 41, and a pixel number corresponding to an effective input range is used.

同様に、ユーザによるタッチ操作が行われてない状態で、投光部30から投光した状態での光量分布を取得して記憶する。これは、図6(B)の実線で表されたデータであり、Ref_Data[N]としてメモリ64に記憶する。これにより、初期データとして2種類のデータの記憶を管理する。   Similarly, the light amount distribution in a state where light is projected from the light projecting unit 30 in a state where no touch operation is performed by the user is acquired and stored. This is data represented by a solid line in FIG. 6B and is stored in the memory 64 as Ref_Data [N]. This manages the storage of two types of data as initial data.

その後、サンプリングを開始することになるが、タッチ操作が行われてなければ、図6(B)に示すデータは、タッチ操作が行われると、そのタッチ位置に応じて影Cが検出された図6(C)に示すデータが検出される。この投光部30の照明有りの状態で得られるサンプルデータをNorm_Data[N]と定義する。   Thereafter, sampling is started. If no touch operation is performed, the data shown in FIG. 6B is a diagram in which a shadow C is detected according to the touch position when the touch operation is performed. Data shown in 6 (C) is detected. Sample data obtained when the light projecting unit 30 is illuminated is defined as Norm_Data [N].

これらのデータ(メモリ64に記憶されているBase_Data[N]とRef_Data[N])を用いて、まずは、指示具の入力の有無、遮光部分の有無の判定を行う。まず、遮光部分を特定するために、データの変化の絶対量を各々の画素において算出し、予め設定してある閾値Vthaと比較する。   Using these data (Base_Data [N] and Ref_Data [N] stored in the memory 64), first, the presence / absence of the input of the pointing tool and the presence / absence of the light shielding portion are determined. First, in order to identify the light-shielding portion, the absolute amount of data change is calculated for each pixel and compared with a preset threshold value Vtha.

Norm_Data0[N] = Norm_Data[N] - Ref_Data[N] (1)
ここで、Norm_Data0[N]は、各画素における絶対変化量であり、閾値比較により、ノイズ等による誤判定を防止し、所定量の確実な変化を検出する。そして、閾値を超えるデータが、例えば、所定数以上の連続した画素で発生した場合に、タッチ操作が有ると判定する。この処理は、差を取り比較するだけなので、短時間での演算が可能であり、入力の有無判定を高速に行うことができる。
Norm_Data0 [N] = Norm_Data [N]-Ref_Data [N] (1)
Here, Norm_Data0 [N] is an absolute change amount in each pixel, and prevents erroneous determination due to noise or the like by threshold comparison, and detects a certain amount of reliable change. Then, when data exceeding the threshold value is generated in, for example, a predetermined number or more of continuous pixels, it is determined that there is a touch operation. Since this process only takes a difference and compares it, it is possible to perform a calculation in a short time and to determine whether or not there is an input at high speed.

次に、より高精度に検出するために、画素データの変化の比を計算して入力点の決定を(2)式を用いて行う。   Next, in order to detect with higher accuracy, the ratio of changes in pixel data is calculated, and the input point is determined using equation (2).

Norm_DataR[N] = Norm_Data0[N] / (Base_Data[N] - Ref_Data[N]) (2)
この画素データ(光量分布)に対して、別途設定される閾値Vthrを適用する。そして、その閾値Vthrを横切る点に対応する、光量分布中の遮光部分に対応する光量変動領域の立ち上がり部と立ち下がり部の画素番号から、両者の中央を指示具による入力に対応する画素とすることで、角度を算出する。
Norm_DataR [N] = Norm_Data0 [N] / (Base_Data [N]-Ref_Data [N]) (2)
A separately set threshold value Vthr is applied to the pixel data (light quantity distribution). Then, based on the pixel numbers of the rising and falling portions of the light amount fluctuation region corresponding to the light shielding portion in the light amount distribution corresponding to the point crossing the threshold value Vthr, the center of both is set as the pixel corresponding to the input by the pointing tool. Thus, the angle is calculated.

図6(D)は変化の比の計算を終了後の検出結果の例である。今、閾値Vthrで検出すると、遮光部分の立ち上がり部分は、Ns番目の画素でレベルLsとなり閾値Vthrを超えたとする。さらに、Nt番目の画素でレベルLtとなり閾値Vthrを下まわったとする。   FIG. 6D shows an example of the detection result after the calculation of the change ratio. Now, when detecting with the threshold value Vthr, it is assumed that the rising portion of the light-shielding portion becomes the level Ls at the Ns-th pixel and exceeds the threshold value Vthr. Furthermore, it is assumed that the level becomes Lt at the Ntth pixel and falls below the threshold value Vthr.

この時、出力すべきラインCCD41の画素番号Npを、立ち上がり部と立ち下がり部の画素番号の中央値として式(3)のように計算しても良いが、そうすると、ラインCCD41の画素間隔が出力画素番号の分解能になる。   At this time, the pixel number Np of the line CCD 41 to be output may be calculated as the median value of the pixel numbers of the rising and falling portions as in Expression (3), but in this case, the pixel interval of the line CCD 41 is output. It becomes the resolution of the pixel number.

Np = Ns + (Nt - Ns) / 2 (3)
そこで、より高分解能に検出するために、それぞれの画素のデータレベルとその一つ前の隣接画素のデータレベルを用い、閾値Vthrを横切る仮想の画素番号を計算する。
Np = Ns + (Nt-Ns) / 2 (3)
Therefore, in order to detect with higher resolution, a virtual pixel number crossing the threshold value Vthr is calculated using the data level of each pixel and the data level of the immediately preceding adjacent pixel.

画素NsのレベルをLs、画素Ns−1番のレベルをLs−1、そして、画素NtのレベルをLt、画素Nt−1のレベルをLt−1とすると、それぞれの仮想画素番号Nsv、Ntvは、
Nsv = Ns-1 + ( Vthr - Ls-1 ) / ( Ls -LS-1 ) (4)
Ntv = Nt-1 + ( Vthr - Lt-1 ) / ( Lt -Lt-1 ) (5)
と計算できる。この計算式によれば、出力レベルに応じた仮想画素番号、つまり、ラインCCD41の画素番号よりも細かい画素番号を取得できる。そして、これらの仮想画素番号Nsv、Ntvの仮想中心画素Npvは、式(6)で決定される。
If the level of the pixel Ns is Ls, the level of the pixel Ns-1 is Ls-1, the level of the pixel Nt is Lt, and the level of the pixel Nt-1 is Lt-1, the respective virtual pixel numbers Nsv and Ntv are ,
Nsv = Ns-1 + (Vthr-Ls-1) / (Ls -LS-1) (4)
Ntv = Nt-1 + (Vthr-Lt-1) / (Lt -Lt-1) (5)
Can be calculated. According to this calculation formula, a virtual pixel number corresponding to the output level, that is, a pixel number smaller than the pixel number of the line CCD 41 can be acquired. And the virtual center pixel Npv of these virtual pixel numbers Nsv and Ntv is determined by Expression (6).

Npv = Nsv + ( Ntv - Nsv ) / 2 (6)
このように、閾値Vthrを越えるデータレベルの画素の画素番号とその隣接する画素番号と、それらのデータレベルから、所定レベルの閾値Vthrを横切る仮想的な仮想画素番号を計算することで、より分解能の高い検出を実現できる。
Npv = Nsv + (Ntv-Nsv) / 2 (6)
Thus, by calculating the virtual virtual pixel number that crosses the threshold value Vthr of the predetermined level from the pixel number of the pixel of the data level exceeding the threshold value Vthr, the adjacent pixel number, and the data level thereof, the resolution can be further increased. High detection can be realized.

このように得られた中心画素番号から、実際の指示具の座標値を計算するためには、この中心画素番号を角度情報に変換する必要がある。   In order to calculate the actual coordinate value of the pointing tool from the center pixel number obtained in this way, it is necessary to convert the center pixel number into angle information.

後述する実際の座標計算では、角度そのものよりもその角度における正接(tangent)の値を計算するほうが都合がよい。尚、画素番号から、tanθへの変換には、テーブル参照や変換式を用いる。変換式は、例えば、高次の多項式を用いると精度を確保できるが、次数等は計算能力及び精度スペック等を鑑みて決定すればよい。   In actual coordinate calculation described later, it is more convenient to calculate the value of the tangent at the angle rather than the angle itself. A table reference or a conversion formula is used for conversion from the pixel number to tan θ. For example, a high-order polynomial can be used as the conversion formula to ensure accuracy, but the order and the like may be determined in consideration of calculation capability, accuracy specifications, and the like.

ここで、5次多項式を用いる場合の例を示すと、5次多項式を用いる場合には係数が6個必要になるので、出荷時等にこの係数データを不揮発性メモリ等のメモリに記憶しておけばよい。今、5次多項式の係数をL5、L4、L3、L2、L1、L0としたとき、tanθは
tanθ=(L5*Npr+L4)*Npr+L3)*Npr+L2)*Npr+L1)*Npr+L0 (7)
であらわすことができる。同様なことを、各々のセンサユニットに対して行えば、それぞれの角度データを決定できる。もちろん、上記例では、tanθを計算しているが、角度データそのものを計算し、その後、tanθを計算しても構わない。
Here, an example in the case of using a 5th order polynomial requires 6 coefficients when using a 5th order polynomial, so this coefficient data is stored in a memory such as a non-volatile memory at the time of shipment or the like. Just keep it. Now, when the coefficients of the fifth-order polynomial are L5, L4, L3, L2, L1, and L0, tan θ is
tanθ = (L5 * Npr + L4) * Npr + L3) * Npr + L2) * Npr + L1) * Npr + L0 (7)
Can be represented. If the same thing is done for each sensor unit, the respective angle data can be determined. Of course, in the above example, tan θ is calculated, but the angle data itself may be calculated, and then tan θ may be calculated.

図7は、画面座標との位置関係を示す図である。センサバー筐体1Lのセンサユニット2−L1の視野範囲は方向jから方向fの範囲であり、角度の正負を図示のように設定する。そして、センサユニット2−L1の光軸はX軸方向であり、その方向を角度0°と定義する。同様に、センサユニット2−L2の視野範囲は方向fから方向jの範囲であり、角度の正負を図示のように設定し、及び、センサユニット2−L2の光軸の方向を角度0°と定義する。そして、センサユニット2−L1の光軸中心とセンサユニット2−L2の光軸中心を結ぶ線分をY軸と定義すれば、各センサユニットの光軸はその線分の法線方向となる。また、センサユニット2−L1の光軸中心とセンサユニット2−L2の光軸中心との距離をdhと定義する。   FIG. 7 is a diagram illustrating a positional relationship with the screen coordinates. The visual field range of the sensor unit 2-L1 of the sensor bar housing 1L is a range from the direction j to the direction f, and the positive and negative angles are set as illustrated. The optical axis of the sensor unit 2-L1 is the X-axis direction, and the direction is defined as an angle of 0 °. Similarly, the field-of-view range of the sensor unit 2-L2 is a range from the direction f to the direction j, the positive / negative of the angle is set as illustrated, and the direction of the optical axis of the sensor unit 2-L2 is an angle of 0 °. Define. Then, if a line segment connecting the optical axis center of the sensor unit 2-L1 and the optical axis center of the sensor unit 2-L2 is defined as the Y axis, the optical axis of each sensor unit is the normal direction of the line segment. Further, the distance between the optical axis center of the sensor unit 2-L1 and the optical axis center of the sensor unit 2-L2 is defined as dh.

今、点Pの位置でタッチ操作が行われた場合を想定する。   Assume that a touch operation is performed at the point P.

センサユニット2−L1で算出される角度はθL1であり、センサユニット2−L2で算出される角度はθL2である。この2つの角度情報と距離dhを用いて、幾何学的にタッチ位置Pの座標(x,y)を算出することが可能となる。   The angle calculated by the sensor unit 2-L1 is θL1, and the angle calculated by the sensor unit 2-L2 is θL2. Using the two angle information and the distance dh, the coordinates (x, y) of the touch position P can be calculated geometrically.

x=dh・tan(π/2-θL2)・tan(π/2-θL1)/(tan(π/2-θL2)+tan(π/2-θL1)) (8)
y=dh・tan(π/2-θL2)/(tan(π/2-θL2)+tan(π/2-θL1)) (9)
また、一方のセンサユニットの出力がθL1=0、もしくはθL2=0の場合であっても、他方のセンサユニットが出力する角度情報に基づき、幾何学的に容易にタッチ位置を算出することが可能である。
x = dh ・ tan (π / 2-θL2) ・ tan (π / 2-θL1) / (tan (π / 2-θL2) + tan (π / 2-θL1)) (8)
y = dh · tan (π / 2-θL2) / (tan (π / 2-θL2) + tan (π / 2-θL1)) (9)
Even if the output of one sensor unit is θL1 = 0 or θL2 = 0, the touch position can be easily calculated geometrically based on the angle information output by the other sensor unit. It is.

ここで、センサユニット2−L1及びセンサユニット2−L2の視野範囲から、タッチ位置Pが図7(B)のハッチング部の範囲に有る場合のみ、そのタッチ位置を算出することが可能である。タッチ位置がその範囲に無い場合には、図7(C)、(D)、(E)に示す様に、演算に用いるセンサユニットの組み合わせを変更することで、座標入力有効領域5全域のタッチ位置を検出できるようになる。従って、各センサユニット2が検出した遮光方向の有無、及び遮光方向に基づき、座標算出に必要なセンサユニットを選択して、タッチ位置を算出する。そして、選択したセンサユニット2の組み合わせに応じて、式(8)、式(9)のパラメータを変更して、座標変換を行えばよい。   Here, it is possible to calculate the touch position from the field of view range of the sensor unit 2-L1 and the sensor unit 2-L2 only when the touch position P is within the hatched range of FIG. 7B. If the touch position is not within the range, the entire coordinate input effective area 5 can be touched by changing the combination of sensor units used for calculation as shown in FIGS. 7 (C), (D), and (E). The position can be detected. Therefore, based on the presence / absence of the light shielding direction detected by each sensor unit 2 and the light shielding direction, a sensor unit necessary for coordinate calculation is selected to calculate the touch position. And according to the combination of the selected sensor units 2, the parameters of Equation (8) and Equation (9) may be changed to perform coordinate conversion.

尚、図7(F)に示すように、センサユニット選択の境界領域近傍にタッチ位置Pが存在すると、この場合は、図7(B)もしくは図7(C)の状態のセンサユニットの組み合わせで、そのタッチ位置を算出できる。具体的な構成として、例えば、センサユニット2−L2の視野範囲と、センサユニット2−R1の視野範囲は、座標入力有効領域5の対角線方向で重複するように構成される。そして、重複した領域でタッチした場合には、複数通りのセンサユニットの組み合わせで座標算出が可能となる。その場合にあっては、両者の組み合わせで算出した座標値の平均値を確定座標として出力しても良い。   As shown in FIG. 7F, if the touch position P exists in the vicinity of the boundary area for sensor unit selection, in this case, the combination of sensor units in the state of FIG. 7B or FIG. The touch position can be calculated. As a specific configuration, for example, the visual field range of the sensor unit 2-L2 and the visual field range of the sensor unit 2-R1 are configured to overlap in the diagonal direction of the coordinate input effective region 5. And when it touches in the overlapping area | region, a coordinate calculation is attained by the combination of a plurality of types of sensor units. In that case, an average value of coordinate values calculated by a combination of the two may be output as definite coordinates.

さて、このように算出された座標値は、座標入力装置の第1の座標系(以後、デジタイザ座標系と称す)の値であって、位置算出が可能な有効領域は図3における座標入力有効領域5である。そして、この座標入力有効領域5の範囲内にディスプレイの表示面を設けることになる。ディスプレイが仮にフロントプロジェクターとすると、図8に示すように、投影画像である表示領域8が座標入力有効領域5内に設定されることになる。図8では、d1を原点としてdx軸、dy軸からなる表示座標系である第2の座標系(以後、スクリーン座標系と称す)からなる。表示されている画像を直接タッチすることで、アイコン等のタップ操作を行うためには、デジタイザ座標系とスクリーン座標系の相関をとる必要が有る。この相関をとる方法は、例えば、特開2014−048957号公報に開示される方法を用いることができる。   The coordinate value calculated in this way is the value of the first coordinate system (hereinafter referred to as the digitizer coordinate system) of the coordinate input device, and the effective area where the position can be calculated is the coordinate input effective in FIG. Region 5. The display surface of the display is provided in the range of the coordinate input effective area 5. If the display is a front projector, the display area 8 that is a projected image is set in the coordinate input effective area 5 as shown in FIG. In FIG. 8, it consists of the 2nd coordinate system (henceforth a screen coordinate system) which is a display coordinate system which consists of dx-axis and dy-axis by making d1 into an origin. In order to perform a tap operation of an icon or the like by directly touching the displayed image, it is necessary to obtain a correlation between the digitizer coordinate system and the screen coordinate system. As a method of obtaining this correlation, for example, a method disclosed in Japanese Patent Application Laid-Open No. 2014-048957 can be used.

さて、デジタイザ座標系での座標算出では、式(8)及び式(9)で演算に用いるセンサユニット2間の距離dhが既知である必要が有る。しかしながら、表示装置と組み合わせて使用する図8のような使用態様の場合、この距離dhは必ずしも既知である必要は無い。つまり、ディスプレイの大きさを示す4隅部の情報が、タッチ操作することにより順次デジタイザ座標系における各センサユニットでの角度情報として取得される。その結果、比による計算だけで、スクリーン座標系のタッチ位置座標を算出することが可能となるからである。   Now, in the coordinate calculation in the digitizer coordinate system, it is necessary that the distance dh between the sensor units 2 used for calculation in the equations (8) and (9) is known. However, in the case of use as shown in FIG. 8 used in combination with a display device, this distance dh does not necessarily need to be known. That is, information on the four corners indicating the size of the display is sequentially acquired as angle information at each sensor unit in the digitizer coordinate system by performing a touch operation. As a result, it is possible to calculate the touch position coordinates in the screen coordinate system only by calculation based on the ratio.

座標入力装置においては、2本のセンサバー筐体1L及び1R間の相対的な位置関係が図7(A)のようになっている。つまり、2つのセンサバー筐体1L及び1Rが平行、同一長さ、かつX軸方向に他方のセンサバー筐体のセンサユニットが配置されることで、デジタイザ座標系での高精度な位置検出が可能となる。この場合、2つのセンサバー筐体1L及び1Rを目分量で簡単に装着できれば、利便性の向上、設置時間の大幅短縮へとつながる。そこで、座標入力装置においては、この利便性向上のために、座標検出モードとして第2の検出モードを有する。   In the coordinate input device, the relative positional relationship between the two sensor bar casings 1L and 1R is as shown in FIG. That is, the two sensor bar casings 1L and 1R are parallel, have the same length, and the sensor unit of the other sensor bar casing is arranged in the X-axis direction, thereby enabling highly accurate position detection in the digitizer coordinate system. Become. In this case, if the two sensor bar casings 1L and 1R can be easily mounted with the reference amount, the convenience is improved and the installation time is greatly shortened. Therefore, the coordinate input device has a second detection mode as a coordinate detection mode for improving convenience.

図9(A)は第2の検出モードを説明するためのマスター側のセンサバー筐体1LのCPU61が出力する制御信号、及びセンサユニット2の動作を示すタイミングチャートである。   FIG. 9A is a timing chart showing a control signal output from the CPU 61 of the sensor bar casing 1L on the master side and an operation of the sensor unit 2 for explaining the second detection mode.

91、92、93がラインCCD41制御用の制御信号であり、SH信号91の間隔でラインCCD41のシャッター開放時間が決定される。ICGL信号92はセンサバー筐体1Lのセンサユニット2−L1及び2−L2へのゲート信号であり、ラインCCD41内部の光電変換部の電荷を読出部へ転送する信号である。   91, 92 and 93 are control signals for controlling the line CCD 41, and the shutter opening time of the line CCD 41 is determined by the interval of the SH signal 91. The ICGL signal 92 is a gate signal to the sensor units 2-L1 and 2-L2 of the sensor bar housing 1L, and is a signal for transferring the charge of the photoelectric conversion unit in the line CCD 41 to the reading unit.

CCDL信号94は、センサユニット2−L1及び2−L2のラインCCD41のシャッター開放時間を示す信号である。ICGR信号93は、対向するセンサバー筐体1Rのセンサユニット2−R1及び2−R2へのゲート信号であり、シリアル通信部67を介してセンサバー筐体1Rの演算制御回路3Rに送信される。そして、演算制御回路3RがラインCCD41内部の光電変換部の電荷を読出部へ転送する信号を生成することになる。CCDR信号95は、センサユニット2−R1及び2−R2のラインCCD41のシャッター開放時間を示す信号である。   The CCDL signal 94 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 2-L1 and 2-L2. The ICGR signal 93 is a gate signal to the sensor units 2-R1 and 2-R2 of the opposing sensor bar casing 1R, and is transmitted to the arithmetic control circuit 3R of the sensor bar casing 1R via the serial communication unit 67. Then, the arithmetic control circuit 3R generates a signal for transferring the charge of the photoelectric conversion unit in the line CCD 41 to the reading unit. The CCDR signal 95 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 2-R1 and 2-R2.

LEDL信号96及びLEDR信号97は、各センサユニット2の赤外LED311の駆動信号である。SH信号91の最初の周期でセンサバー筐体1Rのセンサユニット2−R1及び2−R2の赤外LED311を点灯するために、LEDR信号97がシリアル通信部67を介してセンサバー筐体1Rの演算制御回路3Rに送信される。そして、演算制御回路3Rが各々のLED駆動回路に供給するための信号を生成する。   The LEDL signal 96 and the LEDR signal 97 are drive signals for the infrared LED 311 of each sensor unit 2. In order to turn on the infrared LEDs 311 of the sensor units 2-R1 and 2-R2 of the sensor bar casing 1R in the first cycle of the SH signal 91, the LEDR signal 97 is controlled to calculate the sensor bar casing 1R via the serial communication unit 67. It is transmitted to the circuit 3R. Then, the arithmetic control circuit 3R generates a signal to be supplied to each LED drive circuit.

そして、SH信号91の次の周期で、センサバー筐体1Lのセンサユニット2−L1及び2−L2の赤外LED311を点灯するために、LEDL信号96が各々のLED駆動回路を経て赤外LED311に供給する。   Then, in order to turn on the infrared LEDs 311 of the sensor units 2-L1 and 2-L2 of the sensor bar casing 1L in the next cycle of the SH signal 91, the LEDL signal 96 passes through each LED drive circuit to the infrared LED 311. Supply.

赤外LED311の駆動、及びラインCCD41のシャッター開放が終了した後に、ラインCCD41の信号がセンサユニット2から読み出され、後述する方法で角度情報を算出する。そして、スレーブ側の演算制御回路3Rの演算結果はマスター側の演算制御回路3Lに送信される。   After the driving of the infrared LED 311 and the shutter release of the line CCD 41 are completed, the signal of the line CCD 41 is read from the sensor unit 2 and angle information is calculated by a method described later. Then, the calculation result of the slave-side calculation control circuit 3R is transmitted to the master-side calculation control circuit 3L.

以上のように動作させることで、センサバー筐体1Lのセンサユニット2−L1及び2−L2は、対向するセンサバー筐体1Rのセンサユニット2−R1及び2−R2が発光した赤外LED311の赤外光を直接検出する。同様に、センサバー筐体1Rのセンサユニット2−R1及び2−R2は、対向するセンサバー筐体1Lのセンサユニット2−L1及び2−L2が発光した赤外LED311の赤外光を直接検出する。   By operating as described above, the sensor units 2-L1 and 2-L2 of the sensor bar casing 1L are infrared rays of the infrared LED 311 emitted by the sensor units 2-R1 and 2-R2 of the opposing sensor bar casing 1R. Detect light directly. Similarly, the sensor units 2-R1 and 2-R2 of the sensor bar casing 1R directly detect the infrared light of the infrared LED 311 emitted by the sensor units 2-L1 and 2-L2 of the opposing sensor bar casing 1L.

尚、図5では、センサバー筐体1Lのセンサユニット2−L1及び2−L2と対向するセンサバー筐体1Rのセンサユニット2−R1及び2−R2とを異なるタイミングで動作する座標検出モードであり、これが第1の検出モードとなる。   FIG. 5 shows a coordinate detection mode in which the sensor units 2-R1 and 2-R2 of the sensor bar housing 1R facing the sensor units 2-L1 and 2-L2 of the sensor bar housing 1L are operated at different timings. This is the first detection mode.

図9(B)は、第2の検出モードで動作する場合に、センサユニット2で得られる検出信号波形を示している。対向する辺に設けられた2つのセンサユニット2の投光部30からの発光をそれぞれ受光するので、ピーク信号が2つ生成される。そして、先に述べた角度算出の方法と同様な方法で、その方向を各々算出する。尚、図中の破線は、図6(B)で示す受光部40の出力(光量分布)を示すものであり、方向Nj、方向Nfの間にピーク信号が生成されることを示している。   FIG. 9B shows a detection signal waveform obtained by the sensor unit 2 when operating in the second detection mode. Since light emitted from the light projecting units 30 of the two sensor units 2 provided on the opposite sides is received, two peak signals are generated. Then, the respective directions are calculated by the same method as the angle calculation method described above. In addition, the broken line in a figure shows the output (light quantity distribution) of the light-receiving part 40 shown to FIG. 6 (B), and has shown that the peak signal is produced | generated between the direction Nj and the direction Nf.

このように、ユーザが2つのセンサバー筐体1L及び1Rを目分量で装着した場合でも、各センサユニット2は、対向するセンサバー筐体1のセンサユニット2の投光部30の光を検出することで、対向するセンサユニット2が位置する方向を検出する。これにより、高精度な位置検出を実現することができる。   As described above, even when the user mounts the two sensor bar casings 1L and 1R with the reference amount, each sensor unit 2 detects the light of the light projecting unit 30 of the sensor unit 2 of the opposing sensor bar casing 1. Thus, the direction in which the opposing sensor unit 2 is located is detected. Thereby, highly accurate position detection is realizable.

図10を用いて、その様子を説明する。図10において、センサユニット2−L1の光軸中心とセンサユニット2−L2の光軸中心を結ぶ線分をY軸、その法線方向をX軸とすれば、センサユニット2−L1及び2−L2の光軸はX軸と平行である。そして、対向するセンサユニット2−R1は、センサユニット2−L1から見ると角度θ1の方向であり、センサユニット2−L2から見ると角度θ3の方向である。同様に、θ1からθ8までの角度を算出することが可能であり、その結果、センサバー筐体1Lのセンサユニット2−L1の光軸と、センサバー筐体1Rのセンサユニット2−R1の光軸の成す角度θ9が算出される。   This will be described with reference to FIG. In FIG. 10, if the line segment connecting the optical axis center of the sensor unit 2-L1 and the optical axis center of the sensor unit 2-L2 is the Y axis and the normal direction is the X axis, the sensor units 2-L1 and 2- The optical axis of L2 is parallel to the X axis. The opposing sensor unit 2-R1 is in the direction of the angle θ1 when viewed from the sensor unit 2-L1, and is the direction of the angle θ3 when viewed from the sensor unit 2-L2. Similarly, it is possible to calculate the angle from θ1 to θ8. As a result, the optical axis of the sensor unit 2-L1 of the sensor bar casing 1L and the optical axis of the sensor unit 2-R1 of the sensor bar casing 1R are calculated. The formed angle θ9 is calculated.

言い換えると、センサバー筐体1Lとセンサバー筐体1Rの相対的な傾きを検出することができる。更には、センサバー筐体1の長手方向の長さが伸縮することによって変化した場合であっても、各センサユニット2間の絶対的距離を知ることはできないが、4つのセンサユニットの相対的な位置関係を取得することが可能である。   In other words, the relative inclination of the sensor bar casing 1L and the sensor bar casing 1R can be detected. Furthermore, even if the length in the longitudinal direction of the sensor bar casing 1 changes due to expansion and contraction, the absolute distance between the sensor units 2 cannot be known, but the relative relationship between the four sensor units is not possible. It is possible to acquire the positional relationship.

図11は電源投入時からの初期設定処理を示すフローチャートである。   FIG. 11 is a flowchart showing an initial setting process after power-on.

まず、投影画像である表示領域8の全領域を含む矩形状の座標入力有効領域5を形成するために、ユーザによってセンサバー筐体1が入力面6に装着されると、例えば、電源投入が行われて初期設定を行う(S101)。   First, when the sensor bar housing 1 is mounted on the input surface 6 by the user in order to form the rectangular coordinate input effective area 5 including the entire display area 8 as a projection image, for example, the power is turned on. The initial setting is performed (S101).

次に、CPU61のポート設定、タイマ設定等の座標入力装置に係る各種初期化を行うとともに、光電変換素子に残っている余分な電荷を除去する等のラインCCD41の初期化も行う(S102)。次に、ラインCCD41が検出する光量の最適化を行う。上述のように、表示領域8の大きさは、入力面6の大きさにより一意では無い。そのような場合であっても、センサバー筐体1の長さを伸縮させたり、センサバー筐体1間の距離が適宜ユーザによって設定される。従って、装着の状態によって、検出される光の強度は異なるので、ラインCCD41のシャッター開放時間や赤外LED311の点灯時間、もしくは赤外LED311の駆動電流の設定を含む第2の検出モードで動作設定を行う(S103)。次に、ラインCCD41の出力信号を取り込む(S104)。   Next, various initializations related to the coordinate input device such as port setting and timer setting of the CPU 61 are performed, and the line CCD 41 is also initialized such as removing excess charges remaining in the photoelectric conversion elements (S102). Next, the amount of light detected by the line CCD 41 is optimized. As described above, the size of the display area 8 is not unique depending on the size of the input surface 6. Even in such a case, the length of the sensor bar housing 1 is expanded or contracted, and the distance between the sensor bar housings 1 is appropriately set by the user. Accordingly, since the detected light intensity varies depending on the state of mounting, the operation setting is performed in the second detection mode including the setting of the shutter opening time of the line CCD 41, the lighting time of the infrared LED 311 or the driving current of the infrared LED 311. (S103). Next, the output signal of the line CCD 41 is captured (S104).

ここで、S103における動作設定とは、対向するセンサユニット2から直接光を受ける動作の状態(図9における第2の検出モード)であって、4つのセンサユニット2の相対的な位置関係を導出することを目的とする。S103で、仮に最初の動作設定を光量が最大に得られるように設定すると、S105において、光が検出できない状態とは、センサユニット2の受光部40の視野範囲に、対向する位置にあるセンサユニット2が位置していないということになる。つまり、ユーザによるセンサバー筐体1の配置/設置が不適な状態にあり、S106でその旨を報知して、センサバー筐体の再設置を促す。そして、ユーザによる再設置が完了すると、再び、S101を開始することになる。尚、S105及びS106で検出される信号は、図9(B)に示すような信号となり、本実施形態の場合は、2つの信号が出力されている状態が正常状態と言える。   Here, the operation setting in S103 is an operation state (second detection mode in FIG. 9) in which light is directly received from the opposing sensor unit 2, and the relative positional relationship of the four sensor units 2 is derived. The purpose is to do. If the initial operation setting is set so that the maximum amount of light can be obtained in S103, the state in which light cannot be detected in S105 means that the sensor unit 2 is positioned opposite to the field of view of the light receiving unit 40 of the sensor unit 2. 2 is not located. That is, the arrangement / installation of the sensor bar casing 1 by the user is in an inappropriate state, and the fact is notified in S106 to prompt the user to re-install the sensor bar casing. When the re-installation by the user is completed, S101 is started again. The signals detected in S105 and S106 are signals as shown in FIG. 9B, and in the present embodiment, the state where two signals are output can be said to be a normal state.

次に、検出信号の波形のチェックを行う(S107)。対向する位置にあるセンサユニット2の光が強すぎる場合、例えば、検出信号の波形(波形レベル)の少なくとも一部が所定の閾値を超える場合(S107でNO)、S103に戻り、例えば、露光時間をより短くする等の再設定を行う。そして、今度、S107でチェックされる検出信号波形は、より光強度が弱い状態となっているはずである。そして、その信号レベルが適正である場合(S107でYES)、例えば、検出信号波形の少なくとも一部が所定の閾値以下である場合、S108に進む。この動作を、各センサユニット(本実施形態の場合、4つ)で実行し、すべての信号が最適化されると、センサユニット2の相対的な位置関係を算出する(S108)。   Next, the waveform of the detection signal is checked (S107). When the light of the sensor unit 2 at the opposite position is too strong, for example, when at least a part of the waveform (waveform level) of the detection signal exceeds a predetermined threshold (NO in S107), the process returns to S103, for example, exposure time Re-set, such as shortening. This time, the detection signal waveform checked in S107 should have a lower light intensity. If the signal level is appropriate (YES in S107), for example, if at least a part of the detection signal waveform is equal to or less than a predetermined threshold, the process proceeds to S108. This operation is executed by each sensor unit (four in this embodiment), and when all the signals are optimized, the relative positional relationship of the sensor unit 2 is calculated (S108).

S109以降では、センサユニット2が投光した赤外光が、対向するセンサバー筐体1に設けられた再帰反射部4で再帰反射され、その光を自身の受光部40で検出した時の信号レベルを最適化する。上述したとおり、センサバー筐体1の配置は一意では無く、その配置に応じた検出レベルを最適化することで、安定した信号を得ることを目的とする。設定する項目は、ラインCCD41のシャッター開放時間や赤外LED311の点灯時間、もしくは赤外LED311の駆動電流の設定を含む第1の検出モードで動作設定を行う(S109)。S109で、仮に最初の動作設定を光量が最大に得られるように設定すると、その時のラインCCD41の出力信号を取り込む(S110)。   After S109, the infrared light projected by the sensor unit 2 is retroreflected by the retroreflecting unit 4 provided in the opposing sensor bar housing 1, and the signal level when the light is detected by its own light receiving unit 40 To optimize. As described above, the arrangement of the sensor bar housing 1 is not unique, and an object is to obtain a stable signal by optimizing the detection level according to the arrangement. Items to be set are operation settings in the first detection mode including setting of the shutter opening time of the line CCD 41, the lighting time of the infrared LED 311 or the driving current of the infrared LED 311 (S109). If the first operation setting is set so that the light quantity can be maximized in S109, the output signal of the line CCD 41 at that time is captured (S110).

取り込まれた出力信号は、照明時のデータであり、図6(B)の様な波形となる。光が強すぎると、ラインCCD41のダイナミックレンジの範囲を超え、出力が飽和することになるので、正確な角度を算出することが困難となる。その場合は、S111で、検出信号の波形が不適と判定され(S111でNO)、S109に戻り、検出信号の波形(波形レベル)がより小さくなるように、再設定が行われる。再帰反射光を検出するので、S103〜S108での処理(つまり、第2の検出モード)でセンサユニット2の投光を直接受光部40で検出する場合と比べて、格段に投光する光量が大きくなるように設定することになる。   The captured output signal is data at the time of illumination, and has a waveform as shown in FIG. If the light is too strong, the output exceeds the range of the dynamic range of the line CCD 41 and the output is saturated, making it difficult to calculate an accurate angle. In that case, in S111, it is determined that the waveform of the detection signal is inappropriate (NO in S111), the process returns to S109, and resetting is performed so that the waveform (waveform level) of the detection signal becomes smaller. Since retroreflected light is detected, the amount of light to be projected is significantly higher than when the light receiving unit 40 directly detects the light projection of the sensor unit 2 in the processing in S103 to S108 (that is, the second detection mode). It will be set to be larger.

そして、S111で、波形レベルが最適と判断される場合(S111でYES)、照明無しの状態の信号Base_Data[N](図6(A)参照)を取得してメモリ64に記憶する(S112)。次に、照明有りの状態の信号Ref_Data[N](図6(B)参照)を取得してメモリ64に記憶する(S113)。   If it is determined in S111 that the waveform level is optimal (YES in S111), a signal Base_Data [N] (see FIG. 6A) in a state without illumination is acquired and stored in the memory 64 (S112). . Next, a signal Ref_Data [N] (see FIG. 6B) in a state with illumination is acquired and stored in the memory 64 (S113).

このようにして、全てのセンサユニットでのデータが取得されると、一連の初期設定処理が完了する。   In this way, when data for all sensor units is acquired, a series of initial setting processes is completed.

図12(A)は初期設定処理後の通常のサンプリング動作を示すフローチャートである。   FIG. 12A is a flowchart showing a normal sampling operation after the initial setting process.

図11の初期設定処理を実行する(S101)。その後、通常の取込動作(第1の検出モード)として、センサユニット2が投光した赤外光が、対向するセンサバー筐体1に設けられた再帰反射部4で再帰反射され、その光を自身の受光部40で検出した時の信号を検出する(S201)。その時のデータは、Norm_data[N]であり、仮にタッチ操作があって光路を遮ると、図6(C)のように、画素番号Ncの辺りで光信号が検出できなくなる。   The initial setting process of FIG. 11 is executed (S101). Thereafter, as a normal take-in operation (first detection mode), the infrared light projected by the sensor unit 2 is retroreflected by the retroreflecting unit 4 provided in the opposing sensor bar housing 1, and the light is reflected. A signal when it is detected by its own light receiving unit 40 is detected (S201). The data at that time is Norm_data [N]. If there is a touch operation and the optical path is interrupted, an optical signal cannot be detected around the pixel number Nc as shown in FIG. 6C.

いずれかのセンサユニット2で、このような光の遮光部分が生成されたか否か、つまり、入力の有無を判定する(S202)。入力が無いと判定される場合(S202でNO)、再度、S201に戻り、サンプリングを繰り返すことになる。一方、入力が有ると判定される場合(S202でYES)、出力信号に遮光部分が生成されているセンサユニットを選択する(S203)。その選択したセンサユニットを用いて、遮光部分が生成されている方向(角度)を各々算出する(S204)。算出した角度に基づいて、デジタイザ座標系でのタッチ位置座標を算出する(S205)。算出したタッチ位置座標をスクリーン座標系に変換して、パーソナルコンピュータ等の外部装置に、その座標値を出力(送信)する(S206)。   It is determined whether or not such a light-shielding portion is generated in any one of the sensor units 2, that is, whether or not there is an input (S202). When it is determined that there is no input (NO in S202), the process returns to S201 again, and sampling is repeated. On the other hand, when it is determined that there is an input (YES in S202), a sensor unit in which a light shielding portion is generated in the output signal is selected (S203). Using the selected sensor unit, the direction (angle) in which the light shielding portion is generated is calculated (S204). Based on the calculated angle, touch position coordinates in the digitizer coordinate system are calculated (S205). The calculated touch position coordinates are converted into a screen coordinate system, and the coordinate values are output (transmitted) to an external device such as a personal computer (S206).

尚、この際に、入力面をタッチしている状態であるか否かを示すタッチダウン信号/タッチアップ信号をあわせて出力しても良い。この種の座標入力装置にあっては、タッチ面をタッチすることで、光路は100%遮断されることになるが、タッチ状態から少しずつ浮かせることによって、少しずつ光が透過するようになる。従って、光がどの程度遮られたかを演算することで、タッチ状態にあるのか、タッチはしてないが、光路を遮っている(角度演算は可能であり、その場合でもその位置を演算可能)状態であるのかを、閾値を設定することで判定できる。   At this time, a touchdown signal / touchup signal indicating whether or not the input surface is being touched may be output together. In this type of coordinate input device, the optical path is blocked by 100% by touching the touch surface, but light is gradually transmitted by floating little by little from the touch state. Therefore, by calculating how much light is blocked, it is touched or not touched, but the light path is blocked (angle calculation is possible, and even that position can be calculated) Whether it is in a state can be determined by setting a threshold value.

スイッチ等の切替部の操作により、デジタイザ座標系とスクリーン座標系を一致させるためのキャリブレーションモード(第2の検出モード)に遷移することになるが、図12(B)を用いて、そのキャリブレーションモードのフローチャートを説明する。   The operation of a switching unit such as a switch makes a transition to a calibration mode (second detection mode) for matching the digitizer coordinate system and the screen coordinate system. The calibration is performed using FIG. A flowchart of the operation mode will be described.

キャリブレーションモードは、センサバー筐体1を装着した直後、あるいは設置完了後であっても、何らかの拍子でディスプレイの表示位置がずれてしまった場合に行われる。キャリブレーションモードに遷移すると、先ずは、初期設定処理を行う(S101)。これは、センサバー筐体が使用中に設置状態がずれた場合を想定して、光出力の最適化、センサの位置ずれを補正することになる。   The calibration mode is performed when the display position of the display is shifted due to some beat even immediately after the sensor bar housing 1 is mounted or after the installation is completed. When transitioning to the calibration mode, first, initial setting processing is performed (S101). This assumes that the installation state is shifted while the sensor bar housing is in use, and the optical output is optimized and the sensor position shift is corrected.

そして、ユーザによる表示領域8の4隅のタッチ操作を行わせるために、S201及びS202を経て、そのひとつの位置のタッチが行われたかを判定する。S203及びS204で、必要な角度情報を算出する。その後、データの取得が完了したことを報知する(S301)。この報知は、例えば、完了を示すビープ音を出力する。   Then, in order to perform the touch operation at the four corners of the display area 8 by the user, it is determined through S201 and S202 whether or not the one position has been touched. In S203 and S204, necessary angle information is calculated. Thereafter, it is notified that the data acquisition is completed (S301). This notification outputs, for example, a beep sound indicating completion.

次に、表示領域8の4隅の全ての情報の取得が完了したか否かを判定する(S302)。取得が完了していない場合(S302でNO)、S201に戻る。一方、取得が完了している場合(S302でYES)、デジタイザ座標系からスクリーン座標系へと変換するためのパラメータを算出する(S303)。その後、通常動作に戻る。そして、ここで算出されたパラメータは、S206における座標変換で使用される。   Next, it is determined whether or not acquisition of all information at the four corners of the display area 8 has been completed (S302). If acquisition has not been completed (NO in S302), the process returns to S201. On the other hand, if the acquisition has been completed (YES in S302), parameters for converting from the digitizer coordinate system to the screen coordinate system are calculated (S303). Thereafter, the normal operation is resumed. The parameters calculated here are used in the coordinate conversion in S206.

次に、センサユニット2をセンサバー筐体1の組込後の姿勢調整に関して説明する。ここでは、座標入力装置の組立工程において、センサユニット2をセンサバー筐体1に組み込んだ場合を考える。図23(A1)のように、センサユニット2の投光部30の投光光軸方向、及び、受光部40の受光光軸方向が入力面6に平行であれば、対向するセンサバー筐体1L及び1Rの再帰反射部4の反射面のほぼ全面積を包含する領域に投光される。これにより、十分な再帰反射光として受光部40で受光され、十分な受光量を得ることができる。   Next, the sensor unit 2 will be described with respect to the posture adjustment after the sensor bar housing 1 is assembled. Here, consider a case where the sensor unit 2 is incorporated in the sensor bar housing 1 in the assembly process of the coordinate input device. If the light projecting optical axis direction of the light projecting unit 30 of the sensor unit 2 and the light receiving optical axis direction of the light receiving unit 40 are parallel to the input surface 6 as shown in FIG. And 1R retroreflecting section 4 is projected onto a region including almost the entire area of the reflecting surface. Thereby, it is received by the light receiving unit 40 as sufficient retroreflected light, and a sufficient amount of received light can be obtained.

一方、図23(A2)あるいは図23(A3)のように、センサユニット2の投光部30の投光光軸方向、及び、受光部40の受光光軸方向が入力面6と平行ではなく傾斜している場合を考える。この場合、図23(A2)あるいは図23(A3)の場合、投光光軸が入力面6に対して傾斜しているので、センサバー筐体1Rに対向するセンサバー筐体1Rの再帰反射部4の反射面の一部領域に対してしか投光されない。結果として、図23(A1)の場合と比べて再帰反射光の光量が減少し、受光部40で受光される光量も図23(B)の破線A2及びA3で示されるCCD出力(受光量)のように減少する。   On the other hand, as shown in FIG. 23A2 or FIG. 23A3, the light projecting optical axis direction of the light projecting unit 30 of the sensor unit 2 and the light receiving optical axis direction of the light receiving unit 40 are not parallel to the input surface 6. Consider the case of tilting. In this case, in the case of FIG. 23 (A2) or FIG. 23 (A3), since the light projection optical axis is inclined with respect to the input surface 6, the retroreflective portion 4 of the sensor bar casing 1R facing the sensor bar casing 1R. The light is projected only to a partial area of the reflecting surface. As a result, the amount of retroreflected light is reduced compared to the case of FIG. 23A1, and the amount of light received by the light receiving unit 40 is also the CCD output (the amount of received light) indicated by broken lines A2 and A3 in FIG. It decreases like this.

センサバー筐体1は、工業的に量産に適する形態としてコスト面で成形品を用いるのが一般的である。成形品は、その性質上、設計値と仕上がり状態に一定の乖離があるのが通常であり、センサユニット取り付けに関わる座面に対しては相当の傾斜ズレを見込んで公差を設けるのが通常である。   The sensor bar casing 1 generally uses a molded product in terms of cost as an industrially suitable form for mass production. Molded products usually have a certain divergence between the design value and the finished state due to the nature of the molded product, and it is normal to provide a tolerance for the seating surface related to sensor unit mounting in consideration of a considerable tilt deviation. is there.

この傾斜の公差の影響を軽減するために、比較的精度の良い加工が可能な金属板金部材を併用する構成も考えられるが、それでも限界があり、程度の差はあれ傾斜ずれが生じる。その結果、センサユニット2をセンサバー筐体1に組み込んだ場合、入力面6に対して平行からずれて傾いた状態で組み込まれる場合がある。従って、組立工程の中に、この平行からのずれを補正する工程が必須となる。従来のこの補正工程においては、図23(B)で示すように、センサバー筐体1にセンサユニット2を組み込んだ状態で再帰反射光を監視しながらその受光量が最大となるように、センサユニット2の姿勢を調整していた。これは、受光部40で受光される光量と、センサユニット2の投受光光軸と入力面との角度・平行度との間には相関があることに基づくものである。   In order to reduce the influence of the tilt tolerance, a configuration using a metal sheet metal member that can be processed with relatively high accuracy is conceivable, but there is still a limit, and a tilt shift occurs to some extent. As a result, when the sensor unit 2 is incorporated in the sensor bar housing 1, it may be incorporated in a state where the sensor unit 2 is inclined with respect to the input surface 6 from being parallel. Therefore, a process for correcting the deviation from parallelism is essential in the assembly process. In this conventional correction process, as shown in FIG. 23B, the sensor unit is configured so that the amount of received light is maximized while monitoring the retroreflected light while the sensor unit 2 is incorporated in the sensor bar casing 1. The posture of 2 was adjusted. This is based on the fact that there is a correlation between the amount of light received by the light receiving unit 40 and the angle / parallelism between the light projecting / receiving optical axis of the sensor unit 2 and the input surface.

実施形態1においても、その調整のために、センサバー筐体1に対するセンサユニット2の姿勢を調整することのできる機構である姿勢調整機構を有する。この姿勢調整機構は、センサユニット2とセンサバー筐体1とを連結する板金等の連結部に調整ビスを介入させている。そして、この姿勢調整機構は、その調整ビスを回転させることで作用部の長さを変更し、その連結部の形状を弾性的に変形させることで、センサバー筐体1に対するセンサユニット2の姿勢を可逆的に変更させる機構である。例えば、特許文献8に示される姿勢調整機構のような構成である。本実施形態では、単純に一本の調整用ビスで、センサバー筐体1の長手方向に垂直な方向の水平度のみを調整する機構とするが、それ以外の機構でも、センサユニットの姿勢が調整できる機構なら、これに限定されない。   The first embodiment also has a posture adjustment mechanism that is a mechanism capable of adjusting the posture of the sensor unit 2 with respect to the sensor bar housing 1 for the adjustment. In this attitude adjustment mechanism, an adjustment screw is interposed in a connecting portion such as a sheet metal that connects the sensor unit 2 and the sensor bar housing 1. And this attitude | position adjustment mechanism changes the attitude | position of the sensor unit 2 with respect to the sensor-bar housing | casing 1 by changing the length of an action part by rotating the adjustment screw | thread, and changing the shape of the connection part elastically. It is a mechanism that changes reversibly. For example, it is a structure like the attitude | position adjustment mechanism shown by patent document 8. FIG. In the present embodiment, a mechanism that simply adjusts the level in the direction perpendicular to the longitudinal direction of the sensor bar housing 1 with a single adjustment screw is used. However, the posture of the sensor unit can be adjusted with other mechanisms as well. Any mechanism that can do this is not limited to this.

組立工程において、作業者は、センサユニットで検出する再帰反射光を監視しながら姿勢調整機構の調整ビスを回転させ、結果として、センサユニット2の傾きを入力面6に対して上方向あるいは下方向に変化させ調整を行う。再帰反射光が、望ましくは、S/N向上の観点から、図23(B)の円内で示すような最も光量レベルが他の領域と比較して相対的に低いところが、姿勢変更に付随して最もレベルが高くなるように、調整ビスを調整する。この調整時に、最初に得られる有る姿勢の受光部40の受光量は断片的な情報である。従って、この断片的な情報だけでは調整に不十分なので、他の姿勢の光量情報を得る作業が必要である。その光量情報として、仮に、複数の光量情報(例えば、図23(B)のA1あるいはA2)が得られても、姿勢情報が付随していない場合には、センサユニット2が上方向に傾斜しているのか、下方向に傾斜しているのか、姿勢を変化させるまでは不明である。   In the assembly process, the operator rotates the adjustment screw of the posture adjustment mechanism while monitoring the retroreflected light detected by the sensor unit. As a result, the inclination of the sensor unit 2 is directed upward or downward with respect to the input surface 6. Change to to adjust. The retroreflected light preferably has a relatively low light amount level as shown in a circle in FIG. 23B in comparison with other regions from the viewpoint of improving the S / N, which is associated with the posture change. Adjust the adjustment screw so that the level becomes the highest. At the time of this adjustment, the amount of light received by the light receiving unit 40 in a certain posture obtained first is fragmentary information. Accordingly, since this piecewise information alone is insufficient for adjustment, it is necessary to obtain light amount information of another posture. If a plurality of light quantity information (for example, A1 or A2 in FIG. 23B) is obtained as the light quantity information, but the attitude information is not attached, the sensor unit 2 tilts upward. It is unknown until it changes its posture, whether it is tilted downward.

従って、組立工程において、作業者は、調整ビスを右あるいは左に回すことによる光量の増減の変化をみることにより、初めて、補正方向を認知することができる。つまり、付随する傾斜情報も必要である。更に、最終的な補正量に対しては、調整ビスを回転させ光量が増加から減少に転じたその変極点が補正すべき補正量である。つまり、最初に得られる光量情報だけでは、それが図23(B)におけるA1なのかA2なのかは不明であり、姿勢調整機構の調整ビスを回転させ姿勢を変化させて初めて補正量と光量の相対的な関係が明確になる。つまり、再帰反射光に基づく手法では、その姿勢変化作業と受光量確認との繰り返しに時間と手間がかかる。   Therefore, in the assembling process, the operator can recognize the correction direction for the first time only by looking at the change in the amount of light by turning the adjustment screw clockwise or counterclockwise. In other words, accompanying inclination information is also necessary. Furthermore, with respect to the final correction amount, the inflection point where the adjustment screw is rotated to change the light amount from the increase to the decrease is the correction amount to be corrected. In other words, it is not clear from the light quantity information obtained first that it is A1 or A2 in FIG. 23B, and the correction amount and light quantity are not changed until the posture is changed by rotating the adjustment screw of the posture adjustment mechanism. The relative relationship becomes clear. That is, in the method based on retroreflected light, it takes time and labor to repeat the posture change work and the light reception amount confirmation.

実施形態1では、センサバー筐体1へ組込後のセンサユニット2の姿勢調整のための補正姿勢方向あるいは姿勢調整量(補正量)を算出する。具体的には、対向するセンサユニット2の入力面6からの高さが異なる位置に配置された投光部301及び302から個別に発光される光を受光した光量情報から補正姿勢方向あるいは姿勢調整量(補正量)を算出する。これについて、以下、図13〜図16を用いて説明する。   In the first embodiment, a corrected posture direction or a posture adjustment amount (correction amount) for adjusting the posture of the sensor unit 2 after being incorporated into the sensor bar housing 1 is calculated. Specifically, the correction posture direction or posture adjustment is performed from the light amount information obtained by separately receiving the light emitted from the light projecting units 301 and 302 arranged at different positions from the input surface 6 of the opposing sensor unit 2. The amount (correction amount) is calculated. This will be described below with reference to FIGS.

図13は実施形態1のセンサユニットの姿勢調整を説明するための図である。ここでは、図2(A)で示したような、受光部40と投光部301及び302を含むセンサユニット2がセンサバー筐体1Lに組み込まれた状態で、姿勢調整する場合を説明する。この場合、センサバー筐体1からの投光量が適切に受光できる範囲に設置されたもう一方のセンサバー筐体1Rが対面に配置される。この場合のセンサバー筐体1Rのセンサユニット2は姿勢調整済であるとする。つまり、センサバー筐体1Rのセンサユニット2の受光部40と投光部301及び302の光軸方向は、既に、入力面6に対して平行に調整されている。   FIG. 13 is a diagram for explaining posture adjustment of the sensor unit according to the first embodiment. Here, the case where the posture adjustment is performed in a state where the sensor unit 2 including the light receiving unit 40 and the light projecting units 301 and 302 as shown in FIG. 2A is incorporated in the sensor bar housing 1L will be described. In this case, the other sensor bar casing 1R installed in a range in which the amount of light emitted from the sensor bar casing 1 can be appropriately received is disposed facing the sensor bar casing 1R. In this case, it is assumed that the sensor unit 2 of the sensor bar housing 1R has been adjusted in posture. That is, the optical axis directions of the light receiving unit 40 and the light projecting units 301 and 302 of the sensor unit 2 of the sensor bar housing 1R have already been adjusted to be parallel to the input surface 6.

ここで、センサユニット2を構成する受光部40、及び、投光部301及び302の光学的に有効な角度範囲に関して説明する。尚、センサユニット2の基本構成は、図2で説明したものと同様である。まず、受光部40に関しては、ラインCCD41、受光レンズ42、視野絞り43、受光開口部46により、有効受光角度範囲が規定される。ここでは、入力面6に平行な方向に対する角度が問題になり、受光部40は、入力面6に対する垂直方向に、受光部40から入力面6に平行な方向に対し上下に±0.5°の範囲で広がる有効受光角度範囲を有するとする。ここで、「+」は入力面6に平行な方向に対して下方方向、「−」は入力面6に平行な方向に対して上方方向と定義する。   Here, the optically effective angle range of the light receiving unit 40 and the light projecting units 301 and 302 constituting the sensor unit 2 will be described. The basic configuration of the sensor unit 2 is the same as that described with reference to FIG. First, for the light receiving unit 40, an effective light receiving angle range is defined by the line CCD 41, the light receiving lens 42, the field stop 43, and the light receiving opening 46. Here, the angle with respect to the direction parallel to the input surface 6 becomes a problem, and the light receiving unit 40 is perpendicular to the input surface 6 and ± 0.5 ° vertically from the light receiving unit 40 to the direction parallel to the input surface 6. It is assumed that the effective light receiving angle range is widened. Here, “+” is defined as the downward direction with respect to the direction parallel to the input surface 6, and “−” is defined as the upward direction with respect to the direction parallel to the input surface 6.

下段投光部である投光部301の有効投光角度範囲は、赤外LED311及び投光レンズ321により規定される。また、上段投光部である投光部302の有効投光角度範囲は、赤外LED312及び投光レンズ322により規定される。そして、ここでは、上段投光部及び下段投光部それぞれの有効投光角度範囲は、入力面6に平行な方向に対し上下に±1.0°とする。   The effective light projection angle range of the light projecting unit 301 that is the lower light projecting unit is defined by the infrared LED 311 and the light projecting lens 321. The effective light projection angle range of the light projecting unit 302 that is the upper light projecting unit is defined by the infrared LED 312 and the light projecting lens 322. Here, the effective light projection angle range of each of the upper light projecting unit and the lower light projecting unit is ± 1.0 ° in the vertical direction with respect to the direction parallel to the input surface 6.

尚、受光部40の有効受光角度範囲、投光部301及び302の有効投光角度範囲はいずれもその光軸中心に近づくほど光量は大きくなり、離れるほど光量は減少するという光強度分布を有するものとする。   The effective light receiving angle range of the light receiving unit 40 and the effective light projecting angle ranges of the light projecting units 301 and 302 both have a light intensity distribution in which the light amount increases as it approaches the optical axis center and decreases as it moves away. Shall.

センサバー筐体1には、2つのセンサユニットが組み込まれるが、いずれも同様であるので、ここでは、そのうちの一方に関して説明を行う。図13においては、センサバー筐体1Lのセンサユニット2の投光部301及び302、及び、受光部40の光軸が入力面6に平行な方向になっている。つまり、更なる姿勢調整の必要がない状態を示している。但し、通常は、センサユニット2をセンサバー筐体1に組み込んだ状態では、受光部40の光軸が入力面6に平行な方向になっていない場合がある。この場合を想定し、センサユニット2をセンサバー筐体1に組み込んだ段階で、姿勢調整工程を実行する。この場合、電気駆動系・演算処理等は通常モード(第1の検出モード)ではなく、姿勢調整モードに切り替える。   Two sensor units are incorporated in the sensor bar housing 1, and since both are the same, only one of them will be described here. In FIG. 13, the light projecting units 301 and 302 of the sensor unit 2 of the sensor bar housing 1 </ b> L and the optical axis of the light receiving unit 40 are parallel to the input surface 6. That is, it shows a state where no further posture adjustment is necessary. However, normally, in a state where the sensor unit 2 is incorporated in the sensor bar housing 1, the optical axis of the light receiving unit 40 may not be in a direction parallel to the input surface 6. Assuming this case, the posture adjustment process is executed when the sensor unit 2 is incorporated in the sensor bar housing 1. In this case, the electric drive system / arithmetic processing is switched to the posture adjustment mode instead of the normal mode (first detection mode).

この姿勢調整モード時には、センサバー筐体1Rのセンサユニット2の投光部301及び302から発光された光をセンサバー筐体1Lのセンサユニット2の受光部40で直接受光することとなる。また、センサバー筐体1Rのセンサユニットの投光部を構成する上段投光部(投光部302)と下段投光部(投光部301)は、それぞれ交互、個別に発光を行う。この姿勢調整モード時の発光、つまり、投光部30の駆動タイミングと受光部40の受光タイミングに関わるタイミングチャートを図14に示す。基本的には、図9で示す動作と同様であるが、ここでは、センサユニット2−L1及び2−L2、及び2−R1及び2−R2ではなく、上段投光部(投光部302)と下段投光部(投光部301)の発光タイミングと受光部40の受光タイミングの制御を行う。タイミングは、センサバー筐体1のセンサユニット2−L1及び2−L2、及び2−R1及び2−R2では同様であるが、ここでは、その片方のみ示す。   In this posture adjustment mode, light emitted from the light projecting units 301 and 302 of the sensor unit 2 of the sensor bar housing 1R is directly received by the light receiving unit 40 of the sensor unit 2 of the sensor bar housing 1L. In addition, the upper light projecting unit (light projecting unit 302) and the lower light projecting unit (light projecting unit 301) constituting the light projecting unit of the sensor unit of the sensor bar housing 1R emit light alternately and individually. FIG. 14 shows a timing chart relating to light emission in this posture adjustment mode, that is, the driving timing of the light projecting unit 30 and the light receiving timing of the light receiving unit 40. Basically, the operation is the same as that shown in FIG. 9, but here, not the sensor units 2-L1 and 2-L2, and 2-R1 and 2-R2, but the upper light projecting unit (light projecting unit 302). The light emission timing of the lower light projecting unit (light projecting unit 301) and the light reception timing of the light receiving unit 40 are controlled. The timing is the same for the sensor units 2-L1 and 2-L2 and 2-R1 and 2-R2 of the sensor bar housing 1, but only one of them is shown here.

図14(A)中の信号群において、L、Rの表記を含む信号はそれぞれ、Lがセンサバー筐体1L、Rがセンサバー筐体1Rに関わるものである。つまり、LEDR_U信号101による、センサバー筐体1Rのセンサユニット2の上段投光部(投光部302)で発光した光を、センサバー筐体1Lのセンサユニット2の受光部40で、CCDL信号100のタイミングで受光する。同様に、LEDR_D信号102で、センサバー筐体1Rのセンサユニット2の下段投光部(投光部301)で発光した光を、センサバー筐体1Lのセンサユニット2の受光部40でCCDL信号100のタイミングで受光する。   In the signal group in FIG. 14A, signals including the notations L and R relate to the sensor bar casing 1L and R relates to the sensor bar casing 1R, respectively. That is, the light emitted from the upper light projecting unit (light projecting unit 302) of the sensor unit 2 of the sensor bar housing 1R by the LEDR_U signal 101 is received by the light receiving unit 40 of the sensor unit 2 of the sensor bar housing 1L of the CCDL signal 100. Light is received at the timing. Similarly, the light emitted from the lower light projecting unit (projecting unit 301) of the sensor unit 2 of the sensor bar housing 1R by the LEDR_D signal 102 is converted into the CCDL signal 100 by the light receiving unit 40 of the sensor unit 2 of the sensor bar housing 1L. Light is received at the timing.

センサバー筐体1Rのセンサユニット2の上段投光部(投光部302)で発光した光をセンサバー筐体1Lのセンサユニット2の受光部40で受光した光量分布が図14(B)である。そして、センサバー筐体1Rのセンサユニットの下段投光部(投光部301)で発光した光を、同様に、センサバー筐体1Lのセンサユニット2の受光部40で受光した光量分布が図14(C)である。この光量分布の表示をわかりやすくするために縦軸の符号を逆にして、図13、図15及び図16の下部に示す。   FIG. 14B shows a light amount distribution in which the light emitted from the upper light projecting unit (light projecting unit 302) of the sensor unit 2 of the sensor bar housing 1R is received by the light receiving unit 40 of the sensor unit 2 of the sensor bar housing 1L. Similarly, the light quantity distribution of the light emitted from the lower light projecting section (light projecting section 301) of the sensor unit of the sensor bar housing 1R received by the light receiving section 40 of the sensor unit 2 of the sensor bar housing 1L is shown in FIG. C). In order to make the display of the light quantity distribution easier to understand, the sign of the vertical axis is reversed and shown in the lower part of FIGS.

図13に示されるように、センサバー筐体1Lのセンサユニット2が入力面6に平行な方向に配置されている場合には、受光部40の有効受光角度範囲内に、センサバー筐体1Rの上段投光部(投光部302)及び下段投光部(投光部302)が含まれる。一方、センサバー筐体1Rの上段投光部及び下段投光部それぞれの有効投光角度範囲内に、センサバー筐体1Lのセンサユニット2の受光部40が含まれる。従って、センサバー筐体1Rの上段投光部及び下段投光部のいずれの光もセンサバー筐体1Lのセンサユニットの受光部40で同様の受光量として受光される。これは、センサユニット構成において、受光部40を挟んで等距離の上下に投光部が配置されているからである。この時の受光光量分布が図13の下部で示される。以上が、理想環境下で状態(入力面6に対するセンサユニット2の傾斜がない状態)である。   As shown in FIG. 13, when the sensor unit 2 of the sensor bar casing 1L is arranged in a direction parallel to the input surface 6, the upper stage of the sensor bar casing 1R is within the effective light receiving angle range of the light receiving unit 40. A light projecting unit (light projecting unit 302) and a lower light projecting unit (light projecting unit 302) are included. On the other hand, the light receiving unit 40 of the sensor unit 2 of the sensor bar housing 1L is included in the effective light projection angle range of each of the upper light projecting unit and the lower light projecting unit of the sensor bar housing 1R. Therefore, both the light from the upper light projecting unit and the lower light projecting unit of the sensor bar housing 1R are received by the light receiving unit 40 of the sensor unit of the sensor bar housing 1L as the same amount of received light. This is because in the sensor unit configuration, the light projecting units are arranged above and below the same distance across the light receiving unit 40. The received light quantity distribution at this time is shown in the lower part of FIG. The above is the state under the ideal environment (the state where the sensor unit 2 is not inclined with respect to the input surface 6).

図16に示すように、センサバー筐体1Lのセンサユニット2が入力面6に対して上方(−)に0.5°傾斜している場合には、センサバー筐体1Lのセンサユニット2の受光部40の有効受光角度範囲内には、センサバー筐体1Rの上段投光部のみが含まれる。これは、傾斜角度−0.5°と有効受光角度範囲限界+0.5°が一致するため、これらが合わさった有効受光角度範囲の境界が0°となり、ちょうど入力面6に平行方向となるからである。つまり、センサバー筐体1Lのセンサユニット2の受光部40と同じ高さにある、センサバー筐体1Rのセンサユニット2の受光部40より下方の部分、つまり、下段投光部は有効受光角度範囲外となる。以下、同様の光学的原理により、有効角度範囲が決定される。   As shown in FIG. 16, when the sensor unit 2 of the sensor bar casing 1L is inclined 0.5 ° upward (−) with respect to the input surface 6, the light receiving portion of the sensor unit 2 of the sensor bar casing 1L. Within the effective light receiving angle range of 40, only the upper light projecting portion of the sensor bar housing 1R is included. This is because the inclination angle −0.5 ° and the effective light reception angle range limit + 0.5 ° coincide with each other, and therefore, the boundary of the effective light reception angle range where these are combined becomes 0 °, which is just parallel to the input surface 6. It is. That is, the portion below the light receiving portion 40 of the sensor unit 2 of the sensor bar housing 1R, that is, the lower light projecting portion, which is at the same height as the light receiving portion 40 of the sensor unit 2 of the sensor bar housing 1L, is outside the effective light receiving angle range. It becomes. Hereinafter, the effective angle range is determined by the same optical principle.

一方、センサバー筐体1Rの上段投光部及び下段投光部それぞれの有効投光角度範囲内に、センサバー筐体1Lのセンサユニット2の受光部40が含まれるのは、図13の場合と同様である。   On the other hand, the light receiving part 40 of the sensor unit 2 of the sensor bar casing 1L is included in the effective light projection angle range of each of the upper and lower projection parts of the sensor bar casing 1R as in the case of FIG. It is.

この投受光有効角度範囲の組み合わせの結果として、センサバー筐体1Lのセンサユニット2の受光部40では、センサバー筐体1Rの上段投光部からの光のみ受光量が得られ、下段投光の場合には、十分な受光量が得られない。この時の受光光量分布が図15の下部で示される。   As a result of the combination of the light projection / reception effective angle range, the light receiving unit 40 of the sensor unit 2 of the sensor bar housing 1L can receive only the light from the upper light projecting unit of the sensor bar housing 1R. Therefore, a sufficient amount of received light cannot be obtained. The received light quantity distribution at this time is shown in the lower part of FIG.

次に、図16に示すように、センサバー筐体1Lのセンサユニット2が入力面6に対して下方(+)に傾斜している場合には、受光部40の有効受光角度範囲内に、センサバー筐体1Rの下段投光部のみが含まれる。一方、センサバー筐体1Rの上段投光部及び下段投光部それぞれの有効投光角度範囲内に、センサバー筐体1Lのセンサユニット2の受光部40が含まれる。従って、センサバー筐体1Lのセンサユニットの受光部40では、センサバー筐体1Rの下段投光部による発光の場合のみ受光量が得られ、上段投光部による発光の場合には、十分な受光量が得られない。この時の受光光量分布が図16の下部で示される。   Next, as shown in FIG. 16, when the sensor unit 2 of the sensor bar housing 1 </ b> L is inclined downward (+) with respect to the input surface 6, the sensor bar is within the effective light receiving angle range of the light receiving unit 40. Only the lower light projecting portion of the housing 1R is included. On the other hand, the light receiving unit 40 of the sensor unit 2 of the sensor bar housing 1L is included in the effective light projection angle range of each of the upper light projecting unit and the lower light projecting unit of the sensor bar housing 1R. Therefore, in the light receiving unit 40 of the sensor unit of the sensor bar housing 1L, a light receiving amount can be obtained only in the case of light emission by the lower light projecting unit of the sensor bar housing 1R, and a sufficient light receiving amount in the case of light emission by the upper light projecting unit. Cannot be obtained. The received light quantity distribution at this time is shown in the lower part of FIG.

以上のように、センサバー筐体1のセンサユニット2の姿勢と上段投光部及び下段投光部からの投光による受光部での受光量との関係は、相関関係があることが分かる。従って、センサバー筐体1からの上段投光部及び下段投光部から投光による受光部で受光量を比較することにより、そのセンサユニットの現状の姿勢状態を把握することができる。   As described above, it can be seen that there is a correlation between the posture of the sensor unit 2 of the sensor bar housing 1 and the amount of light received by the light receiving unit due to light projection from the upper light projecting unit and the lower light projecting unit. Therefore, the current posture state of the sensor unit can be grasped by comparing the amount of light received by the light receiving unit by light projection from the upper light projecting unit and the lower light projecting unit from the sensor bar housing 1.

そこで、実施形態1では、姿勢調整モードとして、対向する一方のセンサバー筐体の上段投光部及び下段投光部から発光する光を、他方のセンサバー筐体の受光部での受光量を比較する。更に、姿勢調整モードでは、その比較結果に基づいて、そのセンサユニットの姿勢状態(傾斜状態)を判定して、姿勢を補正する処理を実行する。この姿勢調整モードにおける処理について図17を用いて説明する。   Therefore, in the first embodiment, as the posture adjustment mode, the light emitted from the upper light projecting unit and the lower light projecting unit of one opposing sensor bar casing is compared with the amount of light received by the light receiving unit of the other sensor bar casing. . Further, in the posture adjustment mode, based on the comparison result, the posture state (tilt state) of the sensor unit is determined, and processing for correcting the posture is executed. Processing in this posture adjustment mode will be described with reference to FIG.

この姿勢調整モードは、図11で示す通常モード(第1の検出モード)ではなく、工場等拠の拠点で座標入力装置を組み立てる時を想定したモードである。従って、例えば、座標入力装置本体の内部に、この姿勢調整モードに切り替えるためのスイッチ等の切替部を設けて、モード切替を行う。ここでは、センサバー筐体1Lとセンサバー筐体1Rの内、姿勢調整対象がセンサバー筐体1Lである場合を例に挙げて説明するが、逆の場合も同様の処理を実現できることは言うまでもない。また、センサユニット2の上段投光部(投光部302)及び下段投光部(投光部301)の投光形態は、演算制御回路3のCPU61内の投光形態制御部61bによって制御される。更に、センサユニット2の姿勢判定は、演算制御回路3のCPU61内の受光判定部61aによって実行される。   This posture adjustment mode is not a normal mode (first detection mode) shown in FIG. 11 but a mode that is assumed when a coordinate input device is assembled at a factory-based base. Therefore, for example, a switching unit such as a switch for switching to the posture adjustment mode is provided inside the coordinate input device main body to perform mode switching. Here, the case where the posture adjustment target is the sensor bar casing 1L of the sensor bar casing 1L and the sensor bar casing 1R will be described as an example, but it goes without saying that the same processing can be realized in the opposite case. Further, the light projecting modes of the upper light projecting unit (light projecting unit 302) and the lower light projecting unit (light projecting unit 301) of the sensor unit 2 are controlled by a light projecting mode control unit 61 b in the CPU 61 of the arithmetic control circuit 3. The Further, the posture determination of the sensor unit 2 is executed by the light reception determination unit 61 a in the CPU 61 of the arithmetic control circuit 3.

姿勢調整モードを開始すると、演算制御回路3Lは、姿勢調整対象のセンサバー筐体1Lのセンサユニット2の受光部40のラインCCD41の初期化を行う(S1001)。   When the posture adjustment mode is started, the arithmetic control circuit 3L initializes the line CCD 41 of the light receiving unit 40 of the sensor unit 2 of the sensor bar housing 1L subjected to posture adjustment (S1001).

演算制御回路3Lは、センサバー筐体1Rのセンサユニット2の上段投光部(投光部302)から光を発光させ、センサバー筐体1Lのセンサユニット2の受光部40で受光し、その光量分布を取り込む(S1002)。ここで、演算制御回路3Lは、図14のLEDR_U信号101で示すタイミングで、上段投光部(投光部302)の発光を制御する。演算制御回路3Lは、この光量分布の波形の最小領域の光量レベルを計測し、これを上段投光部から受光する光の最小光量レベルUとして、メモリ64に格納する。   The arithmetic control circuit 3L emits light from the upper light projecting section (light projecting section 302) of the sensor unit 2 of the sensor bar casing 1R, and the light is received by the light receiving section 40 of the sensor unit 2 of the sensor bar casing 1L, and the light amount distribution thereof. (S1002). Here, the arithmetic control circuit 3L controls the light emission of the upper light projecting unit (light projecting unit 302) at the timing indicated by the LEDR_U signal 101 in FIG. The arithmetic control circuit 3L measures the light amount level of the minimum region of the waveform of the light amount distribution, and stores this in the memory 64 as the minimum light amount level U of light received from the upper light projecting unit.

演算制御回路3Lは、センサバー筐体1Rのセンサユニット2の下段投光部(投光部301)から光を発光させ、センサバー筐体1Lのセンサユニット2の受光部40で受光し、光量分布を取り込む(S1003)。ここで、演算制御回路3Lは、図14LEDR_D信号102で示すタイミングで、下段投光部(投光部301)の発光を制御する。演算制御回路3Lは、この光量分布の波形の最小領域の光量レベルを計測し、これを下段投光部から受光する光の最小光量レベルDとして、メモリ64に格納する。   The arithmetic control circuit 3L emits light from the lower light projecting unit (light projecting unit 301) of the sensor unit 2 of the sensor bar housing 1R, and the light is received by the light receiving unit 40 of the sensor unit 2 of the sensor bar housing 1L. Capture (S1003). Here, the arithmetic control circuit 3L controls the light emission of the lower light projecting unit (light projecting unit 301) at the timing indicated by the LEDR_D signal 102 in FIG. The arithmetic control circuit 3L measures the light amount level of the minimum region of the waveform of the light amount distribution, and stores this in the memory 64 as the minimum light amount level D of light received from the lower light projecting unit.

演算制御回路3Lは、メモリ64に格納した最小光量レベルUと最小光量レベルDを比較し、その差が所定範囲(M)内であるか否かを判定する(S1004)。最小光量レベルUと最小光量レベルDの差が所定範囲内である場合(S1004でYES)、演算制御回路3Lは、姿勢調整は不要であると判断し、姿勢調整量ゼロを示す信号を出力する(S1005)。   The arithmetic control circuit 3L compares the minimum light amount level U and the minimum light amount level D stored in the memory 64, and determines whether or not the difference is within a predetermined range (M) (S1004). When the difference between the minimum light amount level U and the minimum light amount level D is within the predetermined range (YES in S1004), the arithmetic control circuit 3L determines that the posture adjustment is unnecessary and outputs a signal indicating the posture adjustment amount zero. (S1005).

尚、S1002からS1005の一連の処理による、受光レベルの計測、光量レベルの判定、姿勢調整に関する信号の算出は、演算制御回路3Lの受光判定部61aによって実行される。また、所定範囲を示すMは、センサバー筐体の成形の仕上げ精度、センサユニット自体の光量のばらつき、コスト等の要因を加味して算定した許容範囲を示す数値となる。   Note that light reception level measurement, light amount level determination, and calculation of signals relating to posture adjustment by a series of processing from S1002 to S1005 are executed by the light reception determination unit 61a of the arithmetic control circuit 3L. M indicating the predetermined range is a numerical value indicating an allowable range calculated by taking into account factors such as the finishing accuracy of the molding of the sensor bar casing, variations in the light amount of the sensor unit itself, and costs.

演算制御回路3Lは、姿勢調整が不要であることを示す調整不要情報を表示する(S1006)。この表示による報知は、例えば、座標入力装置本体にLED等の表示部を複数装着し、その表示部の表示形態を変化させることで行う。表示部は、センサユニット2の姿勢状態を報知できる情報量を表示できるものであれば、これに限定されない。   The arithmetic control circuit 3L displays adjustment unnecessary information indicating that posture adjustment is not required (S1006). The notification by this display is performed by, for example, mounting a plurality of display units such as LEDs on the coordinate input device body and changing the display form of the display unit. The display unit is not limited to this as long as it can display the amount of information that can notify the posture state of the sensor unit 2.

一方、最小光量レベルUと最小光量レベルDの差が所定範囲以上である場合(S1004でNO)。演算制御回路3Lは、最小光量レベルU>最小光量レベルDであるか否かを判定する(S1007)。最小光量レベルU>最小光量レベルDである場合(S1007でYES)、演算制御回路3Lは、センサユニット2の姿勢調整方向が+(下方)と判別する(S1008)。そして、演算制御回路3Lは、姿勢調整方向+(下方)を示す信号を出力する(S1009)。また、演算制御回路3Lは、姿勢調整方向+(下方)を示す調整情報を表示する(S1010)。   On the other hand, when the difference between the minimum light amount level U and the minimum light amount level D is equal to or greater than a predetermined range (NO in S1004). The arithmetic control circuit 3L determines whether or not the minimum light amount level U> the minimum light amount level D is satisfied (S1007). When the minimum light level U> the minimum light level D (YES in S1007), the arithmetic control circuit 3L determines that the orientation adjustment direction of the sensor unit 2 is + (downward) (S1008). Then, the arithmetic control circuit 3L outputs a signal indicating the posture adjustment direction + (downward) (S1009). The arithmetic control circuit 3L displays adjustment information indicating the posture adjustment direction + (downward) (S1010).

一方、最小光量レベルU>最小光量レベルDでない場合(S1007でNO)、演算制御回路3Lは、センサユニット2の姿勢調整方向が−(上方)と判別する(S1011)。そして、演算制御回路3Lは、姿勢調整方向−(上方)を示す信号を出力する(S1012)。また、演算制御回路3Lは、姿勢調整方向−(上方)を示す調整情報を表示する(S1013)。   On the other hand, when the minimum light level U> the minimum light level D is not satisfied (NO in S1007), the arithmetic control circuit 3L determines that the orientation adjustment direction of the sensor unit 2 is-(upward) (S1011). Then, the arithmetic control circuit 3L outputs a signal indicating the posture adjustment direction-(upward) (S1012). Further, the arithmetic control circuit 3L displays adjustment information indicating the posture adjustment direction-(upward) (S1013).

尚、S1008からS1013の一連の処理による、受光レベルの計測、光量レベルの判定、姿勢調整に関する信号の算出は、演算制御回路3Lの受光判定部61aによって実行される。   Note that the light reception determination unit 61a of the arithmetic control circuit 3L performs the light reception level measurement, the light amount level determination, and the calculation of the signal relating to the posture adjustment by the series of processing from S1008 to S1013.

また、実施形態1では、センサバー筐体1Lのセンサユニット2に対向して配置されるセンサバー筐体1Rのセンサユニット2から発光された光を受光して姿勢調整用の補正情報を出力することで、センサユニット2の姿勢調整を行う構成を説明している。しかしながら、センサバー筐体1Rのセンサユニット2についても同様に姿勢調整を行うことができることは言うまでもない。ここで、センサバー筐体1Rの姿勢調整を行う場合には、既に姿勢調整が完了したセンサバー筐体1Lを用いて行う。   In the first embodiment, the light emitted from the sensor unit 2 of the sensor bar casing 1R arranged to face the sensor unit 2 of the sensor bar casing 1L is received and the correction information for posture adjustment is output. A configuration for adjusting the attitude of the sensor unit 2 is described. However, it goes without saying that the posture adjustment can be similarly performed for the sensor unit 2 of the sensor bar housing 1R. Here, when the attitude adjustment of the sensor bar casing 1R is performed, the sensor bar casing 1L that has already been adjusted in attitude is used.

また、演算制御回路3L及び3Rの受光判定部61aによって姿勢調整信号(調整量/調整方向)を生成して、表示部によって姿勢調整情報を出力する構成としているが、これに限定されない。例えば、姿勢調整信号を座標入力装置に接続される外部装置へ送信して、その外部装置において姿勢調整情報を表示する構成でも良い。   In addition, although the posture adjustment signal (adjustment amount / adjustment direction) is generated by the light reception determination unit 61a of the arithmetic control circuits 3L and 3R and the posture adjustment information is output by the display unit, the configuration is not limited thereto. For example, the posture adjustment signal may be transmitted to an external device connected to the coordinate input device, and the posture adjustment information may be displayed on the external device.

また、上段投光部及び下投光部からの受光量の数値は、実際の受光量の値ではなく、それぞれ赤外LED312及び311自体の特性のばらつき等による投光量のばらつきを考慮した補正値を用いることにより精度の高い姿勢調整を行うようにしても良い。   In addition, the numerical value of the amount of light received from the upper light projecting unit and the lower light projecting unit is not an actual value of the received light amount, but a correction value that takes into account variations in the amount of light emitted due to variations in the characteristics of the infrared LEDs 312 and 311 themselves. May be used to perform posture adjustment with high accuracy.

また、実施形態1では、姿勢調整方向を報知する例を示しているが、更に、具体的な調整量(補正量)を報知する構成としてもよい。図13、図15及び図15では、上段投光部と下段投光部からの受光量の関係を、最も単純な大小関係である3パターンの姿勢調整方向のみ示している。その3パターンの光量の値と、それに対応するセンサユニット姿勢(角度)を正確に取得し、その間の光量と姿勢の関係を関数化し、その間の姿勢角度を補間し推定しても良い。もちろん、センサユニットの更に分解能の高い姿勢角度とそれに対応する光量データを予め取得しておき、その対応から姿勢補正量の精度を向上させることもできる。   Moreover, although the example which alert | reports an attitude | position adjustment direction is shown in Embodiment 1, it is good also as a structure which alert | reports a specific adjustment amount (correction amount) further. In FIG. 13, FIG. 15 and FIG. 15, the relationship between the amounts of light received from the upper light projecting unit and the lower light projecting unit is shown only in the three patterns of posture adjustment directions which are the simplest magnitude relationship. The light quantity values of the three patterns and the corresponding sensor unit posture (angle) may be obtained accurately, the relationship between the light amount and the posture between them may be functionalized, and the posture angle between them may be interpolated and estimated. Of course, the posture angle of higher resolution of the sensor unit and the light amount data corresponding thereto can be acquired in advance, and the accuracy of the posture correction amount can be improved from the correspondence.

以上説明したように、実施形態1によれば、ユーザに姿勢調整方向を提示するので、センサバー筐体に組込後のセンサユニットの姿勢調整を、従来の再帰反射光を基準に調整方向が不明な状態で行う場合に比べて、短時間に工数を短縮して行える。これにより、組立コストの削減も実現することができる。   As described above, according to the first embodiment, since the orientation adjustment direction is presented to the user, the orientation adjustment of the sensor unit after being incorporated into the sensor bar housing is unknown based on the conventional retroreflected light. Compared to the case where it is performed in a simple state, the number of steps can be shortened in a short time. Thereby, a reduction in assembly cost can also be realized.

<実施形態2>
実施形態1では、センサバー筐体1Rに対向するセンサバー筐体1Rに組み込まれたセンサユニット2が姿勢調整済である場合について説明している。この構成は、センサバー筐体1Rのセンサユニットの姿勢調整を行う場合には、それに対向するセンサバー筐体1Lのセンサユニット2が姿勢調整済であることを意味する。これは、例えば、組立時に、対向するセンサバー筐体は、治具により予め調整された場合を想定したものである。
<Embodiment 2>
In the first embodiment, a case is described where the sensor unit 2 incorporated in the sensor bar casing 1R facing the sensor bar casing 1R has been adjusted in posture. This configuration means that when the posture adjustment of the sensor unit of the sensor bar housing 1R is performed, the posture of the sensor unit 2 of the sensor bar housing 1L facing it is adjusted. This is based on the assumption that, for example, the opposing sensor bar casing is adjusted in advance by a jig during assembly.

実施形態2では、互いに対向するセンサバー筐体のセンサユニット2のそれぞれの姿勢が未調整であっても、その姿勢調整方向、更には、姿勢調整量を報知することができる構成について説明する。   In the second embodiment, a configuration that can notify the posture adjustment direction and the posture adjustment amount even when the postures of the sensor units 2 of the sensor bar housings facing each other are not adjusted will be described.

実施形態1の場合と同様に、センサバー筐体1L内のセンサユニット2の姿勢を調整する場合の姿勢傾斜に伴う受光角度範囲と投光角度範囲と受光量の関係を、図18A〜図18Fを用いて説明する。尚、図18A〜図18Fにおけるセンサユニットに対する上下方向の定義や、受光部40の受光角度範囲及び投光部30の投光角度範囲の定義は、実施形態1の図13で説明した内容に準ずる。   As in the case of the first embodiment, FIGS. 18A to 18F show the relationship between the light reception angle range, the light projection angle range, and the light reception amount associated with the posture inclination when the posture of the sensor unit 2 in the sensor bar housing 1L is adjusted. It explains using. 18A to 18F, the definition of the vertical direction with respect to the sensor unit and the definition of the light receiving angle range of the light receiving unit 40 and the light projecting angle range of the light projecting unit 30 are based on the contents described in FIG. 13 of the first embodiment. .

実施形態2では、受光部40の有効受光角度範囲と、投光部301及び302の有効投光角度範囲が重要になってくる。実施形態1と同様に、受光部40は、入力面6に対する垂直方向に、受光部40から入力面6に平行な方向に対し上下±0.5°の範囲で広がる有効受光角度範囲を有する。また、投光部301及び302それぞれの有効投光角度範囲は、±1.0°とする。   In the second embodiment, the effective light receiving angle range of the light receiving unit 40 and the effective light projecting angle ranges of the light projecting units 301 and 302 are important. Similar to the first embodiment, the light receiving unit 40 has an effective light receiving angle range that extends in the range of ± 0.5 ° above and below the direction parallel to the input surface 6 from the light receiving unit 40 in the direction perpendicular to the input surface 6. The effective light projection angle range of each of the light projecting units 301 and 302 is set to ± 1.0 °.

実施形態1では、投光部301及び302それぞれの有効投光角度範囲は、受光部40の有効受光角度範囲、つまり、±0.5°と同じでも問題はない。しかし、実施形態2では、受光部40の有効受光角度範囲と投光部301及び302それぞれの有効投光角度範囲は、異なることが必須条件となる。詳細は、以下に説明でする。   In the first embodiment, there is no problem even if the effective light projection angle ranges of the light projecting units 301 and 302 are the same as the effective light reception angle range of the light receiving unit 40, that is, ± 0.5 °. However, in the second embodiment, it is an essential condition that the effective light receiving angle range of the light receiving unit 40 and the effective light projecting angle ranges of the light projecting units 301 and 302 are different. Details will be described below.

実施形態2の構成においては、センサバー筐体1Lに着目した場合、相手側のセンサバー筐体1Rの傾斜(姿勢)も考慮する必要がある。図18Aでは、センサバー筐体1Lのセンサユニット2の姿勢は入力面6に対し平行であるが、センサバー筐体1Rのセンサユニット2が入力面6に対して上方(−)に傾斜している場合を示している。センサバー筐体1Lの受光部40の有効受光角度範囲内に、センサバー筐体1Rの上段投光部及び下段投光部も含まれる。   In the configuration of the second embodiment, when attention is paid to the sensor bar casing 1L, it is necessary to consider the inclination (posture) of the counterpart sensor bar casing 1R. In FIG. 18A, the posture of the sensor unit 2 of the sensor bar housing 1L is parallel to the input surface 6, but the sensor unit 2 of the sensor bar housing 1R is inclined upward (−) with respect to the input surface 6. Is shown. The upper light projecting unit and the lower light projecting unit of the sensor bar housing 1R are also included in the effective light receiving angle range of the light receiving unit 40 of the sensor bar housing 1L.

一方、センサバー筐体1Rの上段投光部は0.5°上方に傾斜している。そして、その有効投光角度範囲がセンサバー筐体1Lの受光部40の有効受光角度範囲と同一の±0.5°であれば、光学的原理によりその有効投光角度範囲にセンサバー筐体1Lの受光部40が含まれない。ところが、センサバー筐体1Rの上段投光部の有効投光角度範囲は±1.0°であるので、中心部ではなく光量は落ちるものの、その有効投光角度範囲にセンサバー筐体1Lの受光部40まで含まれる。   On the other hand, the upper light projecting portion of the sensor bar housing 1R is inclined upward by 0.5 °. If the effective light projection angle range is ± 0.5 ° which is the same as the effective light reception angle range of the light receiving unit 40 of the sensor bar housing 1L, the effective light projection angle range of the sensor bar housing 1L is within the effective light projection angle range according to the optical principle. The light receiving unit 40 is not included. However, since the effective light projection angle range of the upper light projecting portion of the sensor bar housing 1R is ± 1.0 °, the amount of light is reduced instead of the central portion, but the light receiving portion of the sensor bar housing 1L falls within the effective light projection angle range. Up to 40 are included.

一方、センサバー筐体1Rの下段投光部に関しては、その有効投光角度範囲の中心部分にセンサバー筐体1Lの受光部40が含まれることとなる。   On the other hand, regarding the lower light projecting portion of the sensor bar housing 1R, the light receiving portion 40 of the sensor bar housing 1L is included in the center portion of the effective light projecting angle range.

従って、センサバー筐体1Rの上段投光部及び下段投光部いずれの投光部からの光もセンサバー筐体1Lの受光部40では受光量が得られる。ここで、上段投光部に関しては、受光部40は、その投光分布の中心部から逸れる部分を受光する。これに対し、下段投光部に関しては、受光部40は、その投光分布の中心部近傍に向かう傾斜部分を受光することになるので、その受光量が平行の場合に比べて増大する。この時の受光光量分布を図18Aの下部に示す。受光量レベルDと受光量レベルUの値をそれぞれ計測すると、結果として、U<<Dとなる。   Therefore, the light receiving unit 40 of the sensor bar casing 1L can obtain the amount of light received from the light projecting sections of the upper and lower projection sections of the sensor bar casing 1R. Here, with respect to the upper light projecting unit, the light receiving unit 40 receives a portion deviating from the center of the light projecting distribution. On the other hand, with respect to the lower light projecting unit, the light receiving unit 40 receives an inclined portion toward the vicinity of the central portion of the light projecting distribution, so that the amount of received light is increased compared to the case where the received light amount is parallel. The received light quantity distribution at this time is shown in the lower part of FIG. 18A. When the values of the received light amount level D and the received light amount level U are measured, the result is U << D.

次に、図18Bに、センサバー筐体1Lのセンサユニット2の姿勢は入力面6に対し図18Aと同様に平行であるが、センサバー筐体1Rのセンサユニット2が入力面6に対して下方(+)に傾斜している場合を示す。センサバー筐体1Lの受光部40の有効受光角度範囲内に、センサバー筐体1Rの上段投光部及び下段投光部とも含まれるのは図18Aと同様である。   Next, in FIG. 18B, the posture of the sensor unit 2 of the sensor bar housing 1L is parallel to the input surface 6 as in FIG. 18A, but the sensor unit 2 of the sensor bar housing 1R is below the input surface 6 ( (+) Shows the case of tilting. It is the same as that of FIG. 18A that both the upper light projecting unit and the lower light projecting unit of the sensor bar housing 1R are included in the effective light receiving angle range of the light receiving unit 40 of the sensor bar housing 1L.

一方、センサバー筐体1Rの上段投光部は、0.5°下方に傾斜しており、下方に0.5°傾斜することにより、その有効投光角度範囲の中心部分にセンサバー筐体1Lの受光部40が含まれることとなる。   On the other hand, the upper light projecting portion of the sensor bar housing 1R is inclined downward by 0.5 °, and by tilting downward by 0.5 °, the sensor bar housing 1L has a central portion in the effective light projection angle range. The light receiving unit 40 is included.

センサバー筐体1Rの下段投光部に関しては、下方に0.5°傾斜する場合、その有効投光角度範囲がセンサバー筐体1Lの受光部40の有効受光角度範囲と同一の±0.5°であれば、その有効投光角度範囲にセンサバー筐体1Lの受光部40が含まれない。ところが、センサバー筐体1Rの下段投光部の有効投光角度範囲は±1.0°であるので、中心部ではなく光量は落ちるものの、その有効投光角度範囲にセンサバー筐体1Lの受光部40が含まれる。   When the lower light projecting portion of the sensor bar housing 1R is inclined downward by 0.5 °, the effective light projecting angle range is the same as the effective light receiving angle range of the light receiving portion 40 of the sensor bar housing 1L ± 0.5 °. If so, the light receiving portion 40 of the sensor bar housing 1L is not included in the effective light projection angle range. However, since the effective light projection angle range of the lower light projecting portion of the sensor bar housing 1R is ± 1.0 °, the amount of light is reduced instead of the central portion, but the light receiving portion of the sensor bar housing 1L falls within the effective light projection angle range. 40 is included.

従って、センサバー筐体1Rの上段投光部及び下段投光部いずれの投光部からの光もセンサバー筐体1Lの受光部40では受光量が得られる。ここで、下段投光部に関しては、受光部40は、投光分布の中心部から逸れる部分を受光する。これに対し、上段投光部に関しては、受光部40は、その投光分布の中心部近傍に向かう傾斜部分を受光することになるので、その受光量が平行の場合に比べて増大する。この時の受光光量分布を図18Bの下部に示す。受光量レベルDと受光量レベルUの値をそれぞれ計測すると、結果として、U>>Dとなる。   Therefore, the light receiving unit 40 of the sensor bar casing 1L can obtain the amount of light received from the light projecting sections of the upper and lower projection sections of the sensor bar casing 1R. Here, regarding the lower light projecting unit, the light receiving unit 40 receives a portion deviating from the center of the light projecting distribution. On the other hand, with respect to the upper light projecting unit, the light receiving unit 40 receives an inclined portion toward the vicinity of the center portion of the light projecting distribution, so that the amount of received light increases compared to the case where the light receiving amount is parallel. The received light quantity distribution at this time is shown in the lower part of FIG. 18B. When the values of the light reception level D and the light reception level U are measured, U >> D is obtained as a result.

次に、図18Cに、センサバー筐体1Lのセンサユニット2の姿勢は入力面6に対して上方(−)に傾斜していて、かつ、センサバー筐体1Rのセンサユニット2の姿勢も入力面6に対して上方(−)に傾斜している場合を示す。センサユニット2の傾斜角度0.5°と受光部40の受光角度範囲0.5°が一致する場合、光学的原理により、一方のセンサバー筐体の受光部40の水平に位置する他方のセンサバー筐体のセンサユニット2の受光部の位置が、受光角度範囲の限界となる。従って、センサバー筐体1Lの受光部40の有効受光角度範囲内に、センサバー筐体1Rの上段投光部のみが含まれる。   Next, in FIG. 18C, the posture of the sensor unit 2 of the sensor bar housing 1L is inclined upward (−) with respect to the input surface 6, and the posture of the sensor unit 2 of the sensor bar housing 1R is also the input surface 6. The case where it inclines upward (-) with respect to is shown. When the inclination angle 0.5 ° of the sensor unit 2 and the light receiving angle range 0.5 ° of the light receiving unit 40 coincide with each other, the other sensor bar housing positioned horizontally of the light receiving unit 40 of one sensor bar housing is optically principled. The position of the light receiving portion of the body sensor unit 2 is the limit of the light receiving angle range. Accordingly, only the upper light projecting portion of the sensor bar casing 1R is included in the effective light receiving angle range of the light receiving section 40 of the sensor bar casing 1L.

一方、センサバー筐体1Rの上段投光部は0.5°上方に傾斜していても、その有効投光角度範囲1.0°より小さいので、有効投光角度範囲にセンサバー筐体1Lの受光部40が含まれることとなる。下段投光部に関しては、上方に0.5°傾斜する場合、その有効投光角度範囲にセンサバー筐体1Lの受光部40が含まれる。ところが、受光部40の受光角度範囲に含まれないので、結果として、受光量は得られない。この時の受光光量分布を図18Cの下部に示す。受光量レベルDと受光量レベルUの値をそれぞれ計測すると、結果として、U>Dとなる。   On the other hand, even if the upper light projecting portion of the sensor bar housing 1R is inclined upward by 0.5 °, the effective light projection angle range is smaller than 1.0 °, so that the sensor bar housing 1L receives light within the effective light projection angle range. The part 40 is included. When the lower light projecting unit is inclined upward by 0.5 °, the light receiving unit 40 of the sensor bar housing 1L is included in the effective light projecting angle range. However, since it is not included in the light receiving angle range of the light receiving unit 40, the amount of received light cannot be obtained as a result. The received light quantity distribution at this time is shown in the lower part of FIG. 18C. When the values of the light reception level D and the light reception level U are measured, U> D is obtained as a result.

次に、図18Dに、センサバー筐体1Lのセンサユニット2の姿勢は入力面6に対して上方(−)に傾斜していて、かつ、センサバー筐体1Rのセンサユニット2の姿勢は入力面6に対して下方(+)に傾斜している場合を示す。図18Cの場合と同様に、傾斜角度0.5°と受光角度範囲0.5°が一致する場合、一方のセンサバー筐体の受光部40の水平に位置する他方のセンサバー筐体の受光部40の位置が、受光角度範囲の限界となる。従って、センサバー筐体1Lの受光部40の有効受光角度範囲内に、センサバー筐体1Rの上段投光部のみが含まれる。   Next, in FIG. 18D, the posture of the sensor unit 2 of the sensor bar housing 1L is inclined upward (−) with respect to the input surface 6 and the posture of the sensor unit 2 of the sensor bar housing 1R is the input surface 6. The case where it inclines below (+) with respect to is shown. Similarly to the case of FIG. 18C, when the inclination angle of 0.5 ° and the light receiving angle range of 0.5 ° coincide with each other, the light receiving unit 40 of the other sensor bar housing positioned horizontally with respect to the light receiving unit 40 of one sensor bar housing. Is the limit of the light receiving angle range. Accordingly, only the upper light projecting portion of the sensor bar casing 1R is included in the effective light receiving angle range of the light receiving section 40 of the sensor bar casing 1L.

一方、センサバー筐体1Rの上段投光部は、0.5°下方に傾斜する場合、ちょうどその有効投光角度範囲の中心部近傍にセンサバー筐体1Lの受光部40が含まれることとなる。従って、この時の受光部40の受光量は増大する。下段投光部に関しては、下方に0.5°傾斜する場合、その有効投光角度範囲の中心部から離れた方向にセンサバー筐体1Lの受光部40が存在することになる。加えて、その受光部40の受光角度範囲に含まれないこととなるため、結果として、受光量はほとんど得られない。この時の受光光量分布を図18Dの下部に示す。受光量レベルDと受光量Uの値をそれぞれ計測すると、結果として、U>>>Dとなる。   On the other hand, when the upper light projecting portion of the sensor bar housing 1R is inclined downward by 0.5 °, the light receiving portion 40 of the sensor bar housing 1L is included just near the center of the effective light projecting angle range. Accordingly, the amount of light received by the light receiving unit 40 at this time increases. When the lower light projecting unit is inclined downward by 0.5 °, the light receiving unit 40 of the sensor bar housing 1L exists in a direction away from the center of the effective light projecting angle range. In addition, since it is not included in the light receiving angle range of the light receiving unit 40, the amount of received light is hardly obtained as a result. The received light quantity distribution at this time is shown in the lower part of FIG. 18D. When the values of the received light amount level D and the received light amount U are measured, U >> D is obtained as a result.

次に、図18Eに、センサバー筐体1Lのセンサユニット2の姿勢は入力面6に対して下方(+)に傾斜していて、かつ、センサバー筐体1Rのセンサユニット2の姿勢は入力面6に対して上方(−)に傾斜している場合を示す。図18Dの場合と同様に、傾斜角度0.5°と受光角度範囲0.5°が一致する場合、一方のセンサバー筐体の受光部40の水平に位置する他方のセンサバー筐体の受光部40の位置が、受光角度範囲の限界となる。従って、この場合、下方傾斜であるから、センサバー筐体1Lの受光部40の有効受光角度範囲内に、センサバー筐体1Rの下段投光部のみが含まれる。   Next, in FIG. 18E, the posture of the sensor unit 2 of the sensor bar housing 1L is inclined downward (+) with respect to the input surface 6, and the posture of the sensor unit 2 of the sensor bar housing 1R is the input surface 6 The case where it inclines upward (-) with respect to is shown. Similarly to the case of FIG. 18D, when the inclination angle of 0.5 ° coincides with the light receiving angle range of 0.5 °, the light receiving unit 40 of the other sensor bar casing positioned horizontally with respect to the light receiving unit 40 of one sensor bar casing. Is the limit of the light receiving angle range. Therefore, in this case, since the inclination is downward, only the lower light projecting portion of the sensor bar casing 1R is included in the effective light receiving angle range of the light receiving section 40 of the sensor bar casing 1L.

一方、センサバー筐体1Rの上段投光部は、上方に0.5°傾斜する場合、その有効投光角度範囲の中心部から離れた方向にセンサバー筐体1Lの受光部40が存在することになる。加えて、その受光部40の受光角度範囲に含まれないこととなるため、結果として、受光量はほとんど得られない。下段投光部に関しては、0.5°上方に傾斜する場合、ちょうどその有効投光角度範囲の中心部近傍にセンサバー筐体1Lの受光部40が含まれることとなる。従って、この時の受光部40の受光量は増大する。この時の受光光量分布を図18Eの下部に示す。受光量レベルDと受光量レベルUの値をそれぞれ計測すると、結果として、D>>>U となる。   On the other hand, when the upper light projecting portion of the sensor bar housing 1R is inclined upward by 0.5 °, the light receiving portion 40 of the sensor bar housing 1L exists in a direction away from the center of the effective light projection angle range. Become. In addition, since it is not included in the light receiving angle range of the light receiving unit 40, the amount of received light is hardly obtained as a result. When the lower light projecting unit is inclined upward by 0.5 °, the light receiving unit 40 of the sensor bar housing 1L is included just near the center of the effective light projection angle range. Accordingly, the amount of light received by the light receiving unit 40 at this time increases. The received light quantity distribution at this time is shown in the lower part of FIG. 18E. When the values of the received light amount level D and the received light amount level U are respectively measured, the result is D >> U.

次に、図18Fに、センサバー筐体1Lのセンサユニット2の姿勢は入力面6に対して下方(+)に傾斜していて、かつ、センサバー筐体1Rのセンサユニット2も入力面6に対して下方(+)に傾斜している場合を示す。傾斜角度0.5°と受光角度範囲0.5°が一致する場合、一方のセンサバー筐体の受光部40の水平に位置する他方のセンサバー筐体の受光部40の位置が、受光角度範囲の限界となる。従って、この場合、下方傾斜であるから、センサバー筐体1Lの受光部40の有効受光角度範囲内に、センサバー筐体1Rの下段投光部のみが含まれる。   Next, in FIG. 18F, the posture of the sensor unit 2 of the sensor bar housing 1L is inclined downward (+) with respect to the input surface 6, and the sensor unit 2 of the sensor bar housing 1R is also relative to the input surface 6. In this case, it is inclined downward (+). When the tilt angle of 0.5 ° and the light receiving angle range of 0.5 ° coincide, the position of the light receiving unit 40 of the other sensor bar housing that is positioned horizontally of the light receiving unit 40 of one sensor bar housing is within the light receiving angle range. It becomes a limit. Therefore, in this case, since the inclination is downward, only the lower light projecting portion of the sensor bar casing 1R is included in the effective light receiving angle range of the light receiving section 40 of the sensor bar casing 1L.

一方、センサバー筐体1Rの上段投光部は、下方に0.5°傾斜する場合、その有効投光角度範囲にセンサバー筐体1Lの受光部40が含まれる。ところが、受光部40の受光角度範囲に含まれないので、結果として、受光量は得られない。下段投光部は、0.5°下方に傾斜しても、その有効投光角度範囲1.0°より小さいので、有効投光角度範囲にセンサバー筐体1Lの受光部40が含まれることとなる。この時の受光光量分布を図18Fの下部に示す。受光量レベルDと受光量レベルUの値をそれぞれ計測すると、結果として、D>Uとなる。   On the other hand, when the upper light projecting portion of the sensor bar housing 1R is inclined downward by 0.5 °, the light receiving portion 40 of the sensor bar housing 1L is included in the effective light projecting angle range. However, since it is not included in the light receiving angle range of the light receiving unit 40, the amount of received light cannot be obtained as a result. Even if the lower light projecting unit is inclined downward by 0.5 °, the effective light projecting angle range is smaller than 1.0 °. Therefore, the effective light projecting angle range includes the light receiving unit 40 of the sensor bar housing 1L. Become. The received light quantity distribution at this time is shown in the lower part of FIG. 18F. When the values of the light reception level D and the light reception level U are measured, D> U is obtained as a result.

以上のように、センサバー筐体1Lのセンサユニット2の姿勢と、センサバー筐体1Rのセンサユニット2の姿勢との取り得るケースのすべてにおけるそれぞれの有効角度範囲、及び、センサバー筐体1Lの受光部40の受光量の関係が得られる。この受光量に関しては、上段(投光部)投光時の受光量レベルUと下段(投光部)投光時の受光量レベルDとの受光量レベル比U/Dの数値を姿勢調整角度の算出に用いる。以上の取り得るケースのすべてにおけるセンサバー筐体1Lのセンサユニット2の姿勢(角度)、センサバー筐体1Rのセンサユニット2の姿勢(角度)、その際の受光量レベルの関係を図19に示す。   As described above, each effective angle range in all possible cases of the orientation of the sensor unit 2 of the sensor bar housing 1L and the orientation of the sensor unit 2 of the sensor bar housing 1R, and the light receiving unit of the sensor bar housing 1L A relationship of 40 received light amounts is obtained. With respect to this received light amount, the value of the received light amount level ratio U / D between the received light amount level U at the time of upper (light projecting unit) light projection and the received light level D at the lower stage (light projecting unit) light projection is the attitude adjustment angle. Used to calculate FIG. 19 shows the relationship between the attitude (angle) of the sensor unit 2 of the sensor bar casing 1L, the attitude (angle) of the sensor unit 2 of the sensor bar casing 1R, and the received light level at that time in all the possible cases.

図19において、受光量レベルは、センサバー筐体1Rのセンサユニット2の上段投光部投光時、及び、下段投光部投光時のそれぞれの値である。受光量レベル比U/Dと同時に、その差分U−Dも併せて示している。   In FIG. 19, the received light amount level is a value at the time of projecting the upper light projecting unit of the sensor unit 2 of the sensor bar housing 1 </ b> R and at the time of projecting the lower light projecting unit. The difference UD is shown together with the received light amount level ratio U / D.

図19に示されるように、センサバー筐体1Lのセンサユニット2の姿勢と、センサバー筐体1Rのセンサユニット2の姿勢とのすべてのケース(ケース1〜9)に対し、受光量レベル比U/Dは、一意的な数値を示すことが分かる。同時に、差分U−Dに関しても、一意的な数値を示すことが分かる。従って、受光量レベル比U/Dあるいは差分U−Dの値を判定することにより、それに対応する、センサバー筐体1Lのセンサユニットの姿勢と、センサバー筐体1Rのセンサユニット2の姿勢を示す値を算出することができることになる。つまり、その際のセンサバー筐体1Lのセンサユニット2の姿勢に対する姿勢補正値を算出することが可能である。   As shown in FIG. 19, for all cases (cases 1 to 9) of the posture of the sensor unit 2 of the sensor bar housing 1L and the posture of the sensor unit 2 of the sensor bar housing 1R, the received light amount level ratio U / It can be seen that D represents a unique numerical value. At the same time, it can be seen that the difference UD also shows a unique numerical value. Accordingly, by determining the value of the received light amount level ratio U / D or the difference UD, a value indicating the corresponding attitude of the sensor unit of the sensor bar casing 1L and the attitude of the sensor unit 2 of the sensor bar casing 1R. Can be calculated. That is, it is possible to calculate a posture correction value for the posture of the sensor unit 2 of the sensor bar housing 1L at that time.

姿勢補正値は、センサバー筐体1Lのセンサユニット2の姿勢の逆の値(補正角度)となるが、それを図19の表の最右欄に示している。ここでは、センサバー筐体1Lのセンサユニット2に着目してこの姿勢補正を目的としているので、算出される補正角度とは、センサバー筐体1Lのセンサユニット2に対する姿勢補正値となる。但し、同時に、センサバー筐体1Rのセンサユニット2の補正角度も同時に算出することもできる。この一連の受光レベルの計測、これに対する判定、姿勢補正に関する信号の算出は、実施形態1と同様に、演算制御回路3の受光判定部61aによって行われる。   The posture correction value is a value (correction angle) opposite to the posture of the sensor unit 2 of the sensor bar housing 1L, and is shown in the rightmost column of the table of FIG. Here, since this posture correction is aimed at focusing on the sensor unit 2 of the sensor bar housing 1L, the calculated correction angle is a posture correction value for the sensor unit 2 of the sensor bar housing 1L. However, at the same time, the correction angle of the sensor unit 2 of the sensor bar housing 1R can be calculated simultaneously. The series of measurement of the received light level, the determination for this, and the calculation of the signal relating to the posture correction are performed by the received light determination unit 61a of the arithmetic control circuit 3 as in the first embodiment.

以上の説明により、受光量レベル比U/Dあるいは差分U−Dを単独で判定することで、姿勢を調整するために十分な調整値の算出が可能である。しかし、その数値の誤差が含まれる場合に更に算出値の精度を上げるために、受光量レベル比U/Dと差分U−Dを組み合わせて判定して、それに対応する姿勢補正値を算出しても良い。   As described above, by determining the received light amount level ratio U / D or the difference UD alone, it is possible to calculate a sufficient adjustment value for adjusting the posture. However, in order to further increase the accuracy of the calculated value when the numerical value error is included, the received light amount level ratio U / D and the difference UD are determined in combination, and the corresponding posture correction value is calculated. Also good.

図18A〜図18Fの説明では、説明を簡単にするために、補正前のセンサバー筐体1のセンサユニット2の補正対象の姿勢が0.5°単位のである場合を示している。しかしながら、もちろん、この単位に限定されず、更に細かい姿勢補正量の場合にも上記の構成を適用できることは言うまでもない。その場合には、図19に示す表に対して、更に、細かい分解能の各センサユニットの姿勢角度の組み合わせに対応する、受光量レベルの値を実測して、それらを対応付けたテーブルを調整テーブルとして演算制御回路3のメモリ64に予め格納しておく。そして、組立調整時に実測する、受光量レベル比U/D及び差分U−Dに対して、メモリ64に格納される調整テーブルを用いて、対応する姿勢角度の組み合わせを導出し、補正量(補正角度)を算出するようにしても良い。   In the description of FIGS. 18A to 18F, in order to simplify the description, a case where the posture of the correction target of the sensor unit 2 of the sensor bar housing 1 before correction is in units of 0.5 ° is illustrated. However, it goes without saying that the present invention is not limited to this unit, and it is needless to say that the above-described configuration can be applied to a finer posture correction amount. In that case, the table shown in FIG. 19 is further compared with the adjustment table by actually measuring the value of the received light amount level corresponding to the combination of the posture angles of the sensor units with fine resolution and associating them. Is previously stored in the memory 64 of the arithmetic control circuit 3. Then, with respect to the received light amount level ratio U / D and difference UD, which are actually measured during assembly adjustment, a corresponding combination of posture angles is derived using an adjustment table stored in the memory 64, and a correction amount (correction) (Angle) may be calculated.

尚、図19に示す補正角度に付される符号は補正姿勢方向を示している。これにより、算出された補正角度を受光判定部61aへ送信し、姿勢補正角度・補正姿勢方向を表示部で表示する。実施形態1と同様に、この受光判定部61a、及び、表示部は、センサバー筐体1内に備えても良い。あるいは、外部のPCあるいは外部の演算制御装置内に設けて、システムとして構成しても良いのは、実施形態1と同様である。   In addition, the code | symbol attached | subjected to the correction angle shown in FIG. 19 has shown the correction | amendment attitude | position direction. Thereby, the calculated correction angle is transmitted to the light reception determination unit 61a, and the posture correction angle and the correction posture direction are displayed on the display unit. Similar to the first embodiment, the light reception determination unit 61 a and the display unit may be provided in the sensor bar housing 1. Alternatively, it may be provided in an external PC or an external arithmetic control device and configured as a system, as in the first embodiment.

実施形態2の姿勢調整モードにおける処理について図20を用いて説明する。尚、実施形態1の図17の処理と同一の処理については、同一のステップ番号を付加して、その詳細については省略する。   Processing in the posture adjustment mode of the second embodiment will be described with reference to FIG. In addition, about the process same as the process of FIG. 17 of Embodiment 1, the same step number is added and the detail is abbreviate | omitted.

S1001及びS1003の処理を経て、演算制御回路3Lは、メモリ64に格納した最小光量レベルUと最小光量レベルDとから、受光量レベル比U/Dと差分U−Dを算出する(S1052)。演算制御回路3Lは、メモリ64に格納されている調整テーブルを参照して、算出した受光量レベル比U/Dと差分U−Dに対応する、センサユニットの受光部40の姿勢角度の組を導出する(S1053)。演算制御回路3Lは、メモリ64に格納されている調整テーブルを参照して、導出した姿勢角度の組に対応する、補正姿勢角度を算出する(S1054)。   Through the processing of S1001 and S1003, the arithmetic control circuit 3L calculates the received light amount level ratio U / D and the difference UD from the minimum light amount level U and the minimum light amount level D stored in the memory 64 (S1052). The arithmetic control circuit 3L refers to the adjustment table stored in the memory 64, and sets a set of posture angles of the light receiving unit 40 of the sensor unit corresponding to the calculated received light amount level ratio U / D and the difference UD. Derived (S1053). The arithmetic control circuit 3L refers to the adjustment table stored in the memory 64 and calculates a corrected posture angle corresponding to the derived set of posture angles (S1054).

演算制御回路3Lは、算出した補正姿勢角度を示す信号を出力する(S1055)。演算制御回路3Lは、その補正姿勢角度を示す調整情報を表示する(S1056)。これを受けて、ユーザは姿勢調整を行うことになる。   The arithmetic control circuit 3L outputs a signal indicating the calculated corrected posture angle (S1055). The arithmetic control circuit 3L displays adjustment information indicating the corrected posture angle (S1056). In response to this, the user performs posture adjustment.

その後、演算制御回路3Lは、補正姿勢角度=0であるか否かを判定する(S1057)。補正姿勢角度=0でない場合(S1057でNO)、S1002に戻る。一方、補正姿勢角度=0である場合(S1057でYES)、処理を終了する。   Thereafter, the arithmetic control circuit 3L determines whether or not the corrected posture angle = 0 (S1057). If the corrected posture angle is not 0 (NO in S1057), the process returns to S1002. On the other hand, if the corrected posture angle is 0 (YES in S1057), the process ends.

尚、実施形態2において、離散的な実測角度との間の補間角度に対応するために、実測角度と受光量レベル比U/Dと差分U−Dとの関係を関数化しても良い。例えば、センサバー筐体1Lのセンサユニット2の姿勢角度をx、センサバー筐体1Rのセンサユニットの姿勢角度をy、受光量レベル比U/DをR、差分U−DをDとする。この場合、R、Dを算出する関数をそれぞれ関数f、gとすると、
f(x,y)=R
g(x,y)=D
を設定することができ、そして、この関数の逆関数より、補間角度を算出するようにしても良い。この場合には、R、Dの値から自動的に補正量を算出することができ、調整テーブルの参照が不要となる。
In the second embodiment, the relationship between the measured angle, the received light amount level ratio U / D, and the difference UD may be expressed as a function in order to correspond to the interpolation angle between the discrete measured angles. For example, the attitude angle of the sensor unit 2 of the sensor bar casing 1L is x, the attitude angle of the sensor unit of the sensor bar casing 1R is y, the received light amount level ratio U / D is R, and the difference UD is D. In this case, if the functions for calculating R and D are functions f and g, respectively,
f (x, y) = R
g (x, y) = D
And an interpolation angle may be calculated from the inverse function of this function. In this case, the correction amount can be automatically calculated from the values of R and D, and it is not necessary to refer to the adjustment table.

このように、すべてのセンサバー筐体1Lのセンサユニット2の姿勢と、センサバー筐体1Rのセンサユニット2の姿勢に対応して、一意的に、受光量レベル比U/Dと差分U−Dを算出することができる。これは、投受光の光学的な角度範囲、つまり、受光部40の有効受光角度範囲と、投光部301及び302の有効投光角度範囲が異なっているからである。   As described above, the received light amount level ratio U / D and the difference UD are uniquely determined according to the posture of the sensor unit 2 of all the sensor bar housings 1L and the posture of the sensor unit 2 of the sensor bar housing 1R. Can be calculated. This is because the optical angle range of light projecting and receiving, that is, the effective light receiving angle range of the light receiving unit 40 and the effective light projecting angle range of the light projecting units 301 and 302 are different.

つまり、実施形態2では、センサバー筐体1Lの受光部40の有効受光角度範囲は受光部40から入力面6に平行な方向に対し±0.5°の範囲である。そして、対向して配置されるセンサバー筐体1Rの投光部301及び302の有効投光角度範囲は、±1.0°である。このような投受光の有効角度範囲が異なる構成により、すべてのセンサバー筐体1Lのセンサユニットの姿勢と、センサバー筐体1Rのセンサユニットの姿勢に対応して、一意的に受光量レベル比U/Dと差分U−Dを算出することができる。この構成は、図18A〜図18Fで説明される構成に限定されず、受光部40の有効受光角度範囲と、投光部301及び302の有効投光角度範囲が異なっていればよい。例えば、受光部40の有効受光角度範囲が±1.0°、投光部301及び302の有効投光角度範囲が±0.5°であっても良い。また、角度範囲の角度数値は、±0.5°、±1.0°に限定されるものではなく、その他の角度範囲でも良い。   That is, in the second embodiment, the effective light receiving angle range of the light receiving unit 40 of the sensor bar housing 1L is within a range of ± 0.5 ° with respect to the direction parallel to the input surface 6 from the light receiving unit 40. The effective light projection angle range of the light projecting portions 301 and 302 of the sensor bar housing 1R arranged to face each other is ± 1.0 °. With such a configuration in which the effective angle range of light projection and reception is different, the received light amount level ratio U / uniquely corresponds to the orientation of the sensor units of all the sensor bar housings 1L and the orientation of the sensor units of the sensor bar housings 1R. D and the difference UD can be calculated. This configuration is not limited to the configuration illustrated in FIGS. 18A to 18F, as long as the effective light receiving angle range of the light receiving unit 40 and the effective light projecting angle ranges of the light projecting units 301 and 302 are different. For example, the effective light receiving angle range of the light receiving unit 40 may be ± 1.0 °, and the effective light projecting angle ranges of the light projecting units 301 and 302 may be ± 0.5 °. Further, the angle numerical value of the angle range is not limited to ± 0.5 ° and ± 1.0 °, and may be other angle ranges.

仮に、受光部40の有効受光角度範囲と投光部301及び302の有効投光角度範囲とが等しく±1.0°とした場合について説明する。この場合、図19に示す調整テーブルのすべてのケースにおけるセンサバー筐体1Lのセンサユニットの姿勢(角度)、センサバー筐体1Rのセンサユニットの姿勢(角度)、その際の受光量レベルに関する調整テーブルは、図21のようになる。   The case where the effective light receiving angle range of the light receiving unit 40 and the effective light projecting angle range of the light projecting units 301 and 302 are set equal to ± 1.0 ° will be described. In this case, the adjustment table regarding the attitude (angle) of the sensor unit of the sensor bar casing 1L, the attitude (angle) of the sensor unit of the sensor bar casing 1R, and the received light amount level at that time in all cases of the adjustment table shown in FIG. As shown in FIG.

図21の調整テーブルのハッチング部分では、異なるセンサバー筐体1Lのセンサユニット2の姿勢(角度)とセンサバー筐体1Rのセンサユニット2の姿勢(角度)に対し、同一の受光量レベル比U/Dあるいは差分U−Dとなるケースが複数存在する。光学的な角度範囲が等しく、受光部40の有効受光角度範囲と投光部301及び302の有効投光角度範囲が等しいので、このような場合は、受光部40が傾斜しているのか、投光部301及び302が傾斜しているのか区別できない。つまり、相対的に同一の結果となるので、区別できないのである。この場合には、受光量レベル比U/Dあるいは差分U−Dに基づいて、補正姿勢角度を算出することはできない。   In the hatched portion of the adjustment table in FIG. 21, the same received light amount level ratio U / D with respect to the attitude (angle) of the sensor unit 2 of the different sensor bar casing 1L and the attitude (angle) of the sensor unit 2 of the sensor bar casing 1R. Alternatively, there are a plurality of cases where the difference is UD. Since the optical angle range is equal and the effective light receiving angle range of the light receiving unit 40 is equal to the effective light projecting angle range of the light projecting units 301 and 302, in such a case, whether the light receiving unit 40 is inclined or projected. It cannot be distinguished whether the light parts 301 and 302 are inclined. That is, since the results are relatively the same, they cannot be distinguished. In this case, the corrected posture angle cannot be calculated based on the received light amount level ratio U / D or the difference UD.

そこで、実施形態2では、投受光の光学的な角度範囲、つまり、受光部40の有効受光角度範囲(上記例では±0.5°)と投光部301及び302の有効投光角度範囲(上記例では±1.0°)が異なる構成としている。このような構成にすることで、受光量レベル比U/Dあるいは差分U−Dより、一意的に姿勢補正値としての補正姿勢角度を算出することができる。   Therefore, in the second embodiment, the optical angle range of light projection / reception, that is, the effective light reception angle range of the light receiving unit 40 (± 0.5 ° in the above example) and the effective light projection angle range of the light projecting units 301 and 302 ( In the above example, ± 1.0 °) is different. With this configuration, a corrected posture angle as a posture correction value can be uniquely calculated from the received light amount level ratio U / D or the difference UD.

以上説明したように、実施形態2によれば、ユーザに調整方向及び調整角度を提示するので、センサバー筐体に組込後のセンサユニットの姿勢調整を、従来の再帰反射光を基準に調整方向が不明な状態で行う場合に比べて、短時間に工数を短縮して行える。特に、実施形態2では、対向して配置させるセンサバー筐体1のセンサユニットの姿勢を予め入力面に対して平行に調整しておく必要はない。従って、組立調整時に、同時に2つのセンサバー筐体を対向して配置した状態で、互いに対向するセンサバー筐体1に対して移動することなく調整ができるので、工数削減効果が大きい。これにより、組立コストの削減も実現することができる。   As described above, according to the second embodiment, since the adjustment direction and the adjustment angle are presented to the user, the adjustment of the posture of the sensor unit after being incorporated into the sensor bar housing is adjusted based on the conventional retroreflected light. Compared with the case where this is performed in an unknown state, the number of man-hours can be shortened in a short time. In particular, in the second embodiment, it is not necessary to previously adjust the orientation of the sensor unit of the sensor bar housing 1 that is disposed so as to face each other in parallel to the input surface. Accordingly, during assembly adjustment, adjustment can be performed without moving the sensor bar casings 1 facing each other in a state where the two sensor bar casings are arranged facing each other at the same time. Thereby, a reduction in assembly cost can also be realized.

<実施形態3>
実施形態1及び2では、算出した補正姿勢方向、更には、補正姿勢角度をユーザに報知する構成としている。従って、組立作業者は、その報知された方向に従い、対象となるセンサユニットの姿勢を補正用のビスを回転させて、姿勢を調整する。
<Embodiment 3>
In the first and second embodiments, the calculated corrected posture direction and further the corrected posture angle are notified to the user. Therefore, the assembly operator adjusts the posture by rotating the screw for correcting the posture of the target sensor unit according to the notified direction.

実施形態3では、更に、センサバー筐体1に配置されるセンサユニット2の姿勢を自動的に変更する姿勢変更部を、センサユニット2の近傍に配置する構成について説明する。この構成について、図22A及び図22Bを用いて説明する。   In the third embodiment, a configuration in which an attitude changing unit that automatically changes the attitude of the sensor unit 2 arranged in the sensor bar housing 1 is arranged in the vicinity of the sensor unit 2 will be described. This configuration will be described with reference to FIGS. 22A and 22B.

図22Aにおいて、姿勢変更部701−L1、701−L2、701−R1、及び701−R2(総称する場合は、姿勢変更部701と表記)は、姿勢制御回路及び小型モータ及び変速動力伝達部からなる。姿勢変更部701−L1、701−L2、701−R1、及び701−R2はそれぞれ、各センサバー筐体1のセンサユニット2−L1、2−L2、2−R1、及び2−R2の近傍に配置され、対応するセンサユニットと電気的に接続される。演算制御回路3で補正姿勢角度を算出する構成は、実施形態2と同様である。実施形態3では、算出された補正姿勢角度は、例えば、センサユニット2−L1の姿勢変更部701の姿勢制御回路に送信される。そして、その補正姿勢角度に応じて姿勢制御回路及び小型モータ及び変速動力伝達部により、センサユニット2−L1の姿勢が自動的に補正すべき所定の角度(補正姿勢角度)に変動する。尚、算出された補正姿勢角度に応じて、センサユニット2の姿勢を自動的に変更できる構成であれば、姿勢変更部701〜704の構成に限定されるものではない。   In FIG. 22A, posture changing units 701-L1, 701-L2, 701-R1, and 701-R2 (generally referred to as posture changing unit 701) include a posture control circuit, a small motor, and a transmission power transmission unit. Become. Posture changing sections 701-L1, 701-L2, 701-R1, and 701-R2 are arranged in the vicinity of sensor units 2-L1, 2-L2, 2-R1, and 2-R2 of each sensor bar casing 1, respectively. And electrically connected to the corresponding sensor unit. The configuration for calculating the corrected posture angle by the arithmetic control circuit 3 is the same as that of the second embodiment. In the third embodiment, the calculated corrected posture angle is transmitted to, for example, the posture control circuit of the posture changing unit 701 of the sensor unit 2-L1. Then, the attitude of the sensor unit 2-L1 is changed to a predetermined angle (corrected attitude angle) to be automatically corrected by the attitude control circuit, the small motor, and the transmission power transmission unit according to the corrected attitude angle. Note that the configuration of the posture changing units 701 to 704 is not limited as long as the posture of the sensor unit 2 can be automatically changed according to the calculated corrected posture angle.

以上説明したように、実施形態3によれば、実施形態1及び2で説明した効果に加えて、姿勢変更部701をセンサバー筐体1に内蔵する構成とすることにより、姿勢変動機構を装置組立時に用いることによる作業者負担の軽減がなされる。   As described above, according to the third embodiment, in addition to the effects described in the first and second embodiments, the posture changing unit 701 is built in the sensor bar housing 1, so that the posture variation mechanism can be assembled. The burden on the operator is reduced by using it occasionally.

更に、それのみならず、製品出荷後における本装置に対する落下、衝撃、環境変動等の外的要因によるセンサユニットの姿勢変動時にも対応できる。つまり、姿勢変動時により、受光量分布に変動が発生し、基準光量範囲外となった場合には、報知部によりユーザに姿勢調整モードへの切替を促し、あるいは、自動的に姿勢調整モードに切り替える。そして、互いに対向するセンサバー筐体1を配置とした後、一方のセンサバー筐体1の投光部からの光を他方のセンサバー筐体1のセンサユニット2で受光し、その受光状態を判定することにより再補正対象のセンサユニット2の補正姿勢角度を算出する。そして、その算出した補正姿勢角度を用いて、姿勢変更部701でセンサユニット2の姿勢を変動することができる。このように、外的変動要因に対しても、常に安定した品質を保つことができる。   In addition, it is possible to cope with a change in the attitude of the sensor unit due to an external factor such as a drop, impact, environmental change, or the like after the product is shipped. In other words, if the received light amount distribution fluctuates due to posture change and falls outside the reference light amount range, the notification unit prompts the user to switch to posture adjustment mode, or automatically switches to posture adjustment mode. Switch. Then, after arranging the sensor bar housings 1 facing each other, the light from the light projecting portion of one sensor bar housing 1 is received by the sensor unit 2 of the other sensor bar housing 1 and the light receiving state is determined. Thus, the corrected posture angle of the sensor unit 2 to be recorrected is calculated. Then, the posture of the sensor unit 2 can be changed by the posture changing unit 701 using the calculated corrected posture angle. In this way, stable quality can always be maintained against external variation factors.

<<本願発明の特徴的な構成及び効果>>
上述のように、略矩形状の座標入力有効領域に対する指示位置の座標を算出する座標入力装置は、センサユニットを少なくとも2つ内蔵する第1の筐体及び第2の筐体(センサバー筐体)を有する。各々の筐体には入射した光をもとの方向に戻すための再帰反射部が設けられ、略矩形状の座標入力有効領域の対向する2辺に、第1の筐体及び第2の筐体が各々設けられる。
<< Characteristic configuration and effect of the present invention >>
As described above, the coordinate input device that calculates the coordinates of the designated position with respect to the substantially rectangular coordinate input effective area includes the first casing and the second casing (sensor bar casing) that include at least two sensor units. Have Each casing is provided with a retroreflecting section for returning incident light to the original direction, and the first casing and the second casing are disposed on two opposite sides of the substantially rectangular coordinate input effective area. Each body is provided.

各々の筐体に設けられたセンサユニットは、対向する辺に設けられた筐体の再帰反射部に向かって赤外線を投光する投光部と、該再帰反射部で再帰反射された光を受光する受光部よりなる。座標入力有効領域をタッチすることによって光路が遮られ、少なくとも2つのセンサユニットは、タッチ位置に応じた光が遮られた方向を検知することができる。少なくとも2つのセンサユニットが検出した角度情報と、当該2つのセンサユニット間の距離情報に基づき、幾何学的な演算によりタッチ位置を算出できる。   The sensor unit provided in each housing receives a light projecting portion that projects infrared rays toward the retroreflecting portion of the housing provided on the opposite side and the light retroreflected by the retroreflecting portion. Comprising a light receiving portion. The optical path is blocked by touching the coordinate input effective area, and at least two sensor units can detect the direction in which the light according to the touch position is blocked. Based on the angle information detected by at least two sensor units and the distance information between the two sensor units, the touch position can be calculated by geometric calculation.

第1の筐体及び第2の筐体は座標入力面であるところのスクリーン面に装着、取り外し可能にするための着脱部が設けられ、第1の筐体及び第2の筐体を持ち運ぶことができるように構成される。   The first casing and the second casing are provided with an attaching / detaching portion for enabling attachment and detachment on the screen surface which is a coordinate input surface, and carry the first casing and the second casing. It is configured to be able to.

持ち運ぶことを考慮すると、第1の筐体及び第2の筐体はより小さく小型に、より軽量に構成されることが望ましい。センサユニットの受光光学系は予め指定された範囲(約50°程度)の視野範囲を有し、受光光学系の光軸は光電変換素子の画素の法線方向に設定されるものの、視野範囲は光軸対称には設定されておらず、光軸非対称な光学系を有する。そして、その光軸(もしくは光電変換素子の画素の法線方向)は、筐体に収納されている少なくとも2つのセンサユニット(受光光学系の光軸中心)を結ぶ直線と垂直になるように設定されている。このように構成することで、センサユニットを格納する筐体を、より小型に構成できる。   In consideration of carrying, it is desirable that the first casing and the second casing are configured to be smaller and smaller and lighter. Although the light receiving optical system of the sensor unit has a field of view designated in advance (about 50 °), the optical axis of the light receiving optical system is set in the normal direction of the pixel of the photoelectric conversion element, but the field of view is The optical system is not set to be symmetric with respect to the optical axis, and has an optical system that is optically asymmetric. The optical axis (or the normal direction of the pixel of the photoelectric conversion element) is set to be perpendicular to a straight line connecting at least two sensor units (optical axis center of the light receiving optical system) housed in the housing. Has been. By comprising in this way, the housing | casing which stores a sensor unit can be comprised more compactly.

スクリーン面の大きさは種々のサイズ、あるいはアスペクト比が想定され、スクリーン面の大きさ、形状に合わせて、座標入力有効領域が設定されるのが好ましい。従って、第1の筐体及び第2の筐体には伸縮部が設けられ、伸縮量を調整することによって筐体内に設けられるセンサユニットの距離が可変し、スクリーン面の大きさに応じてセンサユニットを適宜配置できるように構成される。   Various sizes or aspect ratios are assumed for the size of the screen surface, and the coordinate input effective area is preferably set in accordance with the size and shape of the screen surface. Accordingly, the first casing and the second casing are provided with expansion / contraction portions, and the distance of the sensor unit provided in the casing can be changed by adjusting the amount of expansion / contraction, and the sensor can be selected according to the size of the screen surface. It is comprised so that a unit can be arrange | positioned suitably.

さらには、センサユニットを具備する第1の筐体及び第2の筐体を装着する際、両者の相対的な位置関係が精密に位置決めされなくても、高精度にタッチ位置の検出が行えることが好ましい。従って、筐体を装着した際に、各々の筐体に格納されているセンサユニット間の相対的な位置情報を検出する検出部を設け、ユーザが意識することなく簡単に筐体を装着できる。   Furthermore, when the first housing and the second housing having the sensor unit are mounted, the touch position can be detected with high accuracy even if the relative positional relationship between the two is not precisely positioned. Is preferred. Therefore, when the casings are mounted, a detection unit that detects relative positional information between the sensor units stored in the respective casings is provided, and the casings can be easily mounted without being conscious of the user.

さらには、座標入力装置が出力した情報を受信する、例えば、パーソナルコンピュータ等に、専用のドライバソフトをインストールする必要が無ければ、どのパーソナルコンピュータ等に接続しても直ぐに使えることになる。従って、座標入力装置の座標系(デジタイザ座標系)と表示装置の座標系(スクリーン座標系)の一致(キャリブレーション)作業を、パーソナルコンピュータを介在させること無く行えるように構成している。   Further, if it is not necessary to install dedicated driver software in a personal computer or the like that receives information output from the coordinate input device, for example, it can be used immediately regardless of which personal computer or the like is connected. Therefore, the coordinate system (digitizer coordinate system) of the coordinate input device and the coordinate system (screen coordinate system) of the display device can be matched (calibrated) without using a personal computer.

以上の座標入力装置の主要部分は以下のようになる。   The main parts of the above coordinate input device are as follows.

座標入力有効領域に対する指示位置を検出する座標入力装置であって、
入力面を指示することにより座標を入力する座標入力有効領域に対する指示位置を検出する座標入力装置であって、
第1の筐体と第2の筐体であって、それぞれの筐体が、
前記座標入力有効領域に対して平行に向けて投光する投光部として、前記入力面からの距離が異なる第1の投光部と第2の投光部を含む複数の投光部と、光を受光する受光部とを備えるセンサユニットを少なくとも2つ内蔵し、
前記筐体が装着される前記座標入力有効領域の装着面とは異なる長手方向の側面に、入射光を再帰的に反射する再帰反射部が装着されている、
第1の筐体と第2の筐体と、
前記複数の投光部を個別に点灯するように、前記第1の投光部と前記第2の投光部による投光形態を制御する制御手段と、
前記第2の筐体の前記第1の投光部と前記第2の投光部それぞれからの投光による、前記第1の筐体の前記受光部での受光状態を判定する判定手段と、
前記判定手段の判定結果に基づいて、前記センサユニットの姿勢調整情報を生成する生成手段と
を備えることを特徴とする座標入力装置。
A coordinate input device that detects a designated position with respect to a coordinate input effective area,
A coordinate input device that detects an indicated position with respect to a coordinate input effective area for inputting coordinates by indicating an input surface,
A first housing and a second housing, each housing being
A plurality of light projecting units including a first light projecting unit and a second light projecting unit having different distances from the input surface as a light projecting unit that projects light in parallel with the coordinate input effective region, Including at least two sensor units each including a light receiving unit that receives light;
A retroreflecting portion that recursively reflects incident light is mounted on a side surface in a longitudinal direction different from the mounting surface of the coordinate input effective region in which the housing is mounted.
A first housing and a second housing;
Control means for controlling a light projection mode by the first light projecting unit and the second light projecting unit so that the plurality of light projecting units are individually turned on;
Determining means for determining a light receiving state at the light receiving unit of the first housing by light projection from each of the first light projecting unit and the second light projecting unit of the second housing;
A coordinate input device comprising: generation means for generating posture adjustment information of the sensor unit based on a determination result of the determination means.

以上説明したよう、タッチ位置の検出に必要な構成要素が、2つの筐体内に全て収納され、当該筐体を、例えば、平面状のホワイトボード、壁面等に装着することで、タッチ位置の検出が可能となる。つまり、座標入力装置は、座標入力有効領域であるタッチ入力面を必須の構成要素として持っていない。従って、たとえ座標入力有効領域が大型(例えば、90インチクラス)になるとしも、当該2つの筐体のみを持ち運ぶことで、何処でもその操作環境を実現することができる。更には、タッチ入力面を構成要素として具備していないので、製品コストは当然のことながら大幅に低下させることができる。言い換えれば、ユーザが所有している既存のホワイトボード等を活用することで、導入コストを低下させることができる大きな効果が得られる。   As described above, the components necessary for touch position detection are all housed in two housings, and the housing is mounted on, for example, a flat whiteboard or a wall surface to detect touch positions. Is possible. That is, the coordinate input device does not have a touch input surface which is a coordinate input effective area as an essential component. Therefore, even if the coordinate input effective area becomes large (for example, 90 inch class), the operating environment can be realized anywhere by carrying only the two cases. Furthermore, since the touch input surface is not provided as a component, the product cost can be significantly reduced as a matter of course. In other words, by using an existing whiteboard or the like owned by the user, a great effect of reducing the introduction cost can be obtained.

更には、構成要素が2つの筐体に全て具備されているので、ユーザによるホワイトボードへの装着、配線等も容易にできる効果が得られる。無論、持ち運ぶことを想定すれば、より軽量/小型の筐体で有ることが好ましく、センサユニットの受光光学系を光軸非対称とすることで、筐体の軽量化/小型化を実現し、可搬性を向上させることができる。   Furthermore, since all of the constituent elements are provided in the two housings, there is an effect that the user can easily attach the whiteboard, perform wiring, and the like. Of course, it is preferable to have a lighter / smaller housing if it is to be carried. By making the light receiving optical system of the sensor unit asymmetrical to the optical axis, the housing can be made lighter / smaller. Portability can be improved.

更には、例えば、既存のホワイトボードに装着することを考慮すると、製造メーカ、製品の型番等により、そのサイズは種々存在する。従って、ユーザが既に購入して使用しているホワイトボードを活用して使用できると言うことは、導入コストの削減、あるいは資源の有効利用と言う点で優れた効果が得られる。   Furthermore, for example, when considering mounting on an existing whiteboard, there are various sizes depending on the manufacturer, the product model number, and the like. Therefore, the fact that the user can utilize the whiteboard that has already been purchased and used has an excellent effect in terms of reduction in introduction cost or effective use of resources.

更には、高精度な位置検出を可能とする座標入力装置にあって、装着する筐体をそこそこの精度で装着可能とすることで、設置の煩わしさ、設置時間を大幅に削減する効果も得られる。   Furthermore, in the coordinate input device that enables highly accurate position detection, it is possible to mount the mounting case with reasonable accuracy, and the effect of greatly reducing the troublesome installation and installation time can be obtained. It is done.

例えば、ホワイトボード、パーソナルコンピュータ、フロントプロジェクターが既に導入されている会議室に、2つの筐体からなる当該座標入力装置を運び入れて、画面を直接タッチして操作する環境を構築することを想定する。   For example, assume that the coordinate input device consisting of two housings is brought into a conference room where a whiteboard, personal computer, and front projector are already installed, and an environment is constructed in which the screen is directly touched and operated. To do.

この時、会議室に既に導入されているパーソナルコンピュータを直ぐに使えることが好ましく、座標入力装置を動作させるためにドライバー等のインストールを不要にすることで、設置容易性、可搬性が向上する。つまり、当該座標入力装置と共に、ドライバー等が既にインストールされている専用のパーソナルコンピュータを持ち運ぶ必要が無くなる。もしくは、会議室のパーソナルコンピュータへのインストール作業が不要であることから、余分なセットアップ時間がかからず、直ぐに会議を始めることができる優れた利点が得られるようになる。   At this time, it is preferable that the personal computer already installed in the conference room can be used immediately. Installation of a driver or the like is not required to operate the coordinate input device, thereby improving installation ease and portability. That is, it is not necessary to carry a dedicated personal computer in which a driver or the like is already installed together with the coordinate input device. Or since the installation work to the personal computer in the conference room is not required, it is possible to obtain an excellent advantage that the conference can be started immediately without extra setup time.

また、筐体に組込後の構成部品(例えば、センサユニット)の姿勢調整を従来の再帰反射光を基準に行う場合に比べて短時間に工数を短縮して行える。これにより、組立コストの削減を行える。あるいは、姿勢調整機構と連動させることにより、センサユニット組込後の姿勢変動にも対応でき、常に安定的に高品質を保つことができ、高精度な座標検出が可能となる。   In addition, it is possible to shorten the man-hours in a short time compared to the case where the posture adjustment of the component (for example, the sensor unit) after being assembled in the housing is performed based on the conventional retroreflected light. Thereby, the assembly cost can be reduced. Alternatively, by interlocking with the attitude adjustment mechanism, it is possible to cope with attitude fluctuations after incorporation of the sensor unit, and it is possible to always maintain high quality stably and to detect coordinates with high accuracy.

尚、以上の実施形態の機能は以下の構成によっても実現することができる。つまり、本実施形態の処理を行うためのプログラムコードをシステムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)がプログラムコードを実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することとなり、またそのプログラムコードを記憶した記憶媒体も本実施形態の機能を実現することになる。   In addition, the function of the above embodiment is realizable also with the following structures. That is, it is also achieved by supplying a program code for performing the processing of the present embodiment to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus executing the program code. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code also realizes the function of the present embodiment.

また、本実施形態の機能を実現するためのプログラムコードを、1つのコンピュータ(CPU、MPU)で実行する場合であってもよいし、複数のコンピュータが協働することによって実行する場合であってもよい。さらに、プログラムコードをコンピュータが実行する場合であってもよいし、プログラムコードの機能を実現するための回路等のハードウェアを設けてもよい。またはプログラムコードの一部をハードウェアで実現し、残りの部分をコンピュータが実行する場合であってもよい。   Further, the program code for realizing the function of the present embodiment may be executed by one computer (CPU, MPU), or may be executed by a plurality of computers cooperating. Also good. Further, the program code may be executed by a computer, or hardware such as a circuit for realizing the function of the program code may be provided. Alternatively, a part of the program code may be realized by hardware and the remaining part may be executed by a computer.

1:センサバー筐体、2:センサユニット、3:演算制御回路、4:再帰反射部、5:座標入力有効領域、6:入力面   1: sensor bar housing, 2: sensor unit, 3: calculation control circuit, 4: retroreflective unit, 5: coordinate input effective area, 6: input surface

Claims (12)

入力面に対する指示位置を検出する座標入力装置であって、
第1の筐体と第2の筐体であって、それぞれの筐体が、
前記入力面に対して平行に向けて投光する投光部として、前記入力面からの距離が異なる第1の投光部と第2の投光部を含む複数の投光部と、光を受光する受光部とを備えるセンサユニットを少なくとも2つ内蔵し、
前記入力面に装着される装着面とは異なる長手方向の側面に、入射光を再帰的に反射する再帰反射部が装着されている、
第1の筐体と第2の筐体と、
前記複数の投光部を個別に点灯するように、前記第1の投光部と前記第2の投光部による投光形態を制御する制御手段と、
前記第2の筐体の前記第1の投光部と前記第2の投光部それぞれからの投光による、前記第1の筐体の前記受光部での受光状態を判定する判定手段と、
前記判定手段の判定結果に基づいて、前記センサユニットの姿勢調整情報を生成する生成手段と
を備えることを特徴とする座標入力装置。
A coordinate input device for detecting a designated position with respect to an input surface,
A first housing and a second housing, each housing being
As a light projecting unit that projects light parallel to the input surface, a plurality of light projecting units including a first light projecting unit and a second light projecting unit having different distances from the input surface, and light Including at least two sensor units each including a light receiving unit for receiving light;
A retroreflecting portion that recursively reflects incident light is mounted on a side surface in a longitudinal direction different from the mounting surface mounted on the input surface,
A first housing and a second housing;
Control means for controlling a light projection mode by the first light projecting unit and the second light projecting unit so that the plurality of light projecting units are individually turned on;
Determining means for determining a light receiving state at the light receiving unit of the first housing by light projection from each of the first light projecting unit and the second light projecting unit of the second housing;
A coordinate input device comprising: generation means for generating posture adjustment information of the sensor unit based on a determination result of the determination means.
前記姿勢調整情報は、前記センサユニットの補正姿勢方向及び補正姿勢角度の少なくとも一方を含む
ことを特徴とする請求項1に記載の座標入力装置。
The coordinate input device according to claim 1, wherein the posture adjustment information includes at least one of a corrected posture direction and a corrected posture angle of the sensor unit.
前記センサユニットの姿勢状態を調整する調整手段を更に備える
ことを特徴とする請求項1または2に記載の座標入力装置。
The coordinate input device according to claim 1, further comprising an adjusting unit that adjusts a posture state of the sensor unit.
前記受光部に対する、前記入力面に垂直方向の受光角度範囲と、前記投光部に対する、前記入力面に垂直方向の投光角度範囲とは異なる
ことを特徴とする請求項1乃至3のいずれか1項に記載の座標入力装置。
The light receiving angle range perpendicular to the input surface with respect to the light receiving unit is different from the light projection angle range perpendicular to the input surface with respect to the light projecting unit. The coordinate input device according to item 1.
前記姿勢調整情報に基づいて、前記センサユニットの姿勢状態を変更する変更手段を更に備える
ことを特徴とする請求項1乃至4のいずれか1項に記載の座標入力装置。
The coordinate input device according to any one of claims 1 to 4, further comprising a changing unit that changes a posture state of the sensor unit based on the posture adjustment information.
前記姿勢調整情報を出力する出力手段を更に備える
ことを特徴とする請求項1乃至5のいずれか1項に記載の座標入力装置。
The coordinate input device according to any one of claims 1 to 5, further comprising output means for outputting the posture adjustment information.
前記第1の筐体と前記第2の筐体それぞれの前記受光部から得られる光量分布の変動に基づいて前記入力面の前記指示位置を計算する計算手段を更に備える
ことを特徴とする請求項1乃至6のいずれか1項に記載の座標入力装置。
The apparatus further comprises calculation means for calculating the indicated position on the input surface based on a variation in light amount distribution obtained from the light receiving unit of each of the first casing and the second casing. The coordinate input device according to any one of 1 to 6.
前記姿勢調整情報を外部装置に送信する送信手段を更に備える
ことを特徴とする請求項1乃至7のいずれか1項に記載の座標入力装置。
The coordinate input device according to any one of claims 1 to 7, further comprising transmission means for transmitting the posture adjustment information to an external device.
前記センサユニットの姿勢角度の組み合わせと、それに対応する前記受光部の受光量レベルの値と、姿勢調整情報とを対応付けた調整テーブルを記憶する記憶手段を更に備え、
前記生成手段は、前記調整テーブルを参照して、前記判定手段が判定する前記受光部の受光光量分布の最小光量レベルに対応する姿勢調整情報を取得することで、前記姿勢調整情報を生成する
ことを特徴とする請求項1乃至8のいずれか1項に記載の座標入力装置。
Storage means for storing an adjustment table that associates a combination of posture angles of the sensor unit, a value of the received light amount level of the light receiving unit corresponding thereto, and posture adjustment information;
The generation unit generates the posture adjustment information by acquiring posture adjustment information corresponding to the minimum light amount level of the received light amount distribution of the light receiving unit determined by the determination unit with reference to the adjustment table. The coordinate input device according to claim 1, wherein:
前記生成手段は、前記判定手段が判定する前記受光部の受光光量分布の最小光量レベルを入力とする関数を用いて、前記姿勢調整情報を生成する
ことを特徴とする請求項1乃至9のいずれか1項に記載の座標入力装置。
The said generation means produces | generates the said attitude | position adjustment information using the function which inputs the minimum light quantity level of the received light quantity distribution of the said light-receiving part which the said determination means determines. The any one of Claim 1 thru | or 9 characterized by the above-mentioned. The coordinate input device according to claim 1.
入力面に対する指示位置を検出する座標入力装置であって、
第1の筐体と第2の筐体であって、それぞれの筐体が、
前記入力面に対して平行に向けて投光する投光部として、前記入力面からの距離が異なる第1の投光部と第2の投光部を含む複数の投光部と、光を受光する受光部とを備えるセンサユニットを少なくとも2つ内蔵し、
前記入力面に装着される装着面とは異なる長手方向の側面に、入射光を再帰的に反射する再帰反射部が装着されている、
第1の筐体と第2の筐体とを備える座標入力装置の制御方法であって、
前記複数の投光部を個別に点灯するように、前記第1の投光部と前記第2の投光部による投光形態を制御する制御工程と、
前記第2の筐体の前記第1の投光部と前記第2の投光部それぞれからの投光による、前記第1の筐体の前記受光部での受光状態を判定する判定工程と、
前記判定手段の判定結果に基づいて、前記センサユニットの姿勢調整情報を生成する生成工程と
を備えることを特徴とする座標入力装置の制御方法。
A coordinate input device for detecting a designated position with respect to an input surface,
A first housing and a second housing, each housing being
As a light projecting unit that projects light parallel to the input surface, a plurality of light projecting units including a first light projecting unit and a second light projecting unit having different distances from the input surface, and light Including at least two sensor units each including a light receiving unit for receiving light;
A retroreflecting portion that recursively reflects incident light is mounted on a side surface in a longitudinal direction different from the mounting surface mounted on the input surface,
A control method of a coordinate input device comprising a first housing and a second housing,
A control step of controlling a light projecting mode by the first light projecting unit and the second light projecting unit so that the plurality of light projecting units are individually lit.
A determination step of determining a light receiving state at the light receiving unit of the first housing by light projection from each of the first light projecting unit and the second light projecting unit of the second housing;
And a generation step of generating posture adjustment information of the sensor unit based on a determination result of the determination means.
入力面に対する指示位置を検出する座標入力装置であって、
第1の筐体と第2の筐体であって、それぞれの筐体が、
前記入力面に対して平行に向けて投光する投光部として、前記入力面からの距離が異なる第1の投光部と第2の投光部を含む複数の投光部と、光を受光する受光部とを備えるセンサユニットを少なくとも2つ内蔵し、
前記入力面に装着される装着面とは異なる長手方向の側面に、入射光を再帰的に反射する再帰反射部が装着されている、
第1の筐体と第2の筐体とを備える座標入力装置の制御をコンピュータに実行させるためのプログラムであって、
前記コンピュータに、
前記複数の投光部を個別に点灯するように、前記第1の投光部と前記第2の投光部による投光形態を制御する制御工程と、
前記第2の筐体の前記第1の投光部と前記第2の投光部それぞれからの投光による、前記第1の筐体の前記受光部での受光状態を判定する判定工程と、
前記判定手段の判定結果に基づいて、前記センサユニットの姿勢調整情報を生成する生成工程と
を実行させることを特徴とするプログラム。
A coordinate input device for detecting a designated position with respect to an input surface,
A first housing and a second housing, each housing being
As a light projecting unit that projects light parallel to the input surface, a plurality of light projecting units including a first light projecting unit and a second light projecting unit having different distances from the input surface, and light Including at least two sensor units each including a light receiving unit for receiving light;
A retroreflecting portion that recursively reflects incident light is mounted on a side surface in a longitudinal direction different from the mounting surface mounted on the input surface,
A program for causing a computer to execute control of a coordinate input device including a first housing and a second housing,
In the computer,
A control step of controlling a light projecting mode by the first light projecting unit and the second light projecting unit so that the plurality of light projecting units are individually lit.
A determination step of determining a light receiving state at the light receiving unit of the first housing by light projection from each of the first light projecting unit and the second light projecting unit of the second housing;
And a generation step of generating posture adjustment information of the sensor unit based on a determination result of the determination unit.
JP2014109432A 2014-05-27 2014-05-27 Coordinate input device, control method for the same, and program Pending JP2015225466A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014109432A JP2015225466A (en) 2014-05-27 2014-05-27 Coordinate input device, control method for the same, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014109432A JP2015225466A (en) 2014-05-27 2014-05-27 Coordinate input device, control method for the same, and program

Publications (1)

Publication Number Publication Date
JP2015225466A true JP2015225466A (en) 2015-12-14

Family

ID=54842168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014109432A Pending JP2015225466A (en) 2014-05-27 2014-05-27 Coordinate input device, control method for the same, and program

Country Status (1)

Country Link
JP (1) JP2015225466A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111063005A (en) * 2019-12-13 2020-04-24 厦门亿联网络技术股份有限公司 Handwriting processing method and device
JP2021034928A (en) * 2019-08-27 2021-03-01 セイコーエプソン株式会社 Operation method and display device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021034928A (en) * 2019-08-27 2021-03-01 セイコーエプソン株式会社 Operation method and display device
CN111063005A (en) * 2019-12-13 2020-04-24 厦门亿联网络技术股份有限公司 Handwriting processing method and device
CN111063005B (en) * 2019-12-13 2023-04-14 厦门亿联网络技术股份有限公司 Handwriting processing method and device

Similar Documents

Publication Publication Date Title
JP5973849B2 (en) Coordinate input device and sensor bar used for coordinate input device
JP5875445B2 (en) Coordinate input device
JP6021531B2 (en) Coordinate input device, control method therefor, and program
JP5489886B2 (en) Coordinate input device, light receiving device in the device, and manufacturing method thereof
JP5591069B2 (en) Coordinate input device, control method therefor, and program
JP6031293B2 (en) Coordinate input device, control method therefor, and program
JP2015225466A (en) Coordinate input device, control method for the same, and program
JP6218590B2 (en) Coordinate input device and control method thereof
JP5950767B2 (en) Coordinate input device, control method therefor, and program
JP5969794B2 (en) Coordinate input device
JP6334980B2 (en) Coordinate input device, control method therefor, and program
TWI494825B (en) Camera module for optical touchscreen
JP2015156115A (en) coordinate input device
JP5049747B2 (en) Coordinate input device, control method therefor, and program
CN104679350B (en) Jig and correction method
US9958989B2 (en) Coordinate input apparatus, control method thereof, and non-transitory computer-readable storage medium
JP2015230562A (en) Coordinate input device, control method therefor, and program
JP2015022577A (en) Coordinate input device, control method of coordinate input device, and program
JP2016058046A (en) Coordinate input device, control method thereof, program, coordinate input system, and control method thereof
JP2017045336A (en) Input device and detection method
JP2015127888A (en) Coordinate input device and manufacturing method of the same, control method and program
JP2006065654A (en) Coordinate input device, control method of coordinate input device, control program, and storage medium
JP2007072587A (en) Coordinate-input device, control method of coordinate-input device, control program, and storage medium
JP2016018282A (en) Coordinate input device, control method thereof, and program
JP2007072589A (en) Coordinate input device