JP2012078974A - Electronic board system, coordinate point correcting device, coordinate point correcting method, and program - Google Patents
Electronic board system, coordinate point correcting device, coordinate point correcting method, and program Download PDFInfo
- Publication number
- JP2012078974A JP2012078974A JP2010221972A JP2010221972A JP2012078974A JP 2012078974 A JP2012078974 A JP 2012078974A JP 2010221972 A JP2010221972 A JP 2010221972A JP 2010221972 A JP2010221972 A JP 2010221972A JP 2012078974 A JP2012078974 A JP 2012078974A
- Authority
- JP
- Japan
- Prior art keywords
- input
- detection surface
- input object
- size
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
【課題】一対の光学式センサーユニットの取り付け位置が検出面の左右両端位置より内側に配置される電子ボードシステムにおいて、入力物体が一対の光学式センサーユニットの外側に位置する場合、検出座標にずれが生じ難くする。
【解決手段】一対の光学式センサーユニットの取り付け位置の内側に入力物体が位置する場合にも外側に位置する場合にも、検出面の縦方向に、検出された入力物体のサイズに応じた補正量だけ当初の検出座標を補正する。
【選択図】図8In an electronic board system in which a mounting position of a pair of optical sensor units is arranged on the inner side of both left and right positions of a detection surface, when an input object is positioned outside of the pair of optical sensor units, the detection coordinates are shifted. Is less likely to occur.
A correction according to the size of the detected input object in the longitudinal direction of the detection surface regardless of whether the input object is positioned inside or outside the mounting position of the pair of optical sensor units. The initial detected coordinates are corrected by the amount.
[Selection] Figure 8
Description
本発明は、電子ボードシステムにおける検出座標を補正する装置、方法、当該機能を実装する電子ボードシステム及びプログラムに関する。 The present invention relates to an apparatus and method for correcting detected coordinates in an electronic board system, an electronic board system that implements the function, and a program.
現在、電子ボードシステムに対する注目が高まっている。電子ボードシステムは、指や専用の電子ペンを座標入力に使用し、文字、図形その他のオブジェクトを画面上に描画し、又は、画像オブジェクトに対する操作を受付けることができる。例えば描画する線の色や太さの変更、イベントの発行、オブジェクトの拡大・縮小、オブジェクトの削除などのコマンドを実行することができる。 Currently, attention is being focused on electronic board systems. The electronic board system can use a finger or a dedicated electronic pen for coordinate input, draw characters, figures and other objects on the screen, or accept operations on image objects. For example, commands such as changing the color and thickness of a line to be drawn, issuing an event, enlarging / reducing an object, and deleting an object can be executed.
電子ボードシステムは、座標検出装置と、表示装置と、画像生成装置を基本構成とする。座標検出装置は、入力物体の位置を検出するシステムであり、様々な検出方式が提案されている。例えば赤外線方式(光学式)、電磁誘導方式、超音波方式等が提案されている。 The electronic board system has a basic configuration including a coordinate detection device, a display device, and an image generation device. The coordinate detection device is a system that detects the position of an input object, and various detection methods have been proposed. For example, an infrared method (optical method), an electromagnetic induction method, an ultrasonic method, and the like have been proposed.
図1に、入力物体の影を使用して、複数点の座標や入力物体の大きさを取得できる座標検出装置の概念構成を示す。図1の(A)及び(B)に示す電子ボード101及び151は、いずれも赤外線方式の座標検出装置に対応する。 FIG. 1 shows a conceptual configuration of a coordinate detection apparatus that can acquire the coordinates of a plurality of points and the size of the input object using the shadow of the input object. The electronic boards 101 and 151 shown in FIGS. 1A and 1B correspond to infrared coordinate detection devices.
電子ボード101は、検出面102の左辺、右辺、下辺の3辺を取り囲むように配置される再帰反射性の反射テープ103と、検出面102の上部に配置される位置検出装置104とで構成される。位置検出装置104は、左右一対のセンサーユニット104A及び104Bと、入力物体の座標位置を三角測量の原理に従い算出する算出ユニット104Cとで構成される。因みに、センサーユニット104A及び104Bは、所定の放射角を有する赤外線を検出面102に沿ってスキャンする赤外線光源と、反射テープ103で再帰反射した赤外線像を撮像するイメージセンサで構成される。
The electronic board 101 includes a retroreflective
ところが、センサーユニット104A及び104Bが検出面102の左右両端に配置される電子ボード101の場合には、筐体長が長いために歪みが生じ易く、当該歪みによりイメージセンサ間の位置ずれが大きくなり易い。結果的に、イメージセンサに死角が生じ易くなる。このため、座標や物体の大きさを正しく取得できないことがある。 However, in the case of the electronic board 101 in which the sensor units 104A and 104B are arranged at the left and right ends of the detection surface 102, distortion is likely to occur due to the long casing length, and the positional deviation between the image sensors is likely to increase due to the distortion. . As a result, blind spots are likely to occur in the image sensor. For this reason, the coordinates and the size of the object may not be acquired correctly.
一方、センサーユニット104A及び104Bが検出面102の水平方向中心寄りに配置される電子ボード151の場合には、筐体長が短い分だけ筐体に歪みが生じ難く、たとえ歪みが発生した場合でもイメージセンサ間の位置ずれは小さく済む。結果的に、死角の発生を減らすことができる。このため、電子ボード151は、座標や物体の大きさを正しく取得する上で優れている。 On the other hand, in the case of the electronic board 151 in which the sensor units 104A and 104B are arranged closer to the center in the horizontal direction of the detection surface 102, the case is less likely to be distorted due to the shorter case length. The positional deviation between the sensors can be small. As a result, the occurrence of blind spots can be reduced. For this reason, the electronic board 151 is excellent in correctly acquiring the coordinates and the size of the object.
ところで、入力物体が赤外線を遮光することで生じる影をイメージセンサで検出する赤外線方式においては、検出面102に指を押し付ける場合のように、指先を検出してから指の腹を押し付けるまでの間に検出される入力物体のサイズ(太さ)が変化する。 By the way, in the infrared method in which an image sensor detects a shadow generated by shielding an infrared ray from an input object, a period from when the fingertip is detected to when the finger is pressed against the finger is pressed against the detection surface 102. The size (thickness) of the detected input object changes.
ここで、従来装置は、検出された物体サイズ(太さ)の中心位置を検出座標として算出する。このため、検出座標が、使用者の意図する指先位置からぶれてしまい、操作画面のボタンを押し難くなることがある。また、拡大・縮小、回転などのコマンドを実行した際に影の太さが変化し、意図しないところまで拡大・縮小、回転してしまうことがある。そこで、従来装置には、検出座標の補正機能を搭載している。 Here, the conventional apparatus calculates the center position of the detected object size (thickness) as detection coordinates. For this reason, the detected coordinates may be deviated from the fingertip position intended by the user, making it difficult to press the buttons on the operation screen. Also, when a command such as enlargement / reduction or rotation is executed, the thickness of the shadow may change, and enlargement / reduction or rotation may occur to an unintended place. Thus, the conventional apparatus is equipped with a detection coordinate correction function.
図2を用い、従来用いられている検出座標の補正機能を説明する。図2の(A)及び(B)は、それぞれ図1の(A)及び(B)に対応する。図2の場合、一対の赤外線の交点位置に検出座標を補正する。例えば図2の(A)に示すように、センサーユニット104A及び104Bの間の検出領域については、縦方向の座標のみが補正対象となる。電子ボード151の場合でも、入力物体がセンサーユニット104A及び104Bの取り付け位置の間に位置する場合には同じ結果が得られる。 A conventionally used correction function of detected coordinates will be described with reference to FIG. 2A and 2B correspond to FIGS. 1A and 1B, respectively. In the case of FIG. 2, the detected coordinates are corrected at the intersection position of a pair of infrared rays. For example, as shown in FIG. 2A, in the detection region between the sensor units 104A and 104B, only the coordinates in the vertical direction are to be corrected. Even in the case of the electronic board 151, the same result is obtained when the input object is located between the mounting positions of the sensor units 104A and 104B.
しかし、図2の(B)に示すように、電子ボード151の場合には、センサーユニット104A及び104Bの取り付け位置の外側に入力物体が位置する場合がある。この場合に、一対の赤外線の交点位置に検出座標を補正すると、図に示すように、検出面の縦方向だけでなく横方向についても補正成分が発生する。すなわち、検出面の斜め方向に座標点が補正される。 However, as shown in FIG. 2B, in the case of the electronic board 151, the input object may be located outside the mounting position of the sensor units 104A and 104B. In this case, if the detected coordinates are corrected at the intersection of the pair of infrared rays, as shown in the figure, a correction component is generated not only in the vertical direction of the detection surface but also in the horizontal direction. That is, the coordinate point is corrected in the oblique direction of the detection surface.
しかし、この補正の方向は、使用者の直感的な操作方向とは一般に異なっている。また、当初の検出座標に対する補正量も大きくなる。このため、検出面102を通じてボタン等を操作することが難しくなる。 However, this correction direction is generally different from the intuitive operation direction of the user. In addition, the correction amount with respect to the initial detected coordinates also increases. For this reason, it becomes difficult to operate buttons and the like through the detection surface 102.
そこで、本発明では、検出面の左右両端位置より内側に一対の光学式センサーユニットが配置される電子ボードシステムであって、各センサー出力を通じて入力物体の座標及びサイズを検出する電子ボードシステムにおいて、入力物体が光学式センサーユニットの取付位置に対して外側に位置する場合でも、システムによる検出座標と使用者の操作位置との間に位置ずれが生じ難い電子ボードシステムを提供することを目的とする。 Therefore, in the present invention, an electronic board system in which a pair of optical sensor units are arranged inside the left and right end positions of the detection surface, and the electronic board system detects the coordinates and size of the input object through each sensor output. It is an object of the present invention to provide an electronic board system in which even when an input object is located outside the mounting position of an optical sensor unit, a positional shift is unlikely to occur between a detection coordinate by the system and a user operation position. .
本発明者は、かかる技術的課題を鋭意検討した結果、一対の光学式センサーユニットの取付位置が検出面の左右両端位置より内側に配置される電子ボードシステムに好適な座標点の補正技術を発明した。具体的には、入力物体の中心位置として算出された入力座標を、検出された入力物体のサイズに応じて定まる補正量だけ検出面の縦方向に補正する機能を提供する。 As a result of intensive studies on the technical problem, the present inventor has invented a coordinate point correction technique suitable for an electronic board system in which the mounting positions of the pair of optical sensor units are arranged inside the left and right end positions of the detection surface. did. Specifically, it provides a function of correcting the input coordinates calculated as the center position of the input object in the vertical direction of the detection surface by a correction amount determined according to the size of the detected input object.
本発明によれば、一対の光学式センサーユニットの取付位置の内側に入力物体が位置する場合にも外側に位置する場合にも、検出面の縦方向に、検出された入力物体のサイズに応じた補正量だけ当初の検出座標を補正することができる。このように補正方向が縦方向だけに限定され、かつ、補正量が入力物体のサイズに応じて定まるため、補正後の座標を使用者の操作位置に近づけることができる。 According to the present invention, whether the input object is positioned inside or outside the mounting position of the pair of optical sensor units, depending on the size of the detected input object in the vertical direction of the detection surface. The initial detected coordinates can be corrected by the correction amount. As described above, the correction direction is limited only to the vertical direction, and the correction amount is determined according to the size of the input object, so that the corrected coordinates can be brought close to the operation position of the user.
以下、本発明の形態例を、図面を用いて説明する。なお、以下に説明する形態例は、専ら発明を説明するために使用するものであり、実製品への搭載時には既存技術との組み合わせにより様々な形態が考えられる。また、以下の説明では、本発明に係る座標点の補正機能がコンピュータ上で実行されるプログラムを通じて実現されるものとして説明するが、当該プログラムの一部又は全部はハードウェアを通じて実現することもできる。 Hereinafter, exemplary embodiments of the present invention will be described with reference to the drawings. In addition, the form examples described below are used exclusively for explaining the invention, and various forms are conceivable depending on combinations with existing technologies when mounted on actual products. In the following description, the coordinate point correction function according to the present invention is described as being realized through a program executed on a computer. However, part or all of the program can be realized through hardware. .
(電子ボードシステムの概要)
図3に、形態例に係る電子ボードシステム301の形態例を説明する。電子ボードシステム301は、座標検出装置と、表示装置と、画像生成装置を基本構成とする。なお、座標検出装置は、位置検出装置303と反射板304で構成される。
(Outline of electronic board system)
FIG. 3 illustrates a configuration example of the electronic board system 301 according to the configuration example. The electronic board system 301 is basically composed of a coordinate detection device, a display device, and an image generation device. The coordinate detection device includes a position detection device 303 and a reflection plate 304.
位置検出装置303は、左右一対のセンサーユニットと不図示の算出ユニットとで構成される。左右一対のセンサーユニットは、水平方向について検出面305の中央付近に配置されている。この形態例の場合、赤外線光源による赤外線のスキャン範囲は、ほぼ180度である。また、センサーユニット内のイメージセンサは、同じくほぼ180度の角範囲を受光範囲とする。図中、各センサーユニットは、検出面305の左辺、下辺、右辺をいずれも撮像範囲とする。 The position detection device 303 includes a pair of left and right sensor units and a calculation unit (not shown). The pair of left and right sensor units are arranged near the center of the detection surface 305 in the horizontal direction. In the case of this embodiment, the infrared scan range by the infrared light source is approximately 180 degrees. Similarly, the image sensor in the sensor unit has an angular range of approximately 180 degrees as the light receiving range. In the drawing, each sensor unit has an imaging range on the left side, the lower side, and the right side of the detection surface 305.
算出ユニットは、左右一対のセンサーユニットから出力される撮像画像に含まれる影の位置に基づいて、検出面305に接触した1つ又は複数の入力物体302の各検出座標を算出する。この形態例に係る算出ユニットは、検出された入力物体302のサイズと数を判定する機能も搭載する。これらの情報は、入力物体に対する入力データとして出力される。なお、この形態例の場合、座標の原点は、検出面305の左上隅に設定されているものとし、右辺側ほどx座標が大きくなり、下辺側ほどy座標が大きくなるものとする。 The calculation unit calculates each detection coordinate of one or a plurality of input objects 302 in contact with the detection surface 305 based on the position of the shadow included in the captured image output from the pair of left and right sensor units. The calculation unit according to this embodiment also has a function of determining the size and number of detected input objects 302. These pieces of information are output as input data for the input object. In the case of this embodiment, it is assumed that the origin of coordinates is set at the upper left corner of the detection surface 305, and the x coordinate increases toward the right side and the y coordinate increases toward the bottom side.
反射板304は、赤外線を入射方向に再帰反射する微小な光学素子を配列した反射テープを枠体に取り付けた構造を有している。従って、赤外線の光路上に何らの物体が存在しない場合、反射板304に入射した赤外線は入射方向に反射され、イメージセンサで撮像される。一方、入力物体302(図では、ペン)が赤外線の光路上に位置するとき、赤外線は入力物体302によって遮光され、イメージセンサにおいて影として撮像される。なお、各辺を構成する反射板304は単一の枠体に固定されていても良いし、それぞれが独立した枠体に分割して固定されていても良い。
The reflection plate 304 has a structure in which a reflection tape on which minute optical elements that retroreflect infrared rays in the incident direction are arranged is attached to a frame. Accordingly, when no object is present on the infrared light path, the infrared light incident on the reflector 304 is reflected in the incident direction and is imaged by the image sensor. On the other hand, when the input object 302 (the pen in the figure) is positioned on the infrared light path, the infrared light is shielded by the
この形態例の場合、表示装置には、プロジェクタ310を使用する。表示装置は、PDP、液晶ディスプレイその他のフラットパネルディスプレイでも良い。
In the case of this embodiment, a
画像生成装置は、制御用コンピュータ306と、その周辺機器であるキーボード307及び表示装置308で構成される。制御用コンピュータ306は、汎用のパーソナルコンピュータと同等の機能を有している。制御用コンピュータ306の内部メモリには、位置検出装置303から一定のサンプリングレートで入力される入力データが逐次格納される。この他、内部メモリには、入力データに基づいて、文字オブジェクトや画像オブジェクトを認識し若しくは処理し又はこれらのオブジェクトから操作画面を生成する表示内容制御プログラム309が格納される。なお、表示内容制御プログラム309の一部として、入力物体302の検出座標を補正するための座標点補正プログラムも格納される。
The image generation apparatus includes a
(検出可能な入力態様の例)
図4に、形態例に係る位置検出装置303の制御ユニットにおいて検出可能な入力態様を示す。位置検出装置303は、図4の(A)〜(C)に示す3つの入力態様を検出できる。すなわち、1本の指だけを検出面305に接触させた場合に対応する一点入力状態、2本の指を同時に検出面305に接触させた場合に対応する2点入力状態、手のひら全体を検出面に接触させた場合に対応する手のひら入力状態を検出できる。
(Examples of input modes that can be detected)
FIG. 4 shows input modes that can be detected by the control unit of the position detection device 303 according to the embodiment. The position detection device 303 can detect the three input modes shown in FIGS. That is, a one-point input state corresponding to a case where only one finger is brought into contact with the detection surface 305, a two-point input state corresponding to a case where two fingers are simultaneously brought into contact with the detection surface 305, and the entire palm as a detection surface It is possible to detect the palm input state corresponding to the contact with the touch panel.
これらの入力状態の判定は、検出面305に対する手又は指の接触状態により相互に遷移可能である。これらの遷移判定は、位置検出装置303に搭載される入力状態判定プログラムが実行する。例えば1点入力状態と判定されている状態で、独立した2点目の座標が検出された場合、現在の入力状態は2点入力状態と判定される。また例えば1点入力状態又は2点入力状態と判定されている場合でも、入力物体のサイズが所定サイズを越える場合、現在の入力状態は手のひら入力状態と判定される。 The determination of these input states can be changed between each other depending on the contact state of the hand or finger with respect to the detection surface 305. These transition determinations are executed by an input state determination program installed in the position detection device 303. For example, when an independent second coordinate is detected in a state where it is determined as a one-point input state, the current input state is determined as a two-point input state. For example, even when it is determined that the input state is the one-point input state or the two-point input state, if the size of the input object exceeds a predetermined size, the current input state is determined as the palm input state.
このように、識別可能な複数の入力状態に対し、それぞれ個別の操作イベントを割り当てると、使用者による入力状態の切り換えに応じて特定の操作イベントの発行を、表示内容制御プログラム309に対して指示することができる。例えば1点入力状態では線を描く、2点入力状態では線を消す、手のひら入力状態では画面をスクロールさせるといった具合に、各種のイベントを表示内容制御プログラム309に指示することができる。 In this way, when individual operation events are assigned to a plurality of identifiable input states, the display content control program 309 is instructed to issue a specific operation event in accordance with the switching of the input state by the user. can do. For example, various events can be instructed to the display content control program 309 such as drawing a line in the one-point input state, erasing the line in the two-point input state, and scrolling the screen in the palm input state.
(パケットデータの構造例)
図5に、位置検出装置303から制御用コンピュータ306に通知される入力データのデータ構造例を示す。図5の(A)はパケットデータのフォーマット例を示し、図5の(B)はパケットデータの具体例を示す。
(Example of packet data structure)
FIG. 5 shows a data structure example of input data notified from the position detection device 303 to the
1フレーム分の入力データ501は、n個(nは2以上)の物体が同時に検出された場合に用いられるデータ構造例である。この明細書において、1フレームは、検出面305の全範囲について入力物体302の検出処理が終了する最小単位期間(周期)に対応する。
The
入力データ501は、入力物体302(例えばペンや指)を検出した時刻502と、検出物体数503と、検出された個々の入力物体302に対応する座標情報504と、そのサイズ情報505を1つの入力データ501として扱う。
The
図5の(B1)は、検出面305上に何らの入力物体302が存在しない場合に出力される入力データ506を示す。この場合、検出を実行したときの検出時刻「T1」と、検出物体数「0」とで構成されるデータが発生される。
(B1) in FIG. 5 shows
図5の(B2)は、検出面305上に指、ペンその他の入力物体302が1つだけ存在する場合に出力される入力データ507を示す。この場合、検出を実行したときの検出時刻「T2」と、検出物体数「1」と、対応する座標情報504と、サイズ情報505とで構成されるデータが発生される。
FIG. 5B2 shows
この形態例の場合、検出物体のサイズ情報505は、センサーユニットで検出された影の大きさを示している。なお、検出された座標情報には、影として検出された物体の中心座標が用いられる。
In the case of this embodiment, the
(入力物体のサイズの変更に伴う入力ずれの例)
図6に、位置検出装置303から入力される入力データ501(506、507)をそのまま用いる場合の入力ずれ例を示す。図6の上段は、入力開始以降における検出面305と指先との接触状態の変化を強調して表した図である。図6の下段は、それぞれが上段に対応する時点における表示画面の内容を表した図である。
(Example of input deviation due to input object size change)
FIG. 6 shows an example of input deviation when the input data 501 (506, 507) input from the position detection device 303 is used as it is. The upper part of FIG. 6 is a diagram that emphasizes the change in the contact state between the detection surface 305 and the fingertip after the start of input. The lower part of FIG. 6 is a diagram showing the contents of the display screen at the time corresponding to the upper part.
なお、図6は、指先の検出座標に矢印カーソルを表示する例を表している。図6に示すように、指先を検出面305に押し付ける場合、位置検出装置303で検出される入力物体のサイズは変化する。すなわち、図6の上段において網掛けで示す接触面積は、小面積から大面積へと変化する。入力開始時には指先だけの接触であったものが、入力終了時には指の腹での接触になるためである。 FIG. 6 shows an example in which an arrow cursor is displayed at the detected coordinates of the fingertip. As shown in FIG. 6, when the fingertip is pressed against the detection surface 305, the size of the input object detected by the position detection device 303 changes. That is, the contact area indicated by shading in the upper part of FIG. 6 changes from a small area to a large area. This is because the contact with only the fingertip at the start of input becomes the contact with the belly of the finger at the end of input.
前述したように、この場合、位置検出装置303は、入力物体302(指先)が赤外線を遮光する範囲(検出物体のサイズ)の中心位置を座標値とする入力データ501を出力する。すなわち、入力データ501の座標情報504は、検出される物体のサイズが大きくなるほど、入力開始時の座標から下方にずれてしまう。結果的に、図6の右下段に示すように、矢印カーソルが画面上のボタン位置から外れてしまう。これでは、表示内容制御プログラム309において、ボタンの押下イベントが発生したことを識別することが困難になる。
As described above, in this case, the position detection device 303 outputs the
(座標点補正機能の内容)
以下では、座標点補正プログラムの制御用コンピュータ306による実行を通じて実現される座標点補正装置の構成を説明する。前述の通り、座標点補正プログラムは、表示内容制御プログラム309の一部分を構成する。
(Contents of coordinate point correction function)
Hereinafter, the configuration of the coordinate point correction apparatus realized through execution of the coordinate point correction program by the
図7に、座標点補正装置3091の機能構成例を示す。座標点補正装置3091は、入力情報解析部701と、実行機能制御部702と、入力情報記憶部703とで構成される。
FIG. 7 shows a functional configuration example of the coordinate point correction apparatus 3091. The coordinate point correction apparatus 3091 includes an input
入力情報解析部701は、位置検出装置303から入力データ501を入力し、入力データ501を検出時刻502、検出物体数503、座標情報504、サイズ情報505に分解する。
The input
実行機能制御部702は、前段より与えられる入力情報と入力情報記憶部703に格納されている入力情報の履歴情報とに基づいて、表示内容制御プログラム309の基本的な動作を実行する。この動作の一部として、入力物体の補正座標の算出処理が実行される。補正座標の算出処理が、本発明者の提案する処理機能である。なお、入力情報解析部701から与えられる入力物体の座標情報504を補正座標で置換した入力情報が、入力情報記憶部703に最新の履歴情報として格納される。
The execution
(座標点補正プログラムの処理手順)
図8に、形態例に係る座標点補正プログラムの処理手順例を示す。実行機能制御部702としてのコンピュータは、入力開始が検出されたか否かを常時監視する。具体的には、コンピュータは、検出物体数503が「0」から「1」以上に変化したか否かを判定する(ステップ801)。コンピュータは、否定結果が得られている間、当該判定動作を繰り返す。
(Processing procedure of coordinate point correction program)
FIG. 8 shows a processing procedure example of the coordinate point correction program according to the embodiment. The computer as the execution
検出物体数503が「0」から「1」以上に変化したことが検出された場合、コンピュータは、入力情報として検出物体数503、座標情報504、サイズ情報505を抽出する(ステップ802)。
When it is detected that the number of detected
次に、コンピュータは、入力数を「0」に初期化した後、現在の入力数に「1」を足す(ステップ803、804)。
Next, after initializing the number of inputs to “0”, the computer adds “1” to the current number of inputs (
次に、コンピュータは、1番目の入力物体について、入力物体サイズが閾値1(第1の閾値)より大きいか否か判定する(ステップ805)。ここで、1番目の入力物体とは、図5の(A)に示すパケットフォーマットの先頭に記録された検出物体1に対応する。 Next, the computer determines whether or not the input object size is larger than the threshold value 1 (first threshold value) for the first input object (step 805). Here, the first input object corresponds to the detection object 1 recorded at the head of the packet format shown in FIG.
ここでの閾値1は、手のひら入力状態の判定閾値であるものとする。従って、入力物体サイズが閾値1より大きい場合、コンピュータは、手のひら入力と判定し、座標点の補正処理を行うことなく処理を終了する。従って、入力情報記憶部703には、入力データ501の座標情報504がそのまま保存される。
The threshold value 1 here is assumed to be a palm input state determination threshold value. Therefore, when the input object size is larger than the threshold value 1, the computer determines that the input is a palm and ends the process without performing the coordinate point correction process. Accordingly, the coordinate
これに対し、入力物体サイズが閾値1より小さい場合、コンピュータは、入力物体サイズが閾値2(第2の閾値)より小さいか否かを判定する(806)。ここでの閾値2は、座標点補正の実行マージンに当たる。例えば図6の左図に示すように、入力物体サイズが小さい場合には、座標ずれは無視できるためである。閾値2の値は、初期設定値を用いても良いし、サービススタッフ等が個別に設定しても良いし、使用者の好みに応じて調整できるようにしても良い。使用者による調整はGUI画面を通じて実行可能であることが好ましい。 On the other hand, if the input object size is smaller than the threshold value 1, the computer determines whether the input object size is smaller than the threshold value 2 (second threshold value) (806). The threshold value 2 here corresponds to an execution margin for coordinate point correction. For example, as shown in the left diagram of FIG. 6, when the input object size is small, the coordinate deviation can be ignored. The value of the threshold 2 may be an initial set value, may be individually set by a service staff, or may be adjusted according to the user's preference. It is preferable that the adjustment by the user can be executed through the GUI screen.
入力物体サイズが閾値2より大きい場合、コンピュータは、入力データ501の座標情報504に座標ずれが含まれていると判定する。すなわち、コンピュータは、座標点の補正処理を実行する。このとき、コンピュータは、入力データ501の入力物体サイズを用い、入力物体サイズの半分(半径)分を、座標情報504のy座標から減算する補正イベントを発行する(ステップ807)。
When the input object size is larger than the threshold 2, the computer determines that the coordinate
ここで、y座標についてのみ補正イベントを発行するのは、使用者の指先による入力操作は、基本的に縦方向(y方向)について実行されるためである。従って、縦方向のみの補正を行う。また、入力物体サイズの半分(半径)を補正量として用いるのは、位置検出装置303から制御用コンピュータ306に出力される入力データ501では、入力物体の座標情報504が、検出された入力物体サイズの中心位置として与えられるためである。このように、補正量は、入力物体サイズにより決まる。従って、入力物体302が検出面のどの地点に位置しても、すなわち一対のセンサーユニット104A及び104Bの中間にあっても外側にあっても補正量は同じになる。
Here, the reason why the correction event is issued only for the y coordinate is that the input operation by the fingertip of the user is basically executed in the vertical direction (y direction). Therefore, correction is performed only in the vertical direction. In addition, half of the input object size (radius) is used as the correction amount because, in the
図9に、形態例に係る補正機能を適用した場合の補正イメージを示す。なお、本形態例で使用する位置検出装置104は、左右一対のセンサーユニット104A及び104Bの取り付け位置が検出面102の左右両端位置より内側にある。このため、図9の(A)及び(B)のいずれについても、位置検出装置104の水平方向長が検出面102の水平方向長より短い電子ボード151について描いている。
FIG. 9 shows a correction image when the correction function according to the embodiment is applied. In the
因みに、図9の(A)は、入力物体が左右一対のセンサーユニット104A及び104Bの中間に位置する場合を示し、図9の(B)は、入力物体が左右一対のセンサーユニット104A及び104Bの外側に位置する場合を示している。いずれの場合も、補正入力点(補正後の入力点)は、当初の検出入力点に対して縦方向(y方向)についてのみ補正されていることが分かる。このため、電子ボード151の使用者が検出面102に指先を押し付けた場合でも、押し付けによる座標点の下方への移動分をキャンセルすることができる。 9A shows a case where the input object is located between the pair of left and right sensor units 104A and 104B, and FIG. 9B shows that the input object is a pair of left and right sensor units 104A and 104B. The case where it is located outside is shown. In any case, it can be seen that the corrected input point (corrected input point) is corrected only in the vertical direction (y direction) with respect to the original detected input point. For this reason, even when the user of the electronic board 151 presses the fingertip against the detection surface 102, the downward movement of the coordinate point due to the pressing can be canceled.
なお、入力物体サイズが閾値2より小さい場合、コンピュータは、入力座標に大きなずれが発生していないと判定し、前述した補正処理を実行することなく次の処理ステップに移行する。 If the input object size is smaller than the threshold value 2, the computer determines that there is no significant shift in the input coordinates, and proceeds to the next processing step without executing the correction processing described above.
次に、コンピュータは、入力物体数が「2」であるか否かを判定する(ステップ808)。否定結果が得られた場合、コンピュータは、処理済の入力数と入力物体数が同じであると判定し、処理を終了する。 Next, the computer determines whether or not the number of input objects is “2” (step 808). If a negative result is obtained, the computer determines that the number of processed inputs and the number of input objects are the same, and ends the process.
なお、入力物体数が「2」であった場合、コンピュータは、現時点の入力数が「2」であるか否かを判定する(ステップ809)。この判定は、既に全ての入力物体について補正処理が終了したか否かを判定するために用いられる。ここで、否定結果が得られた場合、コンピュータは、2つ目の入力物体に対する補正処理を実行すべく、ステップ804に戻り、入力数を「1」から「2」に更新する。 If the number of input objects is “2”, the computer determines whether or not the current number of inputs is “2” (step 809). This determination is used to determine whether correction processing has already been completed for all input objects. Here, if a negative result is obtained, the computer returns to step 804 to update the number of inputs from “1” to “2” in order to execute a correction process on the second input object.
この後、コンピュータは、2つ目の入力物体について検出座標の補正処理を実行する。なお、ステップ809において、肯定結果が得られた場合、コンピュータは、2つ目の入力物体についても検出座標の補正処理が終了したものと判定し、処理動作を終了する。
Thereafter, the computer executes detection coordinate correction processing for the second input object. If an affirmative result is obtained in
(まとめ)
以上説明したように、位置検出装置104の水平方向の長さが検出面102の水平方向の長さより短い場合における検出座標の補正技術として、検出座標を入力物体サイズの半分だけ画面上方に補正する処理手法を採用する。これにより、検出面102のいずれの場所に入力物体302が位置する場合にも、使用者の操作位置の近傍に補正後の座標値を定めることができる。特に、一対のセンサーユニットの外側に指先が位置する場合でも、その補正量及び補正方向を一対のセンサーユニットの内側に指先が位置する場合と一致させることができる。
(Summary)
As described above, as a detection coordinate correction technique when the horizontal length of the
また、補正量を入力物体サイズの半分に定めたことにより、指先の検出面102への押し付けに伴う中心位置の移動量をほぼキャンセルすることができる。検出座標を、指先が当初触れた領域付近に補正することができる。 In addition, since the correction amount is set to half of the input object size, the movement amount of the center position accompanying the pressing of the fingertip against the detection surface 102 can be almost canceled. The detected coordinates can be corrected near the area where the fingertip first touched.
(他の形態例)
図8の場合には、同時に検出可能な入力物体数が「2」の場合について説明したが、同時に検出可能な入力物体数は3個以上でも良い。この場合、入力物体数と入力数が一致するか否かを判定するステップを、ステップ808及びステップ809に代えて配置し、否定結果が得られている間はステップ804に戻り、肯定結果が得られた場合に処理を終了するようにすれば良い。
(Other examples)
In the case of FIG. 8, the case where the number of input objects that can be detected simultaneously is “2” has been described, but the number of input objects that can be detected simultaneously may be three or more. In this case, the step of determining whether or not the number of input objects matches the number of inputs is arranged in place of
前述の形態例の場合には、入力物体サイズの半分を検出座標から減算しているが、これは検出面の下方側ほどy座標の値が大きくなるためである。従って、他の座標系の場合には、検出面の上方に座標を補正するための演算内容として他の演算処理を適用しても良い。例えば検出面の上方側ほど座標値が大きくなる場合には、補正量を検出座標に加算すれば良い。 In the case of the above-described embodiment, half of the input object size is subtracted from the detected coordinate because the value of the y coordinate increases toward the lower side of the detection surface. Therefore, in the case of other coordinate systems, other calculation processes may be applied as calculation contents for correcting coordinates above the detection surface. For example, when the coordinate value increases toward the upper side of the detection surface, the correction amount may be added to the detection coordinate.
前述の形態例の場合には、補正量を入力物体サイズの半分に定めている。しかし、入力物体サイズに応じて補正量を決定するのであれば、必ずしも入力物体サイズの半分に限らない。例えば3分の1でも良い。 In the case of the above-described embodiment, the correction amount is set to half of the input object size. However, if the correction amount is determined according to the input object size, the amount is not necessarily half of the input object size. For example, 1/3 may be sufficient.
前述の形態例の場合には、入力物体サイズが閾値2以上の場合に限って座標値を補正したが、手のひら入力状態と判定されない限り(ステップ805で否定結果が得られる限り)、常に座標値を補正しても良い。 In the case of the above-described embodiment, the coordinate value is corrected only when the input object size is greater than or equal to the threshold value 2, but the coordinate value is always used unless a palm input state is determined (as long as a negative result is obtained in step 805). May be corrected.
前述の形態例の場合、センサーユニット104A及び104Bは、赤外線をほぼ180度の範囲でスキャンするものとして説明した。しかしながら、赤外線の照射範囲がそれぞれ異なるように複数の光源を配置し、複数の照射範囲の全体がほぼ180度の範囲を照明できるようにしても良い。 In the case of the above-described embodiment, it has been described that the sensor units 104A and 104B scan infrared rays in a range of approximately 180 degrees. However, a plurality of light sources may be arranged so that the respective infrared irradiation ranges are different so that the entire irradiation range can illuminate a range of approximately 180 degrees.
101 電子ボード
102 検出面
103 反射テープ
104 位置検出装置
104A センサーユニット
104B センサーユニット
104C 算出ユニット
151 電子ボード
301 電子ボードシステム
302 入力物体
303 位置検出装置
304 反射板
305 検出面
306 制御用コンピュータ
309 表示内容制御プログラム
310 プロジェクタ
701 入力情報解析部
702 実行機能制御部
703 入力情報記憶部
3091 座標点補正装置
DESCRIPTION OF SYMBOLS 101 Electronic board 102
Claims (4)
検出面の右辺、左辺及び下辺を取り囲むように配置されると共に、各反射面が検出面に対して垂直に配置される再帰性の反射板と、
検出面の左右両端位置より内側に取り付けられる一対の光学式センサーユニットと、
前記一対の光学式センサーユニットから出力される各センサー出力に基づいて、検出面に対する入力物体の入力座標及びサイズを算出する算出ユニットと、
入力物体の中心位置として算出された前記入力座標を、入力物体のサイズに応じて定まる補正量だけ検出面の縦方向に補正する座標点補正装置と
を有することを特徴とする電子ボードシステム。 A display device for displaying an image in an overlapping area with the detection surface;
A recursive reflector that is arranged so as to surround the right side, the left side, and the lower side of the detection surface, and each reflection surface is arranged perpendicular to the detection surface;
A pair of optical sensor units attached to the inside of the left and right end positions of the detection surface;
A calculation unit that calculates the input coordinates and size of the input object with respect to the detection surface based on each sensor output output from the pair of optical sensor units;
An electronic board system, comprising: a coordinate point correction device that corrects the input coordinates calculated as the center position of the input object in a vertical direction of the detection surface by a correction amount determined according to the size of the input object.
入力物体の中心位置として算出された前記入力座標を、入力物体のサイズに応じて定まる補正量だけ検出面の縦方向に補正する
ことを特徴とする座標点補正装置。 Coordinate point correction that constitutes an electronic board system together with a pair of optical sensor units attached inside the left and right end positions of the detection surface and a calculation unit that calculates the input coordinates and size of the input object with respect to the detection surface based on each sensor output In the device
A coordinate point correction apparatus, wherein the input coordinates calculated as the center position of the input object are corrected in the vertical direction of the detection surface by a correction amount determined according to the size of the input object.
入力物体の中心位置として算出された前記入力座標を、前記算出ユニットから入力する処理と、
入力物体のサイズに応じて定まる補正量だけ、前記入力座標を検出面の縦方向に補正する処理と
を有することを特徴とする座標点補正方法。 Coordinates used in the electronic board system, together with a pair of optical sensor units mounted inside the left and right end positions of the detection surface, and a calculation unit that calculates the input coordinates and size of the input object with respect to the detection surface based on each sensor output In the point correction method,
Processing for inputting the input coordinates calculated as the center position of the input object from the calculation unit;
A coordinate point correction method comprising: correcting the input coordinates in the vertical direction of the detection surface by a correction amount determined according to the size of the input object.
入力物体の中心位置として算出された前記入力座標を、前記算出ユニットから入力する処理と、
入力物体のサイズに応じて定まる補正量だけ、前記入力座標を検出面の縦方向に補正する処理と
を実行させるプログラム。 A computer that constitutes an electronic board system together with a pair of optical sensor units attached inside the left and right end positions of the detection surface and a calculation unit that calculates the input coordinates and size of the input object with respect to the detection surface based on each sensor output,
Processing for inputting the input coordinates calculated as the center position of the input object from the calculation unit;
A program for executing a process of correcting the input coordinates in the vertical direction of the detection surface by a correction amount determined according to the size of the input object.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010221972A JP5530887B2 (en) | 2010-09-30 | 2010-09-30 | Electronic board system, coordinate point correction apparatus, coordinate point correction method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010221972A JP5530887B2 (en) | 2010-09-30 | 2010-09-30 | Electronic board system, coordinate point correction apparatus, coordinate point correction method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2012078974A true JP2012078974A (en) | 2012-04-19 |
| JP5530887B2 JP5530887B2 (en) | 2014-06-25 |
Family
ID=46239178
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010221972A Expired - Fee Related JP5530887B2 (en) | 2010-09-30 | 2010-09-30 | Electronic board system, coordinate point correction apparatus, coordinate point correction method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5530887B2 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11203035A (en) * | 1998-01-09 | 1999-07-30 | Fujitsu Ltd | Optical scanning touch panel |
| JP2000284899A (en) * | 1999-03-31 | 2000-10-13 | Fujitsu General Ltd | Touch panel multi-point operation correction device |
| JP2003173237A (en) * | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | Information input / output system, program and storage medium |
| JP2005182423A (en) * | 2003-12-19 | 2005-07-07 | Totoku Electric Co Ltd | Coordinate input device |
| JP2006031549A (en) * | 2004-07-20 | 2006-02-02 | Canon Inc | Coordinate input device and drawing processing device |
-
2010
- 2010-09-30 JP JP2010221972A patent/JP5530887B2/en not_active Expired - Fee Related
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11203035A (en) * | 1998-01-09 | 1999-07-30 | Fujitsu Ltd | Optical scanning touch panel |
| JP2000284899A (en) * | 1999-03-31 | 2000-10-13 | Fujitsu General Ltd | Touch panel multi-point operation correction device |
| JP2003173237A (en) * | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | Information input / output system, program and storage medium |
| JP2005182423A (en) * | 2003-12-19 | 2005-07-07 | Totoku Electric Co Ltd | Coordinate input device |
| JP2006031549A (en) * | 2004-07-20 | 2006-02-02 | Canon Inc | Coordinate input device and drawing processing device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5530887B2 (en) | 2014-06-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CA2748881C (en) | Gesture recognition method and interactive input system employing the same | |
| US8115753B2 (en) | Touch screen system with hover and click input methods | |
| EP2353069B1 (en) | Stereo optical sensors for resolving multi-touch in a touch detection system | |
| US7411575B2 (en) | Gesture recognition method and touch system incorporating the same | |
| US20090207144A1 (en) | Position Sensing System With Edge Positioning Enhancement | |
| US8902195B2 (en) | Interactive input system with improved signal-to-noise ratio (SNR) and image capture method | |
| US20120249422A1 (en) | Interactive input system and method | |
| US20060017709A1 (en) | Touch panel apparatus, method of detecting touch area, and computer product | |
| US9454260B2 (en) | System and method for enabling multi-display input | |
| US9213440B2 (en) | System and method for remote touch detection | |
| US9600100B2 (en) | Interactive input system and method | |
| US20190272090A1 (en) | Multi-touch based drawing input method and apparatus | |
| CN102822781A (en) | Coordinate input device and program | |
| JP5651358B2 (en) | Coordinate input device and program | |
| JP6555958B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
| JP5530887B2 (en) | Electronic board system, coordinate point correction apparatus, coordinate point correction method, and program | |
| JP2014203204A (en) | Scanning type touch panel device | |
| TWI444875B (en) | Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and imaging sensor | |
| JP5140628B2 (en) | Electronic board system and program | |
| KR20110083829A (en) | Touch coordinate extraction method of composite sensor module using infrared sensor and linear image sensor and touch screen device for performing this | |
| HK1176130B (en) | Light pattern used for touch detection or gesture detection | |
| HK1176130A1 (en) | Light pattern used for touch detection or gesture detection |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130129 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130813 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130827 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131022 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140401 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140421 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5530887 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |