[go: up one dir, main page]

JP2013030025A - 情報入力装置、情報入力装置の制御方法、情報入力装置の制御プログラム - Google Patents

情報入力装置、情報入力装置の制御方法、情報入力装置の制御プログラム Download PDF

Info

Publication number
JP2013030025A
JP2013030025A JP2011166074A JP2011166074A JP2013030025A JP 2013030025 A JP2013030025 A JP 2013030025A JP 2011166074 A JP2011166074 A JP 2011166074A JP 2011166074 A JP2011166074 A JP 2011166074A JP 2013030025 A JP2013030025 A JP 2013030025A
Authority
JP
Japan
Prior art keywords
input device
information input
mouse
sensor
touch area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2011166074A
Other languages
English (en)
Inventor
Tatsuyoshi Noma
立義 野間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011166074A priority Critical patent/JP2013030025A/ja
Priority to US13/560,443 priority patent/US20130027334A1/en
Publication of JP2013030025A publication Critical patent/JP2013030025A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ワイヤレス通信可能な情報入力装置(マウス)は、ワイヤーを気にせず移動させることが可能であるにも関わらず、その使用する向きは1方向に固定されており、この点が不便であることが問題になっていた。このため、多方向の向きで使用可能な情報入力装置を提供することが課題になっていた。
【解決手段】実施形態の情報入力装置は、ユーザのタッチ操作を検出する第1のタッチエリア近傍に設けられ、近接する物体を検出可能な第1のセンサを備える。また、ユーザのタッチ操作を検出する第2のタッチエリア近傍に設けられ、近接する物体を検出可能な第2のセンサを備える。また、前記第1のセンサで物体が検出された場合は、前記第2のタッチエリアをイネーブルにする制御を行なう制御部を備える。
【選択図】 図3

Description

本発明の実施形態は、情報入力装置、情報入力装置の制御方法、情報入力装置の制御プログラムに関する。
近年、パーソナルコンピュータ(PC)等の電子機器が普及している。そして、ユーザが、これらの電子機器へ情報を入力する際の入力補助装置として、例えば、マウス(Mouse)等の情報入力装置(ポインティングデバイス)が用いられている。
例えば、マウス等の情報入力装置は、ユーザのタッチ操作を入力情報として検出するタッチエリアを備えている。
また、近年、例えば、ワイヤレス通信によって、上記検出された入力情報を電子機器へ送信することが可能な情報入力装置(マウス)が普及している。これらのワイヤレス通信可能な情報入力装置(マウス)は、ワイヤーを気にせず移動させることが可能であるので、例えば、ユーザにとって自由度が高いというメリットがある。
しかし、上記ワイヤレス通信可能な情報入力装置(マウス)は、ワイヤーを気にせず移動させることが可能であるにも関わらず、その使用する向きは1方向に固定されており、この点が不便であることが問題になっていた。
このため、多方向の向きで使用可能な情報入力装置を提供することが課題になっていた。
特開2006−155313
ワイヤレス通信可能な情報入力装置(マウス)は、ワイヤーを気にせず移動させることが可能であるにも関わらず、その使用する向きは1方向に固定されており、この点が不便であることが問題になっていた。
このため、多方向の向きで使用可能な情報入力装置を提供することが課題になっていた。
実施形態の情報入力装置は、ユーザのタッチ操作を検出する第1のタッチエリア近傍に設けられ、近接する物体を検出可能な第1のセンサを備える。
また、ユーザのタッチ操作を検出する第2のタッチエリア近傍に設けられ、近接する物体を検出可能な第2のセンサを備える。
また、前記第1のセンサで物体が検出された場合は、前記第2のタッチエリアをイネーブルにする制御を行なう制御部を備える。
実施形態に係わる情報入力装置(マウス)から電子機器(PC)に情報が送信されるようすを示す図。 実施形態に係わる電子機器(PC)の構成を示すブロック図。 実施形態に係わる、近接センサを2つ備える情報入力装置(マウス)の構成および動作を説明する図。 他の実施形態に係わる、近接センサを2つ備える情報入力装置(マウス)の構成および動作を説明する図。 他の実施形態に係わる、近接センサを2つ備える情報入力装置(マウス)の構成および動作を説明する図。 他の実施形態に係わる、近接センサを4つ備える情報入力装置(マウス)の構成を説明する図。 他の実施形態に係わる、近接センサを4つ備える情報入力装置(マウス)の動作を説明する図。 実施形態に係わる、近接センサを2つ備える情報入力装置(マウス)の構成および左手設定における動作を説明する図。 近接センサを2つ備える情報入力装置(マウス)の動作を説明するフローチャート。 近接センサを4つ備える情報入力装置(マウス)の動作を説明するフローチャート。
以下、図面を参照し、実施の形態を説明する。
図1は、実施形態に係わる情報入力装置(マウス)から電子機器(PC)に情報が送信されるようすを示す図である。
この実施の形態においては、図1に示すように、例えば、ユーザに操作された情報入力装置(マウス)20から電子機器(PC)10へ、ユーザ入力情報がワイヤレス通信で送信される。そして、電子機器(PC)10は、このワイヤレス通信で送信されたユーザ入力情報を受信し、これに応じて動作する。
この情報入力装置(マウス)20は、ユーザのタッチ操作を入力情報として検出するタッチエリアを備えている。
この情報入力装置(マウス)20は、上記タッチエリアで検出されたユーザの入力情報をワイヤレス通信で送信する。
ここでは、電子機器は、例えばノートブックタイプのパーソナルコンピュータ(ノートPC、またはPC)10として実現されている。
なお、この実施の形態はパーソナルコンピュータに限られず、TVや携帯電話、携帯型の電子機器等に適用することも可能である。
図1に示すように、電子機器(ノートPC)10は、コンピュータ(ノートPC)本体11と、映像表示部12とから構成されている。映像表示部12には、例えば、LCD(liquid crystal display)17が組み込まれている。
映像表示部12は、コンピュータ(ノートPC)本体11の上面が露出される開放位置とコンピュータ(ノートPC)本体11の上面を覆う閉塞位置との間を回動自在にコンピュータ(ノートPC)本体11に取り付けられている。
コンピュータ(ノートPC)本体11は、薄い箱形の筐体を有しており、その上面には、キーボード13、電子機器(ノートPC)10を電源オン/電源オフするためのパワーボタン14、タッチパッド16、スピーカ18A,18Bなどが配置されている。
また、コンピュータ(ノートPC)本体11の、例えば、右側面には、USB(universal serial bus)2.0規格のUSBケーブルやUSBデバイスを接続するためのUSBコネクタ19が設けられている。
さらに、コンピュータ(ノートPC)本体11の背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子が設けられている(図示せず)。この外部ディスプレイ接続端子は、デジタル映像信号を外部ディスプレイに出力するために用いられる。
図2は、実施形態に係わる電子機器(PC)の構成を示すブロック図である。
電子機器(ノートPC)10は、図2に示すように、CPU(central processing unit)101、システムメモリ103、サウスブリッジ104、GPU(Graphics Processing Unit)105、VRAM(ビデオRAM:random access memory)105A、サウンドコントローラ106、BIOS−ROM(basic input/output system-read only memory)107、LAN(local area network)コントローラ108、ハードディスクドライブ(HDD(記憶装置))109、光ディスクドライブ(ODD)110、USBコントローラ111A、カードコントローラ111B、カードスロット111C、無線LANコントローラ112、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)113、EEPROM(electrically erasable programmable ROM)114等を備える。
CPU101は、電子機器(ノートPC)10内の各部の動作を制御するプロセッサである。
CPU101は、BIOS−ROM107に格納されたBIOSを実行する。BIOSは、ハードウェア制御のためのプログラムである。CPU101には、システムメモリ103をアクセス制御するメモリコントローラも内蔵されている。また、例えば、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
GPU105は、電子機器(ノートPC)10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。
このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ1にデジタル映像信号を送出することもできる。
HDMI端子2は、前述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号とデジタルオーディオ信号とを1本のケーブルでテレビのような外部ディスプレイ1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ1にデジタル映像信号を、HDMI端子2を介して送出するためのインタフェースである。
サウスブリッジ104は、PCI(Peripheral Component Interconnect)バス上の各デバイス及びLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ104は、HDD109及びODD110を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。
さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。LANコントローラ108は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスであり、一方、無線LANコントローラ112は、例えばIEEE 802.11g規格の無線通信を実行する無線通信デバイスである。USBコントローラ111Aは、例えばUSB 2.0規格に対応した外部機器との通信を実行する。
例えば、USBコントローラ111Aは、デジタルカメラに格納されている画像データファイルを受信するために使用される。また、カードコントローラ111Bは、コンピュータ(ノートPC)本体11に設けられたカードスロットに挿入される、SDカードのようなメモリカードに対するデータの書き込み及び読み出しを実行する。
EC/KBC113は、電力管理のためのエンベデッドコントローラと、キーボード13及びタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。EC/KBC113は、ユーザによるパワーボタン14の操作に応じて電子機器(ノートPC)10を電源オン/電源オフする機能を有している。
この実施の形態における表示制御は、例えば、CPU101がシステムメモリ103やHDD109等に記録されたプログラムを実行させることにより行われる。
また、ここでは、特に図示しないが、例えば、USBコントローラには、情報入力装置(マウス)20から送信されたワイヤレス通信を受信可能なワイヤレス通信受信部が接続される。そして、情報入力装置(マウス)20から送信されたワイヤレス通信で送信された入力情報を受信する。電子機器(PC)10は、例えば、この入力情報に応じて、動作する。
図3は、実施形態に係わる、近接センサを2つ備える情報入力装置(マウス)の構成および動作を説明する図である。
ここでは、近接センサで物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
ここで、この実施の形態に係る近接センサの説明をする。
近接センサは、検出対象に接触することなく物体を検出するセンサである。近接センサは、その動作原理の違いにより、電磁誘導を利用した高周波発振型、磁石を用いた磁気型、静電容量の変化を利用した静電容量型、電磁誘導により検出対象となる金属体に発生する渦電流を利用する渦電流型等に分類される。
例えば、磁気近接センサ(magnetic proximity sensor)は、磁性体が近付くと反応する。回転子の速度測定、回路の点滅(on / off)に使用されている。また、このセンサは、モーターと車輪の回転数をカウントするためにも使用され、位置センサとしても使用されている。
また、光学式近接センサ(optical proximity sensor)は、emitterと呼ばれる光源と光の存在有無を検出する受光機で構成されている。一般的に受光器はフォトトランジスタで、emitter はLED(light emitted diode)である。この両方の組み合わせが光センサを作り、光学エンコーダを含む多くの分野に応用されている。
超音波センサは、高周波(一般的に200 kHzの範囲)の超音波を発信し、対象物で反射してくる超音波を再度センサヘッドで受信し、この音波の発信から受信までの時間を計測することで対象物の位置を検出する。
誘導形近接センサ(inductive proximity sensor)は、金属など導体を検出するときに使われる。検出コイルに交流磁界を発生させ、検出体となる金属体に発生した渦電流によるインピーダンスの変化を検出する。
容量形近接センサー(capacitive sensor)は、誘電率が1.2よりも大きな物体が存在すると反応する。この場合、センサ内部の物質は、コンデンサ(capacitor or condenser)として動作し、センサのプローブ(probe)の全容量成分がアップする。これが、内部発振器の起動信号となり、出力信号を送る。つまり、センサは、測定範囲内の物体の存在を検出することができる。容量形センサは、木、液体、および化学原料などの非金属を検出することもできる。
渦電流近接センサは、導体が可変する磁界内に位置しているとき、導体から電流の流れが発生し、起電力が誘導される。この電流を渦電流という。渦電流センサは、導電性物質の検出に主に使用されるだけでなく、物質の厚さ、壊れ目、距離などの非破壊検査にも利用される。
この実施の形態においては、上記近接センサを適宜利用することが可能である。
図3(a)は、情報入力装置(マウス)20の構成を説明する図である。
図3(a)に示すように、この実施形態に係わる情報入力装置(マウス)20は、第1の近接センサ21および第2の近接センサ22の2つの近接センサを備えている。
この情報入力装置(マウス)20は、以下説明するように、異なる動作をする、第1のタッチエリア31および第2のタッチエリア32の2つの領域(タッチエリア)を備えている。
また、この実施の形態においては、情報入力装置(マウス)20は、図示しない、CPU等の制御部を備えている。
そして、上記第1のタッチエリア31近傍(第1のタッチエリア31内を含む)には、上記第1の近接センサ21が設けられ、情報入力装置(マウス)20に近接する物体を検出する。また、上記第2のタッチエリア32近傍(第2のタッチエリア32内を含む)には、上記第2の近接センサ22が設けられ、同様に、情報入力装置(マウス)20に近接する物体を検出する。
また、上記第1の近接センサ21で物体が検出された場合は、上記第2のタッチエリア32をイネーブル(有効)にする
また上記制御部は、さらに、上記第1のタッチエリア31をディスエーブル(無効)にする。
図3(b)は、情報入力装置(マウス)20に情報入力装置(マウス)20を操作するユーザの手(右手)が近接し、これが第2の近接センサ22で物体として検出された場合の動作を説明する図である。
上記のように、ここでは、近接センサ22で物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図3(b)に示すように、ここでは、第2の検出センサ22で物体1が検出されている。
すると、上記第2の近接センサ21で物体が検出された場合は、例えば、上記第1のタッチエリア31をイネーブル(有効)にする。また、このとき、上記第2のタッチエリア32はディスエーブル(無効)にする。
また、上記イネーブル(有効)にされた第1のタッチエリア31に、図3(b)に示すように、「L」および「R」と示されたタッチセンサを動作させる。
ここで、「L」は、上記右手設定におけるマウスのタッチセンサの左側のエリア、すなわち、通常、右手の人差し指で操作されるエリアである。
また、「R」は、上記右手設定におけるマウスのタッチセンサの右側のエリア、すなわち、通常、右手の中指で操作されるエリアである。
図3(c)は、情報入力装置(マウス)20に情報入力装置(マウス)20を操作するユーザの手(右手)が近接し、これが第1の近接センサ21で物体として検出された場合の動作を説明する図である。
上記のように、ここでは、近接センサ21で物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図3(c)に示すように、ここでは、第1の検出センサ21で物体1が検出されている。
すると、上記第1の近接センサ21で物体が検出された場合は、例えば、上記第2のタッチエリア32をイネーブル(有効)にする。また、このとき、上記第1のタッチエリア31はディスエーブル(無効)にする。
また、上記と同様に、上記イネーブル(有効)にされた第2のタッチエリア32に、図3(c)に示すように、「L」および「R」と示されたタッチセンサを動作させる。
ここで、「L」は、上記右手設定におけるマウスのタッチセンサの左側のエリア、すなわち、通常、右手の人差し指で操作されるエリアである。
また、「R」は、上記右手設定におけるマウスのタッチセンサの右側のエリア、すなわち、通常、右手の中指で操作されるエリアである。
このように構成することにより、図3に示すように、多方向(2方向)の向きで使用可能な情報入力装置を提供することが可能になる。
図4は、他の実施形態に係わる、近接センサを2つ備える情報入力装置(マウス)の構成および動作を説明する図である。
この実施の形態においては、第1のタッチエリア31は、20aおよび20bの2つのエリアに分離されている。また、第2のタッチエリア32は、20cおよび20dの2つのエリアに分離されている。
ここでも、上記と同様に、近接センサで物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図4(a)は、情報入力装置(マウス)20の構成を説明する図である。
図4(a)に示すように、この実施形態に係わる情報入力装置(マウス)20は、第1の近接センサ21および第2の近接センサ22の2つの近接センサを備えている。
この情報入力装置(マウス)20は、以下説明するように、異なる動作をする、第1のタッチエリア31および第2のタッチエリア32の2つの領域(タッチエリア)を備え、図4(a)に示すように、それぞれが、2つのエリアに分離されている。
また、この実施の形態においても、情報入力装置(マウス)20は、図示しない、CPU等の制御部を備えている。
そして、上記第1のタッチエリア31近傍(第1のタッチエリア31内を含む)には、上記第1の近接センサ21が設けられ、情報入力装置(マウス)20に近接する物体を検出する。また、上記第2のタッチエリア32近傍(第2のタッチエリア32内を含む)には、上記第2の近接センサ22が設けられ、同様に、情報入力装置(マウス)20に近接する物体を検出する。
また、上記第1の近接センサ21で物体が検出された場合は、上記第2のタッチエリア32をイネーブル(有効)にする
また上記制御部は、さらに、上記第1のタッチエリア31をディスエーブル(無効)にする。
図4(b)は、情報入力装置(マウス)20に情報入力装置(マウス)20を操作するユーザの手(右手)が近接し、これが第2の近接センサ22で物体として検出された場合の動作を説明する図である。
上記のように、ここでは、近接センサ22で物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図4(b)に示すように、ここでは、第2の検出センサ22で物体1が検出されている。
すると、上記第2の近接センサ21で物体が検出された場合は、例えば、上記第1のタッチエリア31をイネーブル(有効)にする。また、このとき、上記第2のタッチエリア32はディスエーブル(無効)にする。
また、上記イネーブル(有効)にされた第1のタッチエリア31に、図4(b)に示すように、「L」および「R」と示されたタッチセンサ20aおよび20bを動作させる。
ここで、「L」(タッチセンサ20a)は、上記右手設定におけるマウスのタッチセンサの左側のエリア、すなわち、通常、右手の人差し指で操作されるエリアである。
また、「R」(タッチセンサ20b)は、上記右手設定におけるマウスのタッチセンサの右側のエリア、すなわち、通常、右手の中指で操作されるエリアである。
図4(c)は、情報入力装置(マウス)20に情報入力装置(マウス)20を操作するユーザの手(右手)が近接し、これが第1の近接センサ21で物体として検出された場合の動作を説明する図である。
上記のように、ここでは、近接センサ21で物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図4(c)に示すように、ここでは、第1の検出センサ21で物体1が検出されている。
すると、上記第1の近接センサ21で物体が検出された場合は、例えば、上記第2のタッチエリア32をイネーブル(有効)にする。また、このとき、上記第1のタッチエリア31はディスエーブル(無効)にする。
また、上記と同様に、上記イネーブル(有効)にされた第2のタッチエリア32に、図4(c)に示すように、「L」および「R」と示されたタッチセンサ20dおよび20cを動作させる。
ここで、「L」(タッチセンサ20d)は、上記右手設定におけるマウスのタッチセンサの左側のエリア、すなわち、通常、右手の人差し指で操作されるエリアである。
また、「R」(タッチセンサ20c)は、上記右手設定におけるマウスのタッチセンサの右側のエリア、すなわち、通常、右手の中指で操作されるエリアである。
このように構成することにより、図4に示すように、多方向(2方向)の向きで使用可能な情報入力装置を提供することが可能になる。
図5は、他の実施形態に係わる、近接センサを2つ備える情報入力装置(マウス)の構成および動作を説明する図である。
この実施の形態においては、第1のタッチエリア31には、20aおよび20bの2つのタッチエリアが設けられている。また、第2のタッチエリア32には、20cおよび20dの2つのタッチエリアが設けられている。
ここでも、上記と同様に、近接センサで物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図5(a)は、情報入力装置(マウス)20の構成を説明する図である。
図5(a)に示すように、この実施形態に係わる情報入力装置(マウス)20は、第1の近接センサ21および第2の近接センサ22の2つの近接センサを備えている。
この情報入力装置(マウス)20は、以下説明するように、異なる動作をする、第1のタッチエリア31および第2のタッチエリア32の2つの領域(タッチエリア)を備え、図5(a)に示すように、それぞれが、2つのエリアに分離されている。
また、この実施の形態においても、情報入力装置(マウス)20は、図示しない、CPU等の制御部を備えている。
そして、上記第1のタッチエリア31近傍(第1のタッチエリア31内を含む)には、上記第1の近接センサ21が設けられ、情報入力装置(マウス)20に近接する物体を検出する。また、上記第2のタッチエリア32近傍(第2のタッチエリア32内を含む)には、上記第2の近接センサ22が設けられ、同様に、情報入力装置(マウス)20に近接する物体を検出する。
また、上記第1の近接センサ21で物体が検出された場合は、上記第2のタッチエリア32をイネーブル(有効)にする
また上記制御部は、さらに、上記第1のタッチエリア31をディスエーブル(無効)にする。
図5(b)は、情報入力装置(マウス)20に情報入力装置(マウス)20を操作するユーザの手(右手)が近接し、これが第2の近接センサ22で物体として検出された場合の動作を説明する図である。
上記のように、ここでは、近接センサ22で物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図5(b)に示すように、ここでは、第2の検出センサ22で物体1が検出されている。
すると、上記第2の近接センサ21で物体が検出された場合は、例えば、上記第1のタッチエリア31をイネーブル(有効)にする。また、このとき、上記第2のタッチエリア32はディスエーブル(無効)にする。
また、上記イネーブル(有効)にされた第1のタッチエリア31に、図5(b)に示すように、「L」および「R」と示されたタッチセンサ20aおよび20bを動作させる。
ここで、「L」(タッチセンサ20a)は、上記右手設定におけるマウスのタッチセンサの左側の部分、すなわち、通常、右手の人差し指で操作される部分である。
また、「R」(タッチセンサ20b)は、上記右手設定におけるマウスのタッチセンサの右側の部分、すなわち、通常、右手の中指で操作される部分である。
図5(c)は、情報入力装置(マウス)20に情報入力装置(マウス)20を操作するユーザの手(右手)が近接し、これが第1の近接センサ21で物体として検出された場合の動作を説明する図である。
上記のように、ここでは、近接センサ21で物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図5(c)に示すように、ここでは、第1の検出センサ21で物体1が検出されている。
すると、上記第1の近接センサ21で物体が検出された場合は、例えば、上記第2のタッチエリア32をイネーブル(有効)にする。また、このとき、上記第1のタッチエリア31はディスエーブル(無効)にする。
また、上記と同様に、上記イネーブル(有効)にされた第2のタッチエリア32に、図5(c)に示すように、「L」および「R」と示されたタッチセンサ20dおよび20cを動作させる。
ここで、「L」(タッチセンサ20d)は、上記右手設定におけるマウスのタッチセンサの左側の部分、すなわち、通常、右手の人差し指で操作される部分である。
また、「R」(タッチセンサ20c)は、上記右手設定におけるマウスのタッチセンサの右側の部分、すなわち、通常、右手の中指で操作される部分である。
このように構成することにより、図5に示すように、多方向(2方向)の向きで使用可能な情報入力装置を提供することが可能になる。
図6は、他の実施形態に係わる、近接センサを4つ備える情報入力装置(マウス)の構成を説明する図である。
この実施の形態においては、情報入力装置(マウス)20は、第1の近接センサ61、第2の近接センサ62、第3の近接センサ63、第4の近接センサ64の4つの近接センサを備える。
そして、この実施の形態においては、図6に示すように、タッチエリアは例えば、4つ構成される。
そして、例えば、一つの近接センサを挟む2つのタッチエリアが上記説明したタッチエリアとなる。
すなわち、ここでは、例えば、第3の近接センサ63が物体を検出した場合には、第1の近接センサ61を挟む2つのタッチエリア(タッチエリア20aおよびタッチエリア20b)が上記と同様のタッチエリアとなる。
また、同様に、第4の近接センサ64が物体を検出した場合には、第2の近接センサ62を挟む2つのタッチエリア(タッチエリア20bおよびタッチエリア20d)が上記と同様のタッチエリアとなる。
また、同様に、第1の近接センサ61が物体を検出した場合には、第3の近接センサ63を挟む2つのタッチエリア(タッチエリア20dおよびタッチエリア20c)が上記と同様のタッチエリアとなる。
また、同様に、第2の近接センサ62が物体を検出した場合には、第4の近接センサ64を挟む2つのタッチエリア(タッチエリア20cおよびタッチエリア20a)が上記と同様のタッチエリアとなる。
ここでも、上記と同様に、近接センサで物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図7は、他の実施形態に係わる、近接センサを4つ備える情報入力装置(マウス)の動作を説明する図である。
図7(a)は、情報入力装置(マウス)20に情報入力装置(マウス)20を操作するユーザの手(右手)が近接し、これが第3の近接センサ63で物体として検出された場合の動作を説明する図である。
上記のように、ここでは、近接センサで物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図7(a)に示すように、ここでは、第3の検出センサ63で物体1が検出されている。
そして、上記第3の検出センサ63で物体1が検出された場合は、例えば、この第3の検出センサ63に対向する第1の検出センサ61を挟む第1のタッチエリア71(タッチエリア20aおよびタッチエリア20b)をイネーブル(有効)にし、他のタッチエリアはディスエーブル(無効)にする。
ここで、「L」(タッチセンサ20a)は、上記右手設定におけるマウスのタッチセンサの左側の部分、すなわち、通常、右手の人差し指で操作される部分である。
また、「R」(タッチセンサ20b)は、上記右手設定におけるマウスのタッチセンサの右側の部分、すなわち、通常、右手の中指で操作される部分である。
図7(b)は、情報入力装置(マウス)20に情報入力装置(マウス)20を操作するユーザの手(右手)が近接し、これが第4の近接センサ64で物体として検出された場合の動作を説明する図である。
上記のように、ここでは、近接センサで物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図7(b)に示すように、ここでは、第4の検出センサ64で物体1が検出されている。
そして、上記第4の検出センサ64で物体1が検出された場合は、例えば、この第4の検出センサ64に対向する第2の検出センサ62を挟む第2のタッチエリア72(タッチエリア20bおよびタッチエリア20d)をイネーブル(有効)にし、他のタッチエリアはディスエーブル(無効)にする。
ここで、「L」(タッチセンサ20b)は、上記右手設定におけるマウスのタッチセンサの左側の部分、すなわち、通常、右手の人差し指で操作される部分である。
また、「R」(タッチセンサ20d)は、上記右手設定におけるマウスのタッチセンサの右側の部分、すなわち、通常、右手の中指で操作される部分である。
図7(c)は、情報入力装置(マウス)20に情報入力装置(マウス)20を操作するユーザの手(右手)が近接し、これが第1の近接センサ61で物体として検出された場合の動作を説明する図である。
上記のように、ここでは、近接センサで物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図7(c)に示すように、ここでは、第1の検出センサ61で物体1が検出されている。
そして、上記第1の検出センサ61で物体1が検出された場合は、例えば、この第1の検出センサ61に対向する第3の検出センサ63を挟む第1のタッチエリア71(タッチエリア20aおよびタッチエリア20b)をイネーブル(有効)にし、他のタッチエリアはディスエーブル(無効)にする。
ここで、「L」(タッチセンサ20a)は、上記右手設定におけるマウスのタッチセンサの左側の部分、すなわち、通常、右手の人差し指で操作される部分である。
また、「R」(タッチセンサ20b)は、上記右手設定におけるマウスのタッチセンサの右側の部分、すなわち、通常、右手の中指で操作される部分である。
図7(d)は、情報入力装置(マウス)20に情報入力装置(マウス)20を操作するユーザの手(右手)が近接し、これが第2の近接センサ62で物体として検出された場合の動作を説明する図である。
上記のように、ここでは、近接センサで物体が検出された場合に、ユーザが情報入力装置(マウス)20を右手で使用することが、電子機器(PC)10に、予め、設定されている。
図7(d)に示すように、ここでは、第2の検出センサ62で物体1が検出されている。
そして、上記第2の検出センサ62で物体1が検出された場合は、例えば、この第2の検出センサ62に対向する第4の検出センサ64を挟む第4のタッチエリア74(タッチエリア20cおよびタッチエリア20a)をイネーブル(有効)にし、他のタッチエリアはディスエーブル(無効)にする。
ここで、「L」(タッチセンサ20c)は、上記右手設定におけるマウスのタッチセンサの左側の部分、すなわち、通常、右手の人差し指で操作される部分である。
また、「R」(タッチセンサ20a)は、上記右手設定におけるマウスのタッチセンサの右側の部分、すなわち、通常、右手の中指で操作される部分である。
このように構成することにより、この実施の形態においては、図7に示すように、多方向(4方向)の向きで使用可能な情報入力装置を提供することが可能になる。
図8は、実施形態に係わる、近接センサを2つ備える情報入力装置(マウス)の構成および左手設定における動作を説明する図である。
この実施の形態においては、近接センサで物体が検出された場合に、ユーザが情報入力装置(マウス)20を左手で使用することが、電子機器(PC)10に、予め、設定されている。
図8(a)は、情報入力装置(マウス)20の構成を説明する図である。
図8(a)に示すように、この実施形態に係わる情報入力装置(マウス)20は、第1の近接センサ21および第2の近接センサ22の2つの近接センサを備えている。
この情報入力装置(マウス)20は、以下説明するように、異なる動作をする、第1のタッチエリア31および第2のタッチエリア32の2つの領域(タッチエリア)を備えている。
また、この実施の形態においては、情報入力装置(マウス)20は、図示しない、CPU等の制御部を備えている。
そして、上記第1のタッチエリア31近傍(第1のタッチエリア31内を含む)には、上記第1の近接センサ21が設けられ、情報入力装置(マウス)20に近接する物体を検出する。また、上記第2のタッチエリア32近傍(第2のタッチエリア32内を含む)には、上記第2の近接センサ22が設けられ、同様に、情報入力装置(マウス)20に近接する物体を検出する。
また、上記第1の近接センサ21で物体が検出された場合は、上記第2のタッチエリア32をイネーブル(有効)にする
また上記制御部は、さらに、上記第1のタッチエリア31をディスエーブル(無効)にする。
図8(b)は、情報入力装置(マウス)20に情報入力装置(マウス)20を操作するユーザの手(左手)が近接し、これが第2の近接センサ22で物体として検出された場合の動作を説明する図である。
上記のように、ここでは、近接センサ22で物体が検出された場合に、ユーザが情報入力装置(マウス)20を左手で使用することが、電子機器(PC)10に、予め、設定されている。
図8(b)に示すように、ここでは、第2の検出センサ22で物体1が検出されている。
すると、上記第2の近接センサ21で物体が検出された場合は、例えば、上記第1のタッチエリア31をイネーブル(有効)にする。また、このとき、上記第2のタッチエリア32はディスエーブル(無効)にする。
また、上記イネーブル(有効)にされた第1のタッチエリア31に、図8(b)に示すように、「L」および「R」と示されたタッチセンサを動作させる。
ここで、「L」は、上記左手設定におけるマウスのタッチセンサの通常、左手の人差し指で操作されるエリアである。
また、「R」は、上記左手設定におけるマウスのタッチセンサの通常、左手の中指で操作されるエリアである。
図8(c)は、情報入力装置(マウス)20に情報入力装置(マウス)20を操作するユーザの手(左手)が近接し、これが第1の近接センサ21で物体として検出された場合の動作を説明する図である。
上記のように、ここでは、近接センサ21で物体が検出された場合に、ユーザが情報入力装置(マウス)20を左手で使用することが、電子機器(PC)10に、予め、設定されている。
図8(c)に示すように、ここでは、第1の検出センサ21で物体1が検出されている。
すると、上記第1の近接センサ21で物体が検出された場合は、例えば、上記第2のタッチエリア32をイネーブル(有効)にする。また、このとき、上記第1のタッチエリア31はディスエーブル(無効)にする。
また、上記と同様に、上記イネーブル(有効)にされた第2のタッチエリア32に、図8(c)に示すように、「L」および「R」と示されたタッチセンサを動作させる。
ここで、「L」は、上記左手設定におけるマウスのタッチセンサの通常、左手の人差し指で操作されるエリアである。
また、「R」は、上記左手設定におけるマウスのタッチセンサの通常、左手の中指で操作されるエリアである。
このように構成することにより、図8に示すように、多方向(2方向)の向きで使用可能な情報入力装置を提供することが可能になる。
図9は、近接センサを2つ備える情報入力装置(マウス)の動作を説明するフローチャートである。
ステップS100は、ここでの開始ステップである。続いて、ステップS101に進む。
ステップS101は、上記2つの近接センサのどちらかで物体が検出されたかを判別するステップである。2つの近接センサのどちらかで物体が検出されたと判別される場合は、ステップS102に進む(Yes)。2つの近接センサのどちらかで物体が検出されたと判別されない場合は、ここでの処理を繰り返す(No)。
ステップS102は、上記物体を検出した近接センサは、第1の近接センサ21であるかを判別するステップである。上記物体を検出した近接センサは、第1の近接センサ21であると判別される場合は、ステップS103に進む(Yes)。上記物体を検出した近接センサは、第1の近接センサ21ではないと判別される場合は、ステップS108に進む(No)。
ステップS103は、上記のように、第1の近接センサ21近傍の第1のタッチエリア31をディスエーブル(無効)、第2の近接センサ22近傍の第2のタッチエリア32をイネーブル(有効)にするステップである。続いて、ステップS104に進む。
ステップS104は、情報入力装置(マウス)20が右手用に設定されているかを判別するステップである。情報入力装置(マウス)20が右手用に設定されていると判別される場合は、ステップS105に進む(Yes)。情報入力装置(マウス)20が右手用に設定されていると判別されない場合は、ステップS106に進む(No)。
ステップS105は、例えば、図3、図4、図5に示すように、第2のタッチエリア32を右手用で動作させるステップである。続いて、ステップS114に進む。
ステップS106は、情報入力装置(マウス)20が左手用に設定されているかを判別するステップである。情報入力装置(マウス)20が左手用に設定されていると判別される場合は、ステップS107に進む(Yes)。情報入力装置(マウス)20が左手用に設定されていると判別されない場合は、ステップS104に進み、上記処理を繰り返す(No)。
ステップS107は、図8に示すように、上記第2のタッチエリア32を左手用で動作させるステップである。続いて、ステップS114に進む。
ステップS108は、上記物体が検出された近接センサは第2の近接センサ22であるかを判別するステップである。上記物体が検出された近接センサは第2の近接センサ22であると判別される場合は、ステップS109に進む(Yes)。上記物体が検出された近接センサは第2の近接センサ22ではないと判別される場合は、ステップS101に進み、上記処理を繰り返す(No)。
ステップS109は、第2の近接センサ22近傍の第2のタッチエリア32をディスエーブル(無効)、第1の近接センサ21近傍の第1のタッチエリア31をイネーブル(有効)にするステップである。続いて、ステップS110に進む。
ステップS110は、上記情報入力装置(マウス)20が右手用に設定されているかを判別するステップである。上記情報入力装置(マウス)20が右手用に設定されていると判別される場合は、ステップS111に進む(Yes)。上記情報入力装置(マウス)20が右手用に設定されていると判別されない場合は、ステップS112に進む(No)。
ステップS111は、図3、図4、図5に示すように、第1のタッチエリア31を右手用で動作させるステップである。続いて、ステップS114に進む。
ステップS112は、上記情報入力装置(マウス)20が左手用に設定されているかを判別するステップである。上記情報入力装置(マウス)20が左手用に設定されていると判別される場合は、ステップS113に進む(Yes)。上記情報入力装置(マウス)20が左手用に設定されていると判別されない場合は、ステップS113に進む(No)。
ステップS113は、図8に示すように、第1のタッチエリア31を左手用で動作させるステップである。続いて、ステップS114に進む。
ステップS114は、終了ステップであり、ここでの処理は終了する。
図10は、近接センサを4つ備える情報入力装置(マウス)の動作を説明するフローチャートである。
ステップS200は、ここでの開始ステップである。続いて、ステップS201に進む。
ステップS201は、4つの近接センサのどれかで物体が検出されたかを判別するステップである。4つの近接センサのどれかで物体が検出されたと判別された場合は、ステップS202に進む(Yes)。4つの近接センサのどれかで物体が検出されたと判別されない場合は、ステップS204に進む(No)。
ステップS202は、物体を検出した近接センサは第1の近接センサ61であるかを判別するステップである。物体を検出した近接センサは第1の近接センサ61であると判別される場合は、ステップS203に進む(Yes)。物体を検出した近接センサは第1の近接センサ61ではないと判別される場合は、ステップS204に進む(No)。
ステップS203は、図7(c)に示すように、第1の近接センサ61近傍の第1のタッチエリア71をディスエーブル、第3の近接センサ63近傍の第3のタッチエリア73をイネーブルにするステップである。続いて、ステップS210に進む。
ステップS204は、物体を検出した近接センサは第2の近接センサ62であるかを判別するステップである。物体を検出した近接センサは第2の近接センサ62であると判別される場合は、ステップS205に進む(Yes)。物体を検出した近接センサは第2の近接センサ62ではないと判別される場合は、ステップS206に進む(No)。
ステップS205は、図7(d)に示すように、第2の近接センサ62近傍の第2のタッチエリア72をディスエーブル、第4の近接センサ64近傍の第4のタッチエリア74をイネーブルにするステップである。続いて、ステップS210に進む。
ステップS206は、物体を検出した近接センサは第3の近接センサ63であるかを判別するステップである。物体を検出した近接センサは第3の近接センサ63であると判別される場合は、ステップS207に進む(Yes)。物体を検出した近接センサは第3の近接センサ63ではないと判別される場合は、ステップS208に進む(No)。
ステップS207は、図7(a)に示すように、第3の近接センサ63近傍の第3のタッチエリア73をディスエーブル、第1の近接センサ61近傍の第1のタッチエリア71をイネーブルにするステップである。続いて、ステップS210に進む。
ステップS208は、物体を検出した近接センサは第4の近接センサ64であるかを判別するステップである。物体を検出した近接センサは第4の近接センサ64であると判別される場合は、ステップS209に進む(Yes)物体を検出した近接センサは第4の近接センサ64ではないと判別される場合は、ステップS201に進み、上記処理を繰り返す。
ステップS209は、図7(b)に示すように、第4の近接センサ64近傍の第4のタッチエリア74をディスエーブル、第2の近接センサ62近傍の第2のタッチエリア72をイネーブルにするステップである。続いて、ステップS210に進む。
ステップS210は、図7(a)、(b)、(c)、(d)に示すように、イネーブルになったタッチエリアを予め設定された右手用または左手用で動作するステップである。続いて、ステップS211に進む。
ステップS211は、終了ステップであり、ここでの処理は終了する。
上記のように構成することにより、この実施の形態においては、多方向の向きで使用可能な情報入力装置を提供することが可能になる。
なお、上記実施形態の制御処理の手順は全てソフトウェアによって実行することが可能である。このため、制御処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、上記実施形態と同様の効果を容易に実現することができる。
なお、上記実施形態は、記述そのものに限定されるものではなく、実施段階では、その趣旨を逸脱しない範囲で、構成要素を種々変形して具体化することが可能である。
また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。
例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
1…物体(右手設定)、2…物体(左手設定)、21…第1の近接センサ、22…第2の近接センサ、31…第1のタッチエリア、32…第2のタッチエリア。

Claims (9)

  1. ユーザのタッチ操作を検出する第1のタッチエリア近傍に設けられ、近接する物体を検出可能な第1のセンサと、
    ユーザのタッチ操作を検出する第2のタッチエリア近傍に設けられ、近接する物体を検出可能な第2のセンサと、
    前記第1のセンサで物体が検出された場合は、前記第2のタッチエリアをイネーブルにする制御を行なう制御部を備える入力装置。
  2. 前記制御部は、さらに、前記第1のタッチエリアをディスエーブルにする制御を行なう請求項1に記載の入力装置。
  3. 前記制御部は、前記第2のセンサで物体が検出された場合は、前記第1のタッチエリアをイネーブルにする制御を行なう制御部を備える請求項1に記載の入力装置。
  4. 前記制御部は、さらに、前記第2のタッチエリアをディスエーブルにする制御を行なう請求項3に記載の入力装置。
  5. 前記第1のセンサおよび前記第2のセンサは、それぞれ近接センサを備える請求項1に記載の入力装置。
  6. 予め、右手用または左手用の設定が可能な設定部を備え、右手用の設定がされている場合は、前記第2のタッチエリアを右手用に動作させる請求項1に記載の入力装置。
  7. 予め、右手用または左手用の設定が可能な設定部を備え、左手用の設定がされている場合は、前記第2のタッチエリアを左手用に動作させる請求項1に記載の入力装置。
  8. ユーザのタッチ操作を検出する第1のタッチエリア近傍に設けられ、近接する物体を検出可能な第1のセンサ、および、ユーザのタッチ操作を検出する第2のタッチエリア近傍に設けられ、近接する物体を検出可能な第2のセンサで物体を検出するステップと、
    前記第1のセンサで物体が検出された場合は、前記第2のタッチエリアをイネーブルにするステップを備える入力装置の制御方法。
  9. ユーザのタッチ操作を検出する第1のタッチエリア近傍に設けられ、近接する物体を検出可能な第1のセンサ、および、ユーザのタッチ操作を検出する第2のタッチエリア近傍に設けられ、近接する物体を検出可能な第2のセンサで物体を検出するステップと、
    前記第1のセンサで物体が検出された場合は、前記第2のタッチエリアをイネーブルにするステップを備える入力装置の制御プログラム。
JP2011166074A 2011-07-28 2011-07-28 情報入力装置、情報入力装置の制御方法、情報入力装置の制御プログラム Abandoned JP2013030025A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011166074A JP2013030025A (ja) 2011-07-28 2011-07-28 情報入力装置、情報入力装置の制御方法、情報入力装置の制御プログラム
US13/560,443 US20130027334A1 (en) 2011-07-28 2012-07-27 Information input device, information input device control method, and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011166074A JP2013030025A (ja) 2011-07-28 2011-07-28 情報入力装置、情報入力装置の制御方法、情報入力装置の制御プログラム

Publications (1)

Publication Number Publication Date
JP2013030025A true JP2013030025A (ja) 2013-02-07

Family

ID=47596820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011166074A Abandoned JP2013030025A (ja) 2011-07-28 2011-07-28 情報入力装置、情報入力装置の制御方法、情報入力装置の制御プログラム

Country Status (2)

Country Link
US (1) US20130027334A1 (ja)
JP (1) JP2013030025A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9684396B2 (en) 2012-12-12 2017-06-20 Steelseries Aps Method and apparatus for configuring and selectively sensing use of a device
CN104679283B (zh) * 2015-03-23 2019-04-19 上海芯歌智能科技有限公司 利用输入装置进行互动的方法
US11460936B2 (en) * 2020-12-30 2022-10-04 Lenovo (Singapore) Pte. Ltd. Computing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185495A (ja) * 2002-12-05 2004-07-02 Ricoh Elemex Corp 座標入力装置、ディスプレイ装置、座標入力方法およびプログラム
US20070211033A1 (en) * 2002-03-13 2007-09-13 Apple Inc. Multi-button mouse
JP2010009514A (ja) * 2008-06-30 2010-01-14 Toshiba Corp 電子機器
US20110012835A1 (en) * 2003-09-02 2011-01-20 Steve Hotelling Ambidextrous mouse

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5841425A (en) * 1996-07-31 1998-11-24 International Business Machines Corporation Ambidextrous computer input device
US6072471A (en) * 1997-09-17 2000-06-06 Lo; Jack Ambidextrous upright computer mouse

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070211033A1 (en) * 2002-03-13 2007-09-13 Apple Inc. Multi-button mouse
JP2004185495A (ja) * 2002-12-05 2004-07-02 Ricoh Elemex Corp 座標入力装置、ディスプレイ装置、座標入力方法およびプログラム
US20110012835A1 (en) * 2003-09-02 2011-01-20 Steve Hotelling Ambidextrous mouse
JP2010009514A (ja) * 2008-06-30 2010-01-14 Toshiba Corp 電子機器

Also Published As

Publication number Publication date
US20130027334A1 (en) 2013-01-31

Similar Documents

Publication Publication Date Title
CN111758097B (zh) 电子设备及其指纹认证界面方法
CN104364745B (zh) 用于接近触摸感测的设备和方法
US11397501B2 (en) Coordinate measuring apparatus for measuring input position of coordinate indicating apparatus, and method of controlling the same
JP5990340B2 (ja) イヤホンケーブルで端末を制御する方法、イヤホンケーブルで端末を制御する装置、デバイス、プログラム及び記録媒体
CN113220144A (zh) 触控笔
KR102106779B1 (ko) 펜 입력 처리 방법 및 상기 방법이 적용되는 장치
EP2787414B1 (en) Method of controlling touch screen and electronic device thereof
KR101453028B1 (ko) 지문센서를 갖는 입력장치 및 이를 포함하는 휴대용 전자기기
KR20230165742A (ko) 터치 장치 및 이의 터치 검출 방법
KR20210034358A (ko) 스타일러스 펜, 터치 장치, 및 터치 시스템
CN103713487B (zh) 检测装置、处理装置、图像形成装置和检测方法
JP2013030025A (ja) 情報入力装置、情報入力装置の制御方法、情報入力装置の制御プログラム
KR20140137629A (ko) 이어폰 연결을 감지하는 휴대 단말 및 방법
KR102223606B1 (ko) 터치 스크린 제어 방법 및 그 전자 장치
JP2014032644A (ja) ディジタイザ用センサ部及びその製造方法
TW201339942A (zh) 結合磁感應天線的觸控裝置
KR102348410B1 (ko) 전자기 펜
JP5865569B2 (ja) 電子機器に搭載する伝送システム、伝送方法、放熱ファンの制御方法および電子機器
KR20140124609A (ko) 지문센서를 갖는 입력장치 및 이를 포함하는 휴대용 전자기기
KR102131776B1 (ko) 입력 장치 및 그를 포함하는 전자 장치
WO2025163907A1 (ja) 端末及び方法
KR101316781B1 (ko) 터치스크린 입력장치, 시스템 및 이를 이용한 터치스크린 입력방법
JP5838337B2 (ja) 情報処理システム
US9830897B2 (en) Electronic device and method for outputting sounds
JP2014006862A (ja) デジタイザ用センサ部及びその製造方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121225

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20130204