JP2008046692A - Input device - Google Patents
Input device Download PDFInfo
- Publication number
- JP2008046692A JP2008046692A JP2006219004A JP2006219004A JP2008046692A JP 2008046692 A JP2008046692 A JP 2008046692A JP 2006219004 A JP2006219004 A JP 2006219004A JP 2006219004 A JP2006219004 A JP 2006219004A JP 2008046692 A JP2008046692 A JP 2008046692A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- mode
- display screen
- touch panel
- command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003825 pressing Methods 0.000 claims description 64
- 230000005057 finger movement Effects 0.000 claims description 36
- 210000003811 finger Anatomy 0.000 description 196
- 238000000034 method Methods 0.000 description 63
- 230000008569 process Effects 0.000 description 58
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 15
- 210000003813 thumb Anatomy 0.000 description 13
- 230000007704 transition Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 210000004932 little finger Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Landscapes
- Input From Keyboards Or The Like (AREA)
- Collating Specific Patterns (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、操作対象装置に対する指令を生成して出力する入力装置に関する。 The present invention relates to an input device that generates and outputs a command for an operation target device.
オーディオ装置およびAV(audiovisual)装置などの機能を備えるカーナビゲーションシステムは、複数のボタンを有する入力装置を備える。実用に供されているカーナビゲーションシステムは、ボタンの数、換言すれば部品点数が多くなると構造が複雑化し、装置が大形化するので、装置の小形化のために少ない数のボタンで複数の異なる操作命令を入力可能に構成されている。具体的には入力装置は、複数の操作命令を階層化し、この階層化された複数の操作命令のうちから利用者が所望する操作命令を選択することによって、操作命令が入力可能に構成されている。この場合であっても、使用頻度の高い操作命令に対しては、操作命令に1対1に対応するボタンを設けることによって入力装置としての利便性を向上している。 A car navigation system having functions such as an audio device and an AV (audiovisual) device includes an input device having a plurality of buttons. The car navigation system in practical use has a complicated structure as the number of buttons, in other words, the number of parts increases, and the device becomes larger. Therefore, a small number of buttons are used to reduce the size of the device. Different operation commands can be input. Specifically, the input device is configured to be capable of inputting an operation command by hierarchizing a plurality of operation commands and selecting a user-desired operation command from the hierarchized operation commands. Yes. Even in this case, the convenience as an input device is improved by providing buttons corresponding to the operation commands on a one-to-one basis for frequently used operation commands.
また従来の技術の入力装置では、指紋に対してシステムを動作させるためのコマンドを割当てておき、ユーザの指紋を識別することによって、この識別した指紋に割当てられたコマンドを特定し、特定したコマンドをシステムに通知している。特に指紋を識別することによってユーザが操作した指を特定し、その特定結果に基づいてシステムが行うべき処理を指定している。このようにユーザの各指をそれぞれボタンとして機能させることによって、入力装置に設けられるボタンの数を抑制している(たとえば特許文献1参照)。 In the conventional input device, a command for operating the system is assigned to the fingerprint, the user's fingerprint is identified to identify the command assigned to the identified fingerprint, and the identified command Is notified to the system. In particular, the finger operated by the user is identified by identifying the fingerprint, and the process to be performed by the system is designated based on the identification result. Thus, the number of buttons provided in the input device is suppressed by causing each finger of the user to function as a button (see, for example, Patent Document 1).
階層化された複数の操作命令のうちから所望する操作命令を選択するためには、複数の操作が必要となるので、操作命令を入力する作業が煩雑化するという問題がある。 Since a plurality of operations are required to select a desired operation command from a plurality of hierarchical operation commands, there is a problem that the operation of inputting the operation command becomes complicated.
またユーザが操作した指を特定することによってユーザの各指をそれぞれボタンとして機能させる場合には、最大でも指の数の操作命令しか指定することができないという問題がある。 Further, when each finger of the user is made to function as a button by specifying the finger operated by the user, there is a problem that only the operation command of the number of fingers can be specified at the maximum.
したがって本発明の目的は、部品点数の低減を図るとともに、容易な操作で複数の異なる指令を生成して出力することができる入力装置を提供することである。 Accordingly, an object of the present invention is to provide an input device capable of reducing the number of parts and generating and outputting a plurality of different commands with an easy operation.
本発明(1)に従えば、判定手段が、タッチパネルに感圧する指と記憶手段に記憶される生体情報とを照合して指の種類を判定する。これによって、記憶手段に記憶される生体情報に合致する指がタッチパネルに感圧する場合には、指の種類が特定される。また判定手段は、タッチパネルによって検出される指の動きと記憶手段に記憶される軌跡情報とが合致するか否かを判定する。このように、タッチパネルの表面上において、記憶手段に記憶される特定の指で、記憶手段に記憶された軌跡情報に合致するように指が動かされたか否かが判定される。 According to the present invention (1), the determination unit determines the finger type by comparing the finger pressure-sensitive on the touch panel with the biological information stored in the storage unit. Thereby, when the finger | toe corresponding to the biometric information memorize | stored in a memory | storage means senses pressure on a touch panel, the kind of finger | toe is specified. The determination unit determines whether or not the finger movement detected by the touch panel matches the trajectory information stored in the storage unit. In this way, it is determined whether or not the finger is moved on the surface of the touch panel so as to match the trajectory information stored in the storage unit with the specific finger stored in the storage unit.
判定手段によって指の種類が判定され、かつ検出される指の動きと軌跡情報とが合致するとき、指令生成手段は、判定手段によって判定される指の種類、および前記タッチパネルによって検出される指の動きに対応する指令を生成して出力する。このようにタッチパネルの表面上において、利用者が記憶手段に記憶された特定の指で、記憶手段に記憶された軌跡情報に合致する指の動きをするだけで、この動きに対応する指令が生成されて出力される。 When the finger type is determined by the determining unit and the detected finger movement matches the trajectory information, the command generating unit determines the finger type determined by the determining unit and the finger type detected by the touch panel. Generates and outputs a command corresponding to the movement. In this way, on the surface of the touch panel, the user generates a command corresponding to the movement only by moving the finger that matches the trajectory information stored in the storage unit with a specific finger stored in the storage unit. Is output.
本発明(1)によれば、タッチパネルの表面上において、利用者が記憶手段に記憶された特定の指で、記憶手段に記憶された軌跡情報に合致する指の動きをするだけで、この動きに対応する指令が生成されて出力される。これによって煩雑な操作をすることなく、利用者の意図する指令を容易に入力することができる。また指の種類だけでなく、指の動きに応じた指令が生成されるので、指の数以上の異なる指令を指の動きに応じて入力することが可能となり、ボタンの数、つまり部品点数の低減を図ることができる。 According to the present invention (1), on the surface of the touch panel, the user simply moves the finger that matches the trajectory information stored in the storage unit with the specific finger stored in the storage unit. A command corresponding to is generated and output. This makes it possible to easily input a command intended by the user without performing a complicated operation. In addition to the types of fingers, commands corresponding to the movement of the finger are generated, so it is possible to input different commands that are more than the number of fingers according to the movement of the finger, and the number of buttons, that is, the number of parts Reduction can be achieved.
以下、図面を参照しながら本発明を実施するための形態を、複数の形態について説明する。ただし、本発明の技術的範囲は、それらの実施の形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶものである。各形態で先行する形態で説明している事項に対応している部分には同一の参照符号を付し、重複する説明を略する場合がある。構成の一部のみを説明している場合、構成の他の部分は、先行して説明している形態と同様とする。実施の各形態で具体的に説明している部分の組合せばかりではなく、特に組合せに支障が生じなければ、実施の形態同士を部分的に組合せることも可能である。 Hereinafter, a plurality of embodiments for carrying out the present invention will be described with reference to the drawings. However, the technical scope of the present invention is not limited to these embodiments, but extends to the invention described in the claims and equivalents thereof. Parts corresponding to the matters described in the preceding forms in each embodiment are denoted by the same reference numerals, and overlapping description may be omitted. When only a part of the configuration is described, the other parts of the configuration are the same as those described in the preceding section. Not only the combination of the parts specifically described in each embodiment, but also the embodiments can be partially combined as long as the combination does not hinder.
図1は、本発明の実施形態に係る入力装置1を備えるカーナビゲーションシステム2を示すブロック図である。カーナビゲーションシステム2は、表示手段3と、入力判定手段4と、描画制御手段5と、処理実行手段6と、スピーカ7と、制御手段8とを含んで構成される。
FIG. 1 is a block diagram showing a
制御手段8は、マイクロコンピュータなどに備えられる中央処理装置(Central
Processing Unit:略称CPU)がROM(Read Only Memory)およびRAM(Random
Access Memory)などによって実現される記憶手段に記憶された制御プログラムを実行することによって実現され、カーナビゲーションシステム2を構成する各手段を制御する。
The control means 8 is a central processing unit (Central
Processing Unit: CPU (ROM) is ROM (Read Only Memory) and RAM (Random
It is realized by executing a control program stored in a storage means realized by an access memory or the like, and controls each means constituting the
表示手段3は、描画制御手段5から与えられる画像情報を表示画面に表示するディスプレイ9として機能するとともに、タッチパネル11としても機能する。タッチパネル11は、表示手段3の表示画面を押圧する指の表示画面上における絶対座標値を検出する。タッチパネル11は、たとえばアナログ抵抗膜方式を用いて実現される。タッチパネル11は、表示画面上における指の絶対座標値を予め定める時間間隔で検出し、絶対座標値の時間変化に基づいて表示画面上における指の動きの軌跡を検出可能である。またタッチパネル11は、利用者の指が表示画面を押圧してから、表示画面を離間するまでの時間(以下、押下時間という)を検出可能である。タッチパネル11は、検出した表示画面上における指の絶対座標値、指の動きを表す軌跡情報、および押下時間を表す押下時間情報を入力判定手段4の命令生成部12に与える。
The
さらにタッチパネル11は、指の生体情報を取得可能に構成される。本実施の形態では、タッチパネル11は、表示画面を押圧する指の指紋を表す指紋画像を生体情報として取得する。指紋画像は、たとえば指に向けて光を照射して、指によって反射される反射光を受光する光学式、または指紋の凹凸によって生じる表示画面からの指の距離の相違を静電容量の変化に基づいて検出する静電容量式を用いて取得可能である。タッチパネル11は、表示画面のあらゆる領域に載置される指の指紋画像を取得可能に構成される。タッチパネル11は、取得した指紋画像を入力判定手段4の命令生成部12に与える。
Further, the touch panel 11 is configured to be able to acquire finger biometric information. In the present embodiment, the touch panel 11 acquires a fingerprint image representing a fingerprint of a finger pressing the display screen as biometric information. For example, the fingerprint image is an optical type that emits light toward the finger and receives the reflected light reflected by the finger, or the difference in the distance from the display screen caused by the unevenness of the fingerprint is a change in capacitance. It can be obtained using a capacitance type that is detected based on the capacitance type. The touch panel 11 is configured to be able to acquire a fingerprint image of a finger placed on any area of the display screen. The touch panel 11 gives the acquired fingerprint image to the
入力判定手段4は、前述したCPUが記憶手段に記憶された制御プログラムを実行することによって機能する命令生成部12と、命令生成部12が記憶手段に記憶されるデータを読込むまたは書込むことによって機能する指紋判定テーブル31、軌跡判定テーブル32、押下時間判定テーブル33および操作命令対応テーブル34とを含んで構成される。命令生成部12は、判定手段と、指令生成手段とに相当する。前記判定手段は、タッチパネル11に感圧する指の指紋画像と記憶手段に記憶される生体情報である指紋画像とを照合して指の種類を判定し、タッチパネル11によって検出される指の動きと記憶手段に記憶される軌跡情報とが合致するか否かを判定する。前記指令生成手段は、指の種類が判定され、かつ検出される指の動きと軌跡情報とが合致するとき、指の種類、およびタッチパネル11によって検出される指の動きに対応する指令に相当する操作命令を生成して出力する。
The
指紋判定テーブル31には、一または複数の指紋画像が登録されている。命令生成部12は、指紋判定テーブル31に登録される指紋画像と、タッチパネル11から与えられる指紋画像とを照合して、一致する指紋画像があれば表示画面に感圧する指の種類を特定する。たとえば「左手の人差指」を表示画面上に押圧しているときには、命令生成部12は、表示画面に感圧する指が「左手の人差指」であることを特定する。命令生成部12は、指紋画像を照合したときに、一致する指紋画像があれば、後述する指紋フラグに「1」を代入し、一致する指紋画像がなければ後述する指紋フラグに「0」を代入する。指紋の照合は、指紋の盛り上がった部分(隆線)の端点、および分岐点などの相対的な位置関係を特徴情報として抽出し、この特徴情報を比較することによって指紋の照合を行う特徴点抽出照合法(マニューシャ法)、または指紋画像を直接比較することによって指紋の照合を行う画像マッチング法(パタンマッチング法)などによって実行される。
One or a plurality of fingerprint images are registered in the fingerprint determination table 31. The
軌跡判定テーブル32には、一または複数の軌跡情報が登録されている。命令生成部12は、タッチパネル11から与えられる指の動きを表す軌跡情報と、軌跡判定テーブル32に登録されている軌跡情報とを照合する。命令生成部12は、一致する軌跡があれば後述する軌跡フラグに「1」を代入し、一致する軌跡がなければ軌跡フラグに「0」を代入する。
One or more pieces of locus information are registered in the locus determination table 32. The
押下時間判定テーブル33には、一または複数の予め定める範囲の押下時間が登録されている。予め定める範囲の押下時間とは、たとえば1秒程度の時間幅を有し、2秒〜3秒、3.5秒〜4.5秒および5秒〜6秒などである。命令生成部12は、タッチパネル11から与えられる押下時間情報があらわす押下時間と、押下時間判定テーブル33に登録されている押下時間とを照合する。命令生成部12は、タッチパネル11から与えられる押下時間情報があらわす押下時間が、押下時間判定テーブル33に登録された1または複数の予め定める範囲の押下時間内にあれば、後述する押下時間フラグに「1」を代入し、前記予め定める範囲の押下時間外であれば押下時間フラグに「0」を代入する。
In the pressing time determination table 33, one or more predetermined ranges of pressing times are registered. The pressing time in the predetermined range has a time width of about 1 second, for example, 2 to 3 seconds, 3.5 to 4.5 seconds, and 5 to 6 seconds. The
操作命令対応テーブル34には、指の種類、軌跡情報および押下時間情報のうちの少なくともいずれか1つと、特定の操作命令とが対応して登録されている。 In the operation command correspondence table 34, at least one of finger type, trajectory information, and pressing time information and a specific operation command are registered correspondingly.
命令生成部12は、操作命令対応テーブル34を参照して、後述する描画制御手段5の配分管理部24から与えられる現在の制御状態を表す制御情報に基づいて、指紋画像、指の動きを表す軌跡情報および押下時間情報のうちの、各判定テーブル31,32,33に登録された情報に一致する情報に対応する操作命令を生成して処理実行手段6の命令受付部13に出力して与える。
The
処理実行手段6は、前述したCPUが記憶手段に記憶された制御プログラムを実行することによって機能する命令受付部13と、命令受付部13からの操作命令に基づく制御を行う操作対象制御部21と、増幅器(以後、AMPという)22とを含んで構成される。
The
操作対象制御部21は、命令受付部13からの操作命令に基づいてCD(Compact Disc
)装置として機能するCD制御部14と、DVD(Digital Versatile Disk)装置として機能するDVD制御部15と、HDD(Hard Disk Drive)オーディオ装置として機能するHDD制御部16と、テレビジョン(TV)装置として機能するTV制御部17と、ラジオ(Radio)装置として機能するRadio制御部18と、カーナビゲーション装置として機能するNAVI制御部19とを含んで構成される。
The operation
)
操作対象制御部21は、命令受付部13から与えられる操作命令に基づく処理を実行し、表示手段3に表示させるべき画像情報と、スピーカ7から出力させる音声を表す音声情報と、現在の制御状態を表す制御情報とを生成して描画制御手段5に与える。AMP22は、描画制御手段5から音声情報として与えられる電気信号を増幅してスピーカ7に出力し、スピーカ7から音声情報を音として出力させる。
The operation
描画制御手段5は、前述したCPUが記憶手段に記憶された制御プログラムを実行することによって機能する描画エンジン23と配分管理部24とを含んで構成される。
The
配分管理部24は、操作対象制御部21から与えられる画像情報と、音声情報と、制御情報とに基づいて、表示手段3に表示させるべき画像情報を生成して描画エンジン23に与え、かつスピーカ7から出力させるべき音声を表す音声情報を電気信号としてAMP22に与えるとともに、操作対象制御部21の現在の制御を表す制御情報を命令生成部12に与える。描画エンジン23は、配分管理部24から与えられる画像情報を電気信号としてディスプレイ9に与えて、画像情報を表示画面に表示させる。
The
図2は、指紋判定テーブル31に指紋画像を登録する処理を表すフローチャートである。図3は、指紋判定テーブル31に指紋画像を登録する処理を行うときに、表示手段3の表示画面に表示される画像を表す図である。
FIG. 2 is a flowchart showing processing for registering a fingerprint image in the fingerprint determination table 31. FIG. 3 is a diagram illustrating an image displayed on the display screen of the
カーナビゲーションシステム2には、複数の操作モードがある。指紋判定テーブル31に利用者の指紋を登録する操作モードを指紋登録モードという。カーナビゲーションシステム2の利用者が表示手段3の表示画面に表示される案内画面に基づいてタッチパネル11を押圧することによって指紋登録モードを選択すると、指紋画像を登録する処理が開始してステップa1に移行する。
The
指紋登録モードが選択されると、まずディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、表示画面に右手および左手のいずれの指紋画像を登録するかを選択させる選択画面を表示する。たとえば右手を選択するときに押圧すべき表示画面上の領域と、左手を選択するときに押圧すべき表示画面上の領域とを表示する。ステップa1では、制御手段8は、右手の選択が行われたか否かを判断し、右手が選択されるとステップa2に移行し、右手でない、すなわち左手が選択されるとステップa3に移行する。右手または左手のいずれが選択されたかは、利用者が選択画面にしたがって表示画面を押圧した絶対座標値を検出することによって行われる。右手が選択されてステップa2に移行すると、制御手段8は、右手用のUI(User Interface)を選択し、右手用のUIを表示画面に表示してステップa4に移行する。右手用のUIが選択されると、ステップa4以降のステップにおいて右手用のUIの表示画面が表示される。ステップa1において左手が選択されてステップa3に移行すると、制御手段8は、左手用のUIを選択し、左手用のUIを表示画面に表示してステップa4に移行する。左手用のUIが選択されると、ステップa4以降のステップにおいて、左手用のUIが表示画面に表示される。 When the fingerprint registration mode is selected, the display 9 first displays a selection screen for selecting whether to register a right-hand or left-hand fingerprint image on the display screen based on the image information given from the drawing engine 23. For example, an area on the display screen to be pressed when the right hand is selected and an area on the display screen to be pressed when the left hand is selected are displayed. In step a1, the control means 8 determines whether or not the right hand has been selected. If the right hand is selected, the process proceeds to step a2. If the right hand is selected, that is, if the left hand is selected, the process proceeds to step a3. Whether the right hand or the left hand is selected is determined by detecting an absolute coordinate value when the user presses the display screen according to the selection screen. When the right hand is selected and the process proceeds to step a2, the control means 8 selects a right hand UI (User Interface), displays the right hand UI on the display screen, and proceeds to step a4. When the right-hand UI is selected, a right-hand UI display screen is displayed in steps after step a4. When the left hand is selected in step a1 and the process proceeds to step a3, the control means 8 selects the left hand UI, displays the left hand UI on the display screen, and proceeds to step a4. When the left-hand UI is selected, the left-hand UI is displayed on the display screen in steps after step a4.
図3(1)は、ステップa3において左手用のUIが選択されたときの表示画面を示す図である。ステップa3において左手用のUIを選択して左手用のUIを表示画面に表示すると、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、「表示の位置に小指、薬指、中指、人差指の各指をのせてください。」という文字情報を表示するとともに、左手の親指を除く4本の各指を載置させるべき4つの載置領域25を表示する。
FIG. 3A is a diagram showing a display screen when the left-hand UI is selected in step a3. When the left hand UI is selected in step a3 and the left hand UI is displayed on the display screen, the display 9 displays “the little finger, ring finger, middle finger, index finger at the display position based on the image information given from the drawing engine 23. Is displayed, and the four
ステップa4では、制御手段8はタッチパネル11を制御して、親指を除く4本の各指の指紋画像を読込ませてステップa5に移行する。ステップa5では、制御手段8は、読込んだ指紋画像に基づいて、正常に指紋画像を読込むことができたか否かを判断し、正常に指紋画像を読込んだと判断した場合にはステップa6に移行する。たとえば4つの載置領域25の少なくともいずれか1つに指が載置されていない状態で指紋画像を読込むと、正常に指紋画像を読込むことができない。このように正常に指紋画像を読込むことができなかった場合には、ステップa7に移行する。ステップa7では、正常に指紋画像を読込むために、ディスプレイ9は、利用者に指紋が読込むことができなかった旨を報知することによって利用者の入力装置1に対する操作を補助する操作補助情報を可視表示するコーション表示を行う。具体的にはディスプレイ9は、「指紋が正しく入力されていません」という文字情報を表示画面に表示する。これによって利用者に載置領域25に指を載置させるように促すことができる。ステップa7においてコーション表示を行うと、再度ステップa4に移行して、指紋画像を正しく読込めるまでステップa4、ステップa5およびステップa7の処理を繰返す。
In step a4, the control means 8 controls the touch panel 11 to read the fingerprint images of the four fingers excluding the thumb, and proceeds to step a5. In step a5, the control means 8 determines whether or not the fingerprint image has been normally read based on the read fingerprint image. Move to a6. For example, if a fingerprint image is read in a state where no finger is placed on at least one of the four
ステップa6では、ステップa4において親指を除く4本の各指の指紋画像を正常に読込めたので、命令生成部12は、読込んだ指紋画像を指紋判定テーブル31に登録してステップa8に移行する。
In step a6, since the fingerprint images of the four fingers other than the thumb are read normally in step a4, the
図3(2)は、ステップa6において指紋画像の登録が終了した後の表示画面を表す図である。指紋画像の登録が終了すると、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、「表示の位置に親指をのせてください。」という文字情報を表示するとともに、左手の親指を載置させるべき載置領域26を表示する。
FIG. 3B is a diagram illustrating a display screen after registration of the fingerprint image is completed in step a6. When the registration of the fingerprint image is completed, the display 9 displays the character information “Put your thumb on the display position” based on the image information given from the drawing engine 23 and place the thumb of the left hand on it. The
ステップa8では、制御手段8はタッチパネル11を制御して、親指の指紋画像を読込ませてステップa9に移行する。ステップa9では、制御手段8は、読込んだ指紋画像に基づいて、正常に指紋画像を読込むことができたか否かを判断し、正常に指紋画像を読込んだと判断した場合にはステップa10に移行する。たとえば載置領域26に親指が載置されていない状態で指紋画像を読込むと、正常に指紋画像を読込むことができない。このように正常に指紋画像を読込むことができなかった場合には、ステップa11に移行する。ステップa11では、正常に指紋画像を読込むために、ディスプレイ9は、利用者に指紋が読込むことができなかった旨を報知するコーション表示を行う。具体的にはディスプレイ9は、「指紋が正しく入力されていません」という文字情報を表示画面に表示する。これによって利用者に載置領域26に親指を載置させるように促すことができる。ステップa11においてコーション表示を行うと、再度ステップa8に移行して、指紋画像を正しく読込めるまでステップa8、ステップa9およびステップa11の処理を繰返す。
In step a8, the control means 8 controls the touch panel 11 to read the thumb fingerprint image and proceeds to step a9. In step a9, the control means 8 determines whether or not the fingerprint image has been successfully read based on the read fingerprint image. If it is determined that the fingerprint image has been read normally, the
ステップa10では、ステップa8において親指の指紋画像を正常に読込めたので、制御手段8は、読込んだ親指の指紋画像を指紋判定テーブル31に登録してステップa12に移行する。 In step a10, since the thumb fingerprint image is normally read in step a8, the control means 8 registers the read thumb fingerprint image in the fingerprint determination table 31 and proceeds to step a12.
ステップa12では、命令生成部12は、ステップa6およびステップa10において登録した指紋画像が、指紋判定テーブル31に登録されていない新規な指紋画像か否かを判断し、登録されていない指紋画像であればステップa13に移行する。ステップa13では、ディスプレイ9は、利用者に指紋画像が正常に登録されたことを報知するコーション表示を行う。具体的には、ディスプレイ9は、「あなたの指紋データが登録されました」という文字情報を表示する。
In step a12, the
ステップa14では、制御手段8は、ディスプレイ9を制御して利用者がドライブ席に着座しているか助手席に着座しているか否かの着座位置情報を取得させ、かつこの着座位置情報を指紋画像とともに指紋判定テーブル31に登録する。ディスプレイ9は、カーナビゲーションシステム2が車両に搭載された状態において、車幅方向の両端部にそれぞれ腕部検出センサを備える。利用者が運転席に着座してタッチパネル11を指で押圧する場合には、運転席寄りに設けられる腕部検出センサによって腕部が検出され、助手席席に着座してタッチパネル11を指で押圧する場合には、助手席寄りに設けられる腕部検出センサによって腕部が検出されるので、腕部検出センサの検出結果に基づいて、ディスプレイ9は着座位置情報を取得することができる。この腕部検出センサは、たとえば利用者の身体から発せられる赤外線を検出する赤外線センサによって実現される。着座位置情報を登録すると本処理を終了する。
In step a14, the control means 8 controls the display 9 to acquire the seating position information indicating whether the user is seated in the drive seat or the passenger seat, and the seating position information is obtained from the fingerprint image. At the same time, it is registered in the fingerprint determination table 31. The display 9 includes arm detection sensors at both ends in the vehicle width direction when the
図3(3)は、指紋画像の指紋判定テーブル31への登録が正常に完了したことを利用者に報知するための表示画面である。ディスプレイ9は、ステップa14において指紋画像の指紋判定テーブル31への登録が正常に完了すると、図3(3)に示す画像を表示画面に出力して、指紋画像を登録する処理を終了する。 FIG. 3C is a display screen for notifying the user that registration of the fingerprint image in the fingerprint determination table 31 has been completed normally. When the registration of the fingerprint image in the fingerprint determination table 31 is normally completed in step a14, the display 9 outputs the image shown in FIG. 3 (3) to the display screen and ends the process of registering the fingerprint image.
ステップa12では、ステップa6およびステップa10において登録した指紋画像が、指紋判定テーブル31に既に登録されている指紋画像であると命令生成部12が判断すると、ステップa16に移行する。ステップa16では、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、登録しようとしている指紋画像が既に登録されている旨を利用者に報知するコーション表示を行う。具体的には、ディスプレイ9は、「あなたの指紋データは既に登録されています」という文字情報を表示してステップa17に移行する。ステップa17では、指紋画像の重複登録を防ぐために、ステップa6およびステップa10において指紋判定テーブル31に登録した指紋画像を消去して、指紋画像を登録する処理を終了する。
In step a12, when the
以上説明した処理を行うことによって指紋判定テーブル31に指紋画像を登録することができる。特に入力装置1は、表示画面上において各指を載置すべき載置領域を表示することによって、指紋画像を登録するための入力インタフェースとして機能するので、利用者が載置領域に対応する指を載置するだけで各指の指紋画像を登録することができる。このように読込んだ指紋画像がどの指の指紋に対応するかを逐次利用者が入力する手間を省くことができる。このように五指の全ての指紋画像を登録するので、指紋判定テーブル31を参照することによって、タッチパネル11が感圧する指の種類、すなわちどの指で利用者が表示画面を押圧したかを判定することができる。
By performing the processing described above, a fingerprint image can be registered in the fingerprint determination table 31. In particular, the
図4は、モードの階層構造を示す模式図である。本実施の形態のカーナビゲーションシステム2は、特定の操作の処理を表すモードが階層化されている。最上階のモードに地図モード51と、AV操作モードと、電話モードと、G−Bookモードとの4つのモードがある。さらに地図モード51の下層には、目的地検索モード52および交通情報表示モード53などがある。さらに目的地検索モード52の下層には、地名から検索するモード54、ジャンルから検索するモード55、および電話番号から検索するモード56などがある。このように各モードが階層化されているので、最上階のモードを除く各モードは、上層のモードに関連付けられている。たとえば地名から検索するモード54は、地図モード51および目的地検索モード52の順に関連付けられている。
FIG. 4 is a schematic diagram showing a hierarchical structure of modes. In the
地名から検索するモード54を選択する操作命令を入力するには、地図モード51、目的地検索モード52および地名から検索するモード54をこの順に選択することによって可能だが、本実施の形態では、表示画面上の指の操作と地名から検索するモード54とを対応させることによって、容易に地名から検索するモード54を選択する操作命令を入力することを可能にしている。
In order to input an operation command for selecting the
図5は、表示画面上の指の操作と、操作命令とを対応させて操作命令対応テーブル34に登録する処理を表すフローチャートである。図6は、表示画面上の指の操作と、操作命令とを対応させて操作命令対応テーブル34に登録する処理を行うときの表示画面を表す図である。 FIG. 5 is a flowchart showing a process of registering the operation of the finger on the display screen in association with the operation command in the operation command correspondence table 34. FIG. 6 is a diagram showing a display screen when processing for registering the operation of the finger on the display screen and the operation command in the operation command correspondence table 34 is performed.
本実施の形態では、一例として表示画面上の指の操作と、操作命令とを対応させて登録するためのモード(以後、操作登録モードという)の表示画面に基づいて、登録するモードを選択する処理について説明する。利用者が操作登録モードの表示画面の指示にしたがって登録すべきモードを選択する入力を行うと、操作命令対応テーブル34に登録する処理が開始してステップb1に移行する。 In this embodiment, as an example, a mode to be registered is selected based on a display screen of a mode (hereinafter referred to as an operation registration mode) for registering a finger operation on the display screen in association with an operation command. Processing will be described. When the user inputs to select a mode to be registered in accordance with an instruction on the display screen of the operation registration mode, a process of registering in the operation command correspondence table 34 starts and the process proceeds to step b1.
図6(1)〜(3)は、一例として地名から検索するモード54を選択するときの表示画面を表す図である。まず利用者が表示画面に表示される複数のメニューのなかから操作登録モードを選択すると、操作登録モードに遷移して、図6(1)に示す操作登録画面が表示される。モードを選択する場合には、表示画面上においてモードを示すアイコンの表示領域を押下し、モードの下層のモードを表示させるには、各モードから延びる矢印の表示領域を押下する。まず地図モード51の下層のモードを表示させるために、地図モード51を示すアイコン35から延びる矢印(図6(1)において右向きの矢印)36を利用者が押下すると、図6(2)に示す地図モード51の下層のモードの画面が表示される。目的地検索モード52の下層のモードを表示させるために、目的地検索モード52を示すアイコン37から延びる矢印(図6(2)において右向きの矢印)38を利用者が押下すると、図6(3)に示す目的地検索モード52の下層のモードの画面が表示される。次に地名から検索するモード54を選択するために、地名から検索するモード54を示すアイコン39の表示領域を押下する。このようにしてカーナビゲーションシステム2に地名から検索するモード54が選択されて入力される。
FIGS. 6 (1) to 6 (3) are diagrams showing display screens when the
ステップb1では、制御手段8は、入力されたモードの選択を表す情報を読込み、ステップb2に移行する。ステップb2では、制御手段8は、操作命令対応テーブル34を参照して、選択されたモードに対応する指の操作が既に登録されているか否かを判断し、登録されている場合にはステップb3に移行し、登録されていなければステップb5に移行する。 In step b1, the control means 8 reads information representing the input mode selection, and proceeds to step b2. In step b2, the control means 8 refers to the operation command correspondence table 34 to determine whether or not a finger operation corresponding to the selected mode has already been registered. If not registered, the process proceeds to step b5.
ステップb3では、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、選択されたモードに対応する操作が既に登録されている旨を報知するとともに、このモードを再登録する意志があるか否かを利用者に選択させるためのコーション表示を行う。具体的には、ディスプレイ9は、「選択したモード△△は、既に操作方法が登録されています。再登録しますか?」という文字情報を表示する。このときディスプレイ9は、表示画面に「再登録する」と「再登録しない」とを表す文字情報を表示する。次にステップb4に移行する。ステップb4では、制御手段8は、選択したモードを再登録するか否かを判断し、再登録する場合にはステップb5に移行する。再登録しない場合にはステップb1に移行して、再度登録すべきモードを選択する処理を繰返す。制御手段8による再登録するか否かの判断は、利用者が表示画面上に表示される「再登録する」および「再登録しない」のいずれの表示領域を押圧したかに基づいて行われる。 In step b3, the display 9 informs that the operation corresponding to the selected mode is already registered based on the image information given from the drawing engine 23, and is there an intention to re-register this mode? A caution display is displayed to let the user select whether or not. Specifically, the display 9 displays character information “The operation mode has already been registered for the selected mode ΔΔ. Do you want to re-register?”. At this time, the display 9 displays character information indicating “re-register” and “not re-register” on the display screen. Next, the process proceeds to step b4. In step b4, the control means 8 determines whether or not to re-register the selected mode. When re-registering, the process proceeds to step b5. When not re-registering, it transfers to step b1 and repeats the process which selects the mode which should be registered again. The determination as to whether or not to re-register by the control means 8 is made based on which display area “re-register” or “not re-register” displayed on the display screen is pressed by the user.
ステップb5では、タッチパネル11は、表示画面上の指の動きを読込んでステップb6に移行する。このときタッチパネル11は、表示画面上の指の動きを読込むと同時に、指紋画像も読込む。ステップb6では、制御手段8は、利用者が表示画面上における指の動きの入力を完了したか否かを判断し、まだ入力が完了していなければステップb5に移行して指の動きを読込む処理を継続する。ステップb6において、利用者が表示画面上における指の動きの入力を完了したと制御手段8が判断するとステップb7に移行する。 In step b5, the touch panel 11 reads the movement of the finger on the display screen and proceeds to step b6. At this time, the touch panel 11 reads the finger movement on the display screen and also reads the fingerprint image. In step b6, the control means 8 determines whether or not the user has completed the input of the finger movement on the display screen. If the input has not been completed yet, the control means 8 proceeds to step b5 and reads the finger movement. Continue processing. In step b6, when the control means 8 determines that the user has completed the input of the finger movement on the display screen, the process proceeds to step b7.
図6(4)および(5)は、表示画面上の指の動きを読み込むときに表示手段3の表示画面に表示される画像である。表示手段3の表示画面の長手方向の一方を左向き、長手方向の他方を右向きと規定する。また表示手段3の厚み方向および表示手段3の表示画面の長手方向に垂直な上下方向の一方を上向き、上下方向の他方を下向きと規定する。ディスプレイ9は、利用者に登録する指の操作を行うべき領域42を表示するとともに、前記領域42において登録する指の操作を行わせる指示を報知する。利用者は登録する操作を行うべき領域42において表示画面を押圧しながら登録する指の動きを行った後に、「OK」を表した表示領域を押圧する。この「OK」を表した表示領域が押圧されると、制御手段8は、指の動きの入力が完了したと判断する。
6 (4) and 6 (5) are images displayed on the display screen of the display means 3 when reading a finger movement on the display screen. One of the longitudinal directions of the display screen of the display means 3 is defined as leftward, and the other of the longitudinal directions is defined as rightward. One of the vertical direction perpendicular to the thickness direction of the display means 3 and the longitudinal direction of the display screen of the display means 3 is defined as upward, and the other in the vertical direction is defined as downward. The display 9 displays a
ステップb8では、命令生成部12は、読込んだ指の動きおよび指の種類を分析する入力分析を行う。具体的には命令生成部12は、ステップb5において読込んだ指紋画像と、指紋判定テーブル31に登録された指紋画像とを照合して、タッチパネル11を押圧した指の種類を判定する。つまり左右のいずれの手のどの指で指の操作を行うべき領域42が押圧されたかを判断する。また命令生成部12は、表示画面上における指の動きを、平面における上下左右の4つの向きを用いて表現する。たとえば指の軌跡の接線の向きを、上下左右の4つの向きのいずれかに近似する。たとえば図6(5)の登録する操作を行うべき領域42内に描かれた指の動きの軌跡は、下(↓)向きの軌跡に連続して右(→)向きの軌跡を辿ったと判定することができる。
In step b8, the
ステップb8では、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、入力分析を行った結果をコーション表示する。具体的には、ディスプレイ9は、「○指で、□□という操作がされました」という文字情報を表示する。図6(5)に示す一例では、ディスプレイ9は、「中指で、↓→という操作がされました」という文字情報を表示して、中指で下(↓)向き、右(→)向きの一連の指の操作が行われたことを報知する。次にステップb9に移行する。 In step b8, the display 9 displays the result of the input analysis based on the image information given from the drawing engine 23 as a caution display. Specifically, the display 9 displays character information “An operation of □□ was performed with a ○ finger”. In the example shown in FIG. 6 (5), the display 9 displays the character information “The operation of ↓ → was performed with the middle finger”, and a series of downward (↓) direction and right (→) direction with the middle finger. It is notified that the operation of the finger is performed. Next, the process proceeds to step b9.
ステップb9では、命令生成部12は、操作命令対応テーブル34を参照して、ステップb7において分析された指の操作に対応する操作指令が既に登録されているか否かを判断し、既に登録されていればステップb10に移行する。ステップb10では、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、既に操作命令対応テーブル34に登録された指の操作と同じ操作に対応する操作指令が既に存在する旨を利用者に報知するとともに、この指の操作をステップb1で選択された本モードに対応させて操作命令対応テーブル34に登録するか否かの利用者の意志の入力を促すコーション表示を行う。具体的には、ディスプレイ9は、「モード○○に同様の操作が登録されています。本モードの操作を登録しますか?」という文字情報を表示してステップ11に移行する。ステップb11では、制御手段8は、本モードに対して、ステップb7において分析された指の操作および指の種類を登録するか否かを判断し、登録しない場合にはステップb5に移行して、再度指の動きを読込む。これによって、1つの指の操作に対して、複数の異なる操作命令が対応して操作命令対応テーブル34に登録されることを防ぐことができる。
In step b9, the
ステップb11において、本モードに対してステップb7において分析された指の操作を操作命令対応テーブル34に登録すると制御手段8が判断すると、ステップb12に移行する。ステップb11における制御手段8の判断は、利用者の表示画面上の操作に基づいて行われる。 In step b11, when the control means 8 determines that the finger operation analyzed in step b7 is registered in the operation command correspondence table 34 for this mode, the process proceeds to step b12. The determination of the control means 8 in step b11 is made based on the user's operation on the display screen.
ステップb12では、制御手段8は、ステップb7において分析された指の操作に対応して操作命令対応テーブル34に既に登録されているモードを無効化してステップb13に移行する。ステップb13では、ディスプレイ9は、無効化したモードの操作を報知するコーション表示を行う。具体的にはディスプレイ9は、「モード○○の操作を無効にしました」ということを表す文字情報を表示して、ステップb14に移行する。 In step b12, the control means 8 invalidates the mode already registered in the operation command correspondence table 34 corresponding to the finger operation analyzed in step b7, and proceeds to step b13. In step b13, the display 9 performs a caution display for notifying the invalidated mode operation. Specifically, the display 9 displays character information indicating that “mode XX operation has been disabled”, and proceeds to step b14.
ステップb9において操作命令対応テーブル34に登録されていない操作が入力されたと命令生成部12が判断すると、ステップb14に移行する。
When the
図6(6)は、本モードと、ステップb7において分析した指の操作とを対応させて操作命令対応テーブル34に登録するか否かを確認する表示画面を示す。利用者が表示画面において「OK」を表示する表示領域を押圧すると、ステップb14では、命令生成部12は、本モードと、ステップb7において分析した指の操作とを対応させて操作命令対応テーブル34に登録するとともに、軌跡判定テーブル32にステップb7において分析した指の操作を軌跡情報として登録してステップb15に移行する。ステップb15では、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、登録した操作と、この操作に対応する操作命令とを報知するコーション表示を行う。具体的には、ディスプレイ9は、「○指による操作□□をモード△△に登録しました」という文字情報を表示して、表示画面上の指の操作と、操作命令とを対応させて操作命令対応テーブル34に登録する処理を終了する。
FIG. 6 (6) shows a display screen for confirming whether or not this mode and the finger operation analyzed in step b7 are registered in the operation command correspondence table 34 in correspondence with each other. When the user presses the display area displaying “OK” on the display screen, in step b14, the
図6(7)は、登録した操作と、この操作に対応する操作命令とを報知するコーション表示を表す表示画面である。 FIG. 6 (7) is a display screen showing a caution display for notifying the registered operation and the operation command corresponding to this operation.
以上説明した処理を行うことによって、操作命令対応テーブル34に、表示画面上における指の操作と、操作命令とを対応させて登録することができる。本実施の形態では、指の種類および指の動きと、操作命令とを対応させて操作命令対応テーブル34に登録する処理について説明したが、指の種類、軌跡情報および押下時間情報の3つの情報のうちから少なくとも1つを選択して、選択した情報と、操作命令とを対応させて操作命令対応テーブル34に登録することができる。たとえば指の種類および指の動きに押下時間を加えて、指の種類、指の動き、およびこの指の動きに要する押下時間と、操作命令とを対応させて操作命令対応テーブル34に登録することができる。具体的には、ステップb7において入力分析を行うときに、指の種類および指の動きに加えて押下時間情報もタッチパネル11から取得し、本モードに対して、指の種類、軌跡情報、および押下時間情報を対応して操作命令対応テーブル34に登録する。またたとえば押下時間情報のみに操作命令を対応させて操作命令対応テーブル34に登録することができる。 By performing the processing described above, the operation of the finger on the display screen and the operation command can be registered in the operation command correspondence table 34 in association with each other. In the present embodiment, the process of registering the finger type / finger movement and the operation command in association with the operation command correspondence table 34 has been described, but three types of information, the finger type, the trajectory information, and the pressing time information, are described. At least one of them can be selected, and the selected information can be registered in the operation command correspondence table 34 in association with the operation command. For example, by adding the pressing time to the finger type and finger movement, the finger type, finger movement, and the pressing time required for the finger movement are registered in the operation command correspondence table 34 in association with the operation command. Can do. Specifically, when input analysis is performed in step b7, in addition to the finger type and finger movement, the pressing time information is also acquired from the touch panel 11, and the finger type, trajectory information, and pressing information are obtained for this mode. Corresponding time information is registered in the operation command correspondence table 34. Further, for example, an operation command can be associated with only the pressing time information and registered in the operation command correspondence table 34.
また実施の一例として1本の指の動きに対する軌跡情報を登録するときの処理について説明したが、たとえば複数の指を同時に表示画面に押圧したときの複数の指の種類と、操作命令とを対応させて操作命令対応テーブル34に登録することもできる。さらに複数の指を同時に表示画面に押圧して、これら複数の指の表示画面における指の操作も軌跡情報として操作命令に対応させて操作命令対応テーブル34に登録することもできる。 In addition, as an example of the implementation, the processing when registering the trajectory information for the movement of one finger has been described. For example, when a plurality of fingers are simultaneously pressed on the display screen, the types of fingers are associated with the operation commands It is also possible to register it in the operation command correspondence table 34. Furthermore, by pressing a plurality of fingers simultaneously on the display screen, finger operations on the display screens of the plurality of fingers can also be registered in the operation command correspondence table 34 as locus information corresponding to the operation commands.
本実施の形態の入力装置1では、生体情報に基づいて指の種類を認証し、指の種類に基づいて操作命令を入力するモードと、指の種類に拘わりなくタッチパネル11上の指の動きに基づいて操作命令を入力する通常入力モードとがある。具体的には、指紋画像に基づいて指の種類を認証し、認証した指の種類に基づいて操作命令を入力する指紋入力モードと、通常入力モードとがある。通常入力モードと指紋入力モードとは、利用者が特定の操作をすることによって切換え可能である。本実施の形態の入力装置1では、タッチパネル11は、通常入力モードと指紋入力モードとを切換えるボタンを備える。具体的には、このボタンは、表示画面上に前記ボタンを表示する表示領域を設け、この表示領域内において利用者の指の押下をタッチパネル11が感圧することによって実現される。
In the
図7は、利用者が表示画面上において指を操作したときに、この操作に基づいて操作命令を生成する処理を表すフローチャートである。指紋入力モードにおいて利用者が表示画面を押圧して、タッチパネル11が感圧すると、ステップc1に移行する。ステップc1では、タッチパネル11は、指紋画像を読込んで命令生成部12に与え、ステップc2に移行する。ステップc2では、命令生成部12は、指紋の判定を行う。具体的には命令生成部12は、指紋判定テーブル31に登録された指紋画像を参照して、読込んだ指紋画像を認証してステップc3に移行する。ステップc3では、命令生成部12は、読込んだ指紋画像が、指紋判定テーブル31に登録済みの一または複数の指紋画像のうちの1つの指紋画像と一致するか否かを判断し、一致する指紋画像があればステップc4に移行し、一致する指紋画像がなければステップc5に移行する。
FIG. 7 is a flowchart showing a process of generating an operation command based on this operation when the user operates a finger on the display screen. When the user presses the display screen in the fingerprint input mode and the touch panel 11 senses pressure, the process proceeds to step c1. In step c1, the touch panel 11 reads the fingerprint image and gives it to the
ステップc4では、命令生成部12は、指紋フラグに数値「1」を代入する。この指紋フラグは、値が「1」のときに読込んだ指紋画像が指紋判定テーブル31に登録済みの指紋画像に一致することを表し、値が「0」のときに読込んだ指紋画像が指紋判定テーブル31に登録済みの指紋画像に一致しないことを表す。次にステップc7に移行する。
In step c4, the
読込んだ指紋画像が指紋判定テーブル31に登録済みの指紋画像に一致しないとしてステップc5に移行すると、制御手段8は、指紋入力モードから通常入力モードに移行する。このように指紋画像が登録済みの指紋画像に一致せずに指の種類を判定することができない場合には、入力装置1は、通常のタッチパネルを備える入力装置として機能する。たとえば指ではない棒状の物によって表示画面を押圧したときにも、入力装置1は通常のタッチパネルを備える入力装置として機能する。次にステップc6に移行して、命令生成部12は、指紋フラグに「0」を代入する。次にステップc7に移行する。
If the read fingerprint image does not match the fingerprint image registered in the fingerprint determination table 31 and the process proceeds to step c5, the
ステップc7では、命令生成部12は、タッチパネル11から与えられる利用者の軌跡情報を読込んで、軌跡情報の判定を行う。具体的には利用者の指が表示画面を押圧してから離間するまでの間に表示画面を辿る利用者の指の軌跡を表す軌跡情報と、軌跡判定テーブル32に登録された指の軌跡情報とが一致するか否かを判定する。次にステップc8に移行する。ステップc8では、命令生成部12は、読込んだ軌跡情報が軌跡判定テーブル32に登録済みの軌跡情報のいずれか1つに一致するか否かを判定し、一致する軌跡情報がある場合にはステップc9に移行し、一致する軌跡情報がない場合にはステップc10に移行する。
In step c7, the
ステップc9では、命令生成部12は、軌跡フラグに数値「1」を代入する。この軌跡フラグは、値が「1」のときに読込んだ軌跡が軌跡判定テーブル32に登録済みの軌跡情報に一致することを表し、値が「0」のときに読込んだ軌跡が軌跡判定テーブル32に登録済みの軌跡に一致しないことを表す。次にステップc11に移行する。ステップc10では、命令生成部12は、軌跡フラグに「0」を代入してステップc11に移行する。
In step c9, the
ステップc11では、命令生成部12は、タッチパネル11から与えられる押下時間情報を読込んで、押下時間の判定を行う。具体的には、利用者の指が表示画面を押圧してから離間するまでの間の時間が、押下時間判定テーブル33に登録された予め定める範囲の押下時間内か否かの判定を行う。次にステップc12に移行し、命令生成部12は、読込んだ押下時間が、押下時間判定テーブル33に登録済みの予め定める範囲の押下時間内か否かを判定し、予め定める範囲の押下時間内である場合にはステップc13に移行し、予め定める範囲の押下時間外の場合にはステップc14に移行する。
In step c11, the
ステップc13では、命令生成部12は、押下時間フラグに数値「1」を代入してステップc15に移行する。押下時間フラグは、値が「1」のときに読込んだ押下時間が押下時間判定テーブル33に登録済みの予め定める範囲の押下時間内であって、登録済みの押下時間に一致することを表し、値が「0」のときに読込んだ押下時間が押下時間判定テーブル33に登録済みの予め定める範囲の押下時間外であって、登録済みの押下時間に一致しないことを表す。ステップc14では、命令生成部12は、押下時間フラグに数値「0」を代入してステップc15に移行する。
In step c13, the
ステップc15では、命令生成部12は、操作命令対応テーブル34を参照して操作命令を生成する。具体的には命令生成部12は、指紋フラグ、軌跡フラグおよび押下時間フラグに基づいて、登録済みの指紋画像、軌跡情報および押下時間に基づいて操作命令対応テーブル34に登録された操作命令を生成して命令受付部13に出力する。
In step c15, the
表1は、指紋フラグ、軌跡フラグおよび押下時間フラグの各フラグの値と、ステップc15において参照する情報との対応関係を表す表である。 Table 1 is a table showing the correspondence relationship between the values of the fingerprint flag, the trajectory flag, and the pressing time flag and the information referred to in step c15.
たとえば指紋フラグ、押下時間フラグおよび軌跡フラグの全ての値が「0」のときには、表示画面上における利用者の指の操作が、登録済みの指紋画像、軌跡情報および押下時間のいずれにも一致しないので、命令生成部12は、単に利用者が表示画面を押圧したときの表示画面上における絶対座標値に基づいて操作命令を生成する。またたとえば指紋フラグ、押下時間フラグおよび軌跡フラグの全ての値が「1」の場合には、表示画面上における利用者の指の操作が、登録済みの指紋画像、軌跡情報および押下時間の全てに一致するので、命令生成部12は、表示画面上を操作した指の種類、指の軌跡および押圧時間に基づいて操作命令を生成する。
For example, when all the values of the fingerprint flag, the pressing time flag, and the trajectory flag are “0”, the user's finger operation on the display screen does not match any of the registered fingerprint image, the trajectory information, and the pressing time. Therefore, the
命令生成部12が操作命令を生成して命令受付部13に出力すると、操作命令を生成する処理を終了する。
When the
以上説明した本実施の形態の入力装置1によれば、命令生成部12が操作命令を生成して命令受付部13に出力すると、命令受付部13は、与えられた操作命令に基づいて操作対象制御部21を制御する。これによってカーナビゲーションシステム2は、利用者の表示画面における指の操作に基づいた処理を行う。このように利用者が表示画面上において特定の操作を行うだけで、煩雑な操作をすることなく、利用者の意図する操作命令を容易に入力することができる。また指の種類だけでなく、指の動きに応じた操作命令が生成されるので、指の数以上の異なる操作命令を指の動きに応じて入力することが可能となり、ボタンの数を抑制することができる。したがって装置本体の部品点数の低減を図るとともに入力操作を極力簡単化した入力装置1を実現することができる。また部品点数の低減を図ることによって構造を簡単化することが可能となるので、入力装置1の小形化を図ることができる。
According to the
また表示画面上における指の操作に応じて操作命令が入力されるので、利用者は、表示画面を見ることなく操作命令を入力することができる。これによって操作命令を入力しながら、視線を表示画面以外に合わせて他の作業をすることができ、利用者の利便性が向上する。 In addition, since the operation command is input according to the operation of the finger on the display screen, the user can input the operation command without looking at the display screen. As a result, it is possible to perform other operations with the line of sight other than the display screen while inputting an operation command, and the convenience for the user is improved.
また本実施の形態の入力装置1によれば、利用者の好みに応じて表示画面上における指の操作と、操作命令とを操作命令対応テーブル34に登録することができる。たとえば利用者の使用頻度の高い操作命令に対応する指の操作を登録することができ、利用者の利便性が向上する。
Further, according to the
また本実施の形態の入力装置1によれば、利用者の入力装置1に対する操作を補助する操作補助情報を可視表示するコーション表示を行うことによって、指紋画像および指の動きなどを登録するときに入力装置1に対して利用者が行うべき操作を報知するので、利用者が戸惑うことなく円滑に指紋画像および指の動きなどを登録することができる。
Further, according to the
また本実施の形態の入力装置1によれば、表示画面上の指の動きを上下左右の4つの向きの指の動きに近似した軌跡情報を検出している。このように表示画面上の指の動きを単純化して表現するので、利用者は、登録された軌跡情報に対応する指の動きを容易に再現することができ、容易に操作命令を入力することができる。仮に指の動きをそのまま軌跡情報として登録すると、登録された指の動きをそのまま再現しない限り操作命令を入力することができず、操作命令を入力する操作が煩雑になる。
Further, according to the
本実施の形態の入力装置1では、利用者の入力装置1に対する操作を補助する操作補助情報を可視表示するコーション表示を行うが、操作補助情報をスピーカ7から音声として出力してもよい。このように操作補助情報を音声として出力することによって、利用者が表示画面に表示されるコーション表示を読むことなく入力装置1に対する操作を行うことができる。
In the
さらに、タッチパネル11は、操作補助情報を可視表示または音声として出力するか否かを切換えるボタンを備えていてもよい。利用者がこの表示画面に表示されるボタンを押下することによって、利用者の必要に応じて操作補助情報を出力するか否かを切換えるこ
とができ、利用者の利便性が向上する。
Furthermore, the touch panel 11 may include a button for switching whether to output the operation assistance information as a visible display or a sound. When the user presses a button displayed on the display screen, whether or not the operation assistance information is output can be switched according to the user's needs, and the convenience for the user is improved.
本実施の形態の入力装置1では、指紋画像を認証することによって指の種類を判定しているが、指紋画像に限らずに他の生体情報に基づいて指の種類を判定してもよい。たとえば入力装置1は、静脈認証を行うことによって指の種類を判定するようにしてもよい。
In the
以上の説明では、モードの選択を行う操作命令と、指の操作とを対応させて操作命令対応テーブル34に登録する処理について説明したが、本実施の形態の入力装置1では、特定のモードにおいて行う指の操作と、この指の操作に対応する操作命令とを対応させて操作命令対応テーブル34に登録することもできる。
In the above description, the operation command for selecting the mode and the processing for registering the operation of the finger in correspondence with the operation command correspondence table 34 have been described. However, in the
図8は、特定のモードにおける表示画面と、各モードにおける各指の動きと、この指の動きに対応する操作命令との対応関係を表す図である。表2は、特定のモードと、各モードにおける各指の動きと、この指の動きに対応する操作命令とを表す表である。本実施の形態の入力装置1では、表2に示す特定のモードと、各モードにおける各指の動きと、この指の動きに対応する操作命令とは、予め対応させて操作命令対応テーブル34に登録されている。
FIG. 8 is a diagram illustrating a correspondence relationship between a display screen in a specific mode, movement of each finger in each mode, and an operation command corresponding to the movement of the finger. Table 2 is a table showing specific modes, movements of fingers in each mode, and operation commands corresponding to the movements of the fingers. In the
表2および図8を参照しながら表示画面上における指の動きと、操作命令との対応関係について説明する。 The correspondence between the finger movement on the display screen and the operation command will be described with reference to Table 2 and FIG.
図8(1)は、基本(地図)モードにおける各指の動きと、操作命令との対応関係を表す。基本(地図)モードでは、表示画面に現在地を含む周辺の地図画面が表示される。たとえばこの基本(地図)モードにおいて表示画面を小指で押圧すると、基本(地図)モードから図8(2)に示すソースダイレクトモードに切換える操作命令が入力され、ソースダイレクトモードに入力モードが切換わる。また図8(1)〜(4)に示す各モードにおいて表示画面を親指で押圧すると、基本(地図)モードに遷移する操作命令が入力されて、基本(地図)モードに遷移する。したがって、基本(地図)モードにおいて表示画面を親指で押圧した場合には、基本(地図)モードを維持する。 FIG. 8A shows the correspondence between the movement of each finger and the operation command in the basic (map) mode. In the basic (map) mode, the surrounding map screen including the current location is displayed on the display screen. For example, when the display screen is pressed with a little finger in this basic (map) mode, an operation command for switching from the basic (map) mode to the source direct mode shown in FIG. 8B is input, and the input mode is switched to the source direct mode. In addition, when the display screen is pressed with the thumb in each mode shown in FIGS. 8A to 8D, an operation command for changing to the basic (map) mode is input, and the mode changes to the basic (map) mode. Therefore, when the display screen is pressed with the thumb in the basic (map) mode, the basic (map) mode is maintained.
図8(2)は、ソースダイレクトモードにおける各指の動きと、操作命令との対応関係を表す。ソースダイレクトモードでは、表示画面に現在地を含む周辺の地図画面が表示される。このソースダイレクトモードにおける表示画面は、基本(地図)モードの表示画面と同じであるが、基本(地図)モードにおいて表示画面を小指で押圧することによってソースダイレクトモードに遷移するので、利用者はソースダイレクトモードか基本(地図)モードかを把握することができる。たとえばこのソースダイレクトモードにおいて、親指または小指を表示画面に押圧すると、ソースダイレクトモードから基本(地図)モードに遷移する操作命令が入力されて、基本(地図)モードに遷移する。またたとえばソースダイレクトモードの表示画面上において薬指で所定の動きを行うと、TV制御部17を操作する操作命令が入力される。またソースダイレクトモードの表示画面上において中指で所定の動きを行うと、Radio制御部17を操作する操作命令が入力される。またソースダイレクトモードの表示画面上において人差指で所定の動きを行うと、CD制御部14、DVD制御部15およびMD制御部16を含むオーディオ制御部を操作する操作命令が入力される。
FIG. 8 (2) shows the correspondence between the movement of each finger and the operation command in the source direct mode. In the source direct mode, a surrounding map screen including the current location is displayed on the display screen. The display screen in the source direct mode is the same as the display screen in the basic (map) mode, but in the basic (map) mode, the display screen is changed to the source direct mode by pressing the display screen with a little finger. Whether direct mode or basic (map) mode can be grasped. For example, in this source direct mode, when a thumb or little finger is pressed on the display screen, an operation command for changing from the source direct mode to the basic (map) mode is input, and the mode changes to the basic (map) mode. For example, when a predetermined movement is performed with the ring finger on the display screen in the source direct mode, an operation command for operating the
表3は、オーディオ操作およびRadio操作とTV操作とに共通のチューナ(Radio/TV)操作と、指の動きと、この指の動きに対応する操作命令との関係を表す表である。 Table 3 is a table showing a relationship between a tuner (Radio / TV) operation common to an audio operation, a Radio operation, and a TV operation, a finger movement, and an operation command corresponding to the finger movement.
たとえばソースダイレクトモードの表示画面において中指で表示画面を押下すると、音楽を再生または停止する操作命令が入力されて、音声情報を再生しているときには音声情報の再生を停止し、音声情報を再生していないときには音声情報の再生を開始する。音声情報を再生しているか否かは、配分管理部24から命令生成部12に与えられる現在の制御状態を表す制御情報に基づいて判断される。またたとえばソースダイレクトモードの表示画面において表示画面を中指で押下しながら右に指を移動すると、次のトラックに移動するトラックアップの操作命令が入力されて、次のトラックに移動する。またたとえばソースダイレクトモードの表示画面において、中指を表示画面に予め定める時間以上押下げ続ける(長押し)と、図8(3)に示すオーディオ再生モードに遷移する操作命令が入力されて、オーディオ再生モードへ遷移する。
For example, when the display screen in the source direct mode is pressed with the middle finger, an operation command for playing or stopping music is input, and when playing back audio information, playback of the audio information is stopped and the audio information is played back. If not, playback of audio information is started. Whether or not the sound information is being reproduced is determined based on control information indicating the current control state given from the
またたとえばソースダイレクトモードの表示画面において人差指で表示画面を長押しすると、図8(4)に示すチューナ再生モードに遷移する。またソースダイレクトモードの表示画面において表示画面を人差指で押下しながら右に指を移動すると、チャンネルを1つ上げて切換えるチャンネルアップの操作命令が入力されて、1つ上のチャンネルに切換わる。またソースダイレクトモードの表示画面において表示画面を人差指で押下しながら右に指を移動して、そのまま長押しすると、受信可能なチャンネルまでチャンネルを1つずつ上げていくオートプリセットの操作命令が入力されて、受信可能なチャンネルに切換わる。またソースダイレクトモードの表示画面において表示画面を人差指で押下しながら左に指を移動すると、チャンネルを1つ下げて切換えるチャンネルダウンの操作命令が入力されて、1つ下のチャンネルに切換わる。またソースダイレクトモードの表示画面において表示画面を人差指で押下しながら左に指を移動して、そのまま長押しすると、受信可能なチャンネルまでチャンネルを1つずつ下げていくオートプリセットの操作命令が入力されて、受信可能なチャンネルに切換わる。 Further, for example, when the display screen is pressed for a long time with the index finger on the display screen in the source direct mode, the mode changes to the tuner reproduction mode shown in FIG. When the finger is moved to the right while pressing the display screen with the index finger on the display screen in the source direct mode, a channel up operation command for switching up one channel is input, and the channel is switched up one channel. Also, on the source direct mode display screen, if you move your finger to the right while pressing the display screen with your index finger and then press and hold it, an auto preset operation command will be input to raise the channel one by one to the receivable channel. Switch to a receivable channel. Further, when the finger is moved to the left while pressing the display screen with the index finger on the display screen in the source direct mode, a channel down operation command for switching the channel down by one is input, and the channel is switched to the next lower channel. On the source direct mode display screen, move the finger to the left while pressing the display screen with your index finger, and press and hold to input an auto-preset operation command that lowers the channel one by one to the receivable channel. Switch to a receivable channel.
図8(3)は、オーディオ再生モードにおける各指の動きと、操作命令との対応関係を表す。図8(4)は、チューナ再生モードにおける各指の動きと、操作命令との対応関係を表す。オーディオ操作モードにおいて利用者が特定の指で表示画面を押下すると、オーディオを操作する操作命令が入力される。またチューナ操作モードにおいて利用者が特定の指で表示画面を押下すると、TV制御部17またはラジオ制御部18に対する操作命令が入力される。
FIG. 8 (3) shows the correspondence between the movement of each finger and the operation command in the audio playback mode. FIG. 8 (4) shows the correspondence between the movement of each finger and the operation command in the tuner playback mode. When the user presses the display screen with a specific finger in the audio operation mode, an operation command for operating the audio is input. When the user presses the display screen with a specific finger in the tuner operation mode, an operation command for the
以上説明したように本実施の形態の入力装置1では、表2に示す特定のモードと、各モードにおける各指の動きと、この指の動きに対応する操作命令とは、予め対応させて操作命令対応テーブル34に登録されている。このように頻繁に使用される操作命令に対応する指の動きを予め登録しておくことによって、利用者が逐次操作命令に対応する指の操作を登録する作業を省略することができ、利用者の利便性が向上する。またこのように操作命令に対応する指の操作を予め登録しておいたとしても、利用者の好みに応じて登録された指の動きを変更して操作命令対応テーブル34に再度登録し直すことができるので、利用者の好みに応じて操作命令に対応する指の操作を変更可能である。
As described above, in the
本実施の形態の入力装置1では、操作選択モードの表示画面にしたがって利用者がモードを選択するが、現在選択されているモードを選択して、このモードを選択する操作命令と、利用者の表示画面上の指の操作とを対応させて操作命令対応テーブル34に登録してもよい。
In the
図9は、モードの階層構造を示す模式図である。図10は、表示画面上の指の操作と、操作命令とを対応させて操作命令対応テーブル34に登録する処理を行うときの、表示画面を表す図である。一例としてプレイリストモード60を選択し、このプレイリストモード60を選択する操作命令と、表示画面上の指の操作とを対応させて操作命令対応テーブル34に登録する処理について説明する。
FIG. 9 is a schematic diagram showing a hierarchical structure of modes. FIG. 10 is a diagram illustrating a display screen when processing for registering the operation of the finger on the display screen and the operation command in association with the operation command correspondence table 34 is performed. As an example, processing for selecting the
本実施の形態では、前述したように特定の操作の処理を表すモードが階層化されている。オーディオモード57の下層には、HDD−Audioモード58およびCD Playerモード59などがある。さらにHDD−Audioモード58の下層には、プレイリストモード60、アルバムモード61およびアーティストモード62などがある。プレイリストモード60は、オーディオモード57およびHDD−Audioモード58の順に関連付けられている。
In the present embodiment, as described above, modes representing specific operation processes are hierarchized. Below the
図10(1)〜(3)は、プレイリストモード60を選択するときの表示画面を表す図である。表示画面には、現在のモードを表示する画像に加えて、操作登録モードに遷移するためのボタン43が表示されている。この操作登録モードに遷移するためのボタン43を利用者が押圧すると、現在のモードを選択することを表す情報が入力されるとともに、操作登録モードに遷移して、前述した図5のステップb1に移行する。
10 (1) to 10 (3) are diagrams showing display screens when the
プレイモードリストを選択するには、まずオーディオモード57の下層に関連付けられている複数のモードからHDD−Audioモード58を選択し、次にHDD−Audioモード58の下層に関連付けられているプレイリストモード60を選択する。プレイリストモード60が選択されると、プレイリストモード60に遷移してプレイリストモード60の下層に関連付けられる複数のモード、および操作登録モードに遷移するためのボタン43が表示画面に表示される。この表示画面において操作登録モードに遷移するためのボタン43を表す表示領域を利用者が押圧すると、プレイリストモード60を選択することを表す情報が入力されるとともに、操作登録モードに遷移して、前述した図5のステップb1に移行する。このプレイリストモード60を選択する操作命令と、指の動きとを対応させて操作命令対応テーブル34に登録する処理は、前述したステップb1からステップb15までの処理と同じなので、重複する説明を省略する。
To select a play mode list, first, the HDD-
入力装置1は、操作登録モードに遷移するためのボタン43を備えるので、利用者がこのボタン43を押下するだけで、現在のモードを選択して操作登録モードに遷移する。このように登録する操作命令に対応するモードを選択する手間を省いて、指の操作とモードを選択する操作命令とを対応させて操作命令対応テーブル34に登録することができ、利用者の利便性が向上する。
Since the
本発明の他の実施の形態の入力装置1では、指紋画像に基づいて指の種類だけでなく個人を判定する。このように指紋画像に基づいて個人を判定することによって、個人、指の種類、および軌跡情報と操作命令とを対応させて操作命令対応テーブル34に登録し、命令生成部12が個人、指の種類、および軌跡情報に基づいて操作命令を生成するようにしてもよい。このように指の種類および軌跡情報に加えて個人を判定することによって、各人ごとに指の操作に対応する操作命令を操作命令対応テーブル34に登録することが可能となる。すなわち異なる人間が表示画面上において同じ指の操作をしたとしても、異なる操作命令を入力することができる。このように1つのカーナビゲーションシステム2に対して、利用者に応じて操作命令を設定することが可能となる。これによってたとえば複数人でカーナビゲーションシステム2を共用する場合に利用者の利便性が向上する。
In the
本発明のさらに他の実施の形態の入力装置1は、個人を判定することによって各人の表示画面上における指の操作と、操作命令とを対応して操作命令対応テーブル34に登録する場合には、操作命令対応テーブル34に操作命令を登録した人によってのみ登録された指の操作と、操作命令との対応を変更可能に構成される。具体的には、命令生成部12は、指紋画像を判定することによって操作命令を登録した人か否かを判定し、操作命令を登録した人であれば、登録された指の操作と、操作命令との対応関係を変更して操作命令対応テーブル34に再登録することを許可し、操作命令を登録した人でないと判定すると、変更を許可しない。これによって、利用者が知らない間に他の人によって操作命令を入力する指の操作が変更されることを防ぐことができ、利用者の利便性が向上する。
In the
本発明のさらに他の実施の形態の入力装置1は、現在表示画面に表示されているモードを表す文字情報を表示画面に表示する。このように各モードを表す文字情報を表示画面に表示することによって、現在のモードを利用者が容易に認識することができる。たとえば異なるモードで同じ表示画面が表示される場合でも、モードを表す文字情報が表示されるので、現在のモードを容易に認識することができる。さらに、モードを表す文字情報が表示されるので、表示画面上における指の操作によって他のモードに遷移したときに、遷移したモードを容易に把握することができる。
The
本発明のさらに他の実施の形態の入力装置1は、現在表示画面に表示されているモードを表す音声情報を音としてスピーカ7から出力する。このように各モードを表す音声情報を音として出力することによって、現在のモードを利用者が容易に認識することができる。さらに、モードを表す音声情報が音として出力されるので、表示画面上における指の操作によって他のモードに遷移したときに、遷移したモードを容易に把握することができる。特に表示画面を見ずに表示画面上における指の操作によって他のモードに遷移したときにも、遷移したモードを把握することができるので、利用者の利便性が向上する。
The
本実施の形態の入力装置1は、カーナビゲーションシステム2に搭載されるとしたけれども、カーナビゲーションシステム2に限られずに、たとえばオーディオ装置およびAV装置などの入力装置を備える機器に搭載されてもよい。
Although the
1 入力装置
2 カーナビゲーションシステム
3 表示部
4 入力判定手段
5 描画制御手段
6 処理実行手段
7 スピーカ
8 制御手段
9 ディスプレイ
11 タッチパネル
12 命令生成部
13 命令受付部
21 操作対象制御部
31 指紋判定テーブル
32 軌跡判定テーブル
33 押下時間判定テーブル
34 操作命令対応テーブル
1
DESCRIPTION OF
Claims (5)
指の生体情報および指の動きを表す軌跡情報を記憶する記憶手段と、
前記タッチパネルに感圧する指と前記記憶手段に記憶される生体情報とを照合して指の種類を判定し、前記タッチパネルによって検出される指の動きと前記記憶手段に記憶される軌跡情報とが合致するか否かを判定する判定手段と、
前記判定手段によって指の種類が判定され、かつ検出される指の動きと軌跡情報とが合致するとき、前記判定手段によって判定される指の種類、および前記タッチパネルによって検出される指の動きに対応する指令を生成して出力する指令生成手段と、
を含むことを特徴とする入力装置。 A touch panel;
Storage means for storing biological information of the finger and trajectory information representing the movement of the finger;
The finger type is determined by comparing the finger pressure sensitive to the touch panel and the biological information stored in the storage means, and the finger movement detected by the touch panel matches the trajectory information stored in the storage means. Determining means for determining whether to do;
When the finger type is determined by the determining unit and the detected finger movement matches the trajectory information, it corresponds to the finger type determined by the determining unit and the finger movement detected by the touch panel. Command generating means for generating and outputting a command to perform,
An input device comprising:
前記判定手段は、前記タッチパネルによって検出される指の押下時間と、記憶手段に記憶される予め定める範囲の時間とが合致するか否かをさらに判定し、前記指令生成手段は判定結果に基づく指令を生成して出力することを特徴とする請求項1〜4のいずれか1つに記載の入力装置。 The storage means further includes a function of storing a pressing time on the touch panel,
The determination means further determines whether or not a finger pressing time detected by the touch panel matches a predetermined range time stored in the storage means, and the command generation means determines a command based on the determination result. The input device according to any one of claims 1 to 4, wherein the input device is generated and output.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006219004A JP2008046692A (en) | 2006-08-10 | 2006-08-10 | Input device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006219004A JP2008046692A (en) | 2006-08-10 | 2006-08-10 | Input device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008046692A true JP2008046692A (en) | 2008-02-28 |
Family
ID=39180406
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006219004A Pending JP2008046692A (en) | 2006-08-10 | 2006-08-10 | Input device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2008046692A (en) |
Cited By (25)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010182071A (en) * | 2009-02-05 | 2010-08-19 | Sharp Corp | Mobile information terminal |
| JP2011059887A (en) * | 2009-09-08 | 2011-03-24 | Canon Inc | Electronic device, method of controlling the same, and program |
| JP2011257942A (en) * | 2010-06-08 | 2011-12-22 | Panasonic Corp | Handwriting input device, handwriting input processing method and program therefor |
| JP2012510109A (en) * | 2008-11-24 | 2012-04-26 | クアルコム,インコーポレイテッド | Illustrated method for selecting and activating an application |
| JP2012527657A (en) * | 2009-05-18 | 2012-11-08 | 日本電気株式会社 | Touch screen, related operation method and system |
| JP2013114613A (en) * | 2011-11-30 | 2013-06-10 | Sharp Corp | Input device, input device control method, control program, and recording medium |
| JP2014026526A (en) * | 2012-07-27 | 2014-02-06 | Fujitsu Ltd | Character input device, character input method, and character input program |
| JP2015115042A (en) * | 2013-12-16 | 2015-06-22 | 株式会社デンソー | Information terminal equipment and information terminal equipment system |
| JP2021099817A (en) * | 2013-09-09 | 2021-07-01 | アップル インコーポレイテッドApple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
| US11170085B2 (en) | 2018-06-03 | 2021-11-09 | Apple Inc. | Implementation of biometric authentication |
| US11200309B2 (en) | 2011-09-29 | 2021-12-14 | Apple Inc. | Authentication with secondary approver |
| US11206309B2 (en) | 2016-05-19 | 2021-12-21 | Apple Inc. | User interface for remote authorization |
| US11386189B2 (en) | 2017-09-09 | 2022-07-12 | Apple Inc. | Implementation of biometric authentication |
| US11393258B2 (en) | 2017-09-09 | 2022-07-19 | Apple Inc. | Implementation of biometric authentication |
| US11468155B2 (en) | 2007-09-24 | 2022-10-11 | Apple Inc. | Embedded authentication systems in an electronic device |
| US11619991B2 (en) | 2018-09-28 | 2023-04-04 | Apple Inc. | Device control using gaze information |
| US11676373B2 (en) | 2008-01-03 | 2023-06-13 | Apple Inc. | Personal computing device control using face detection and recognition |
| US11809784B2 (en) | 2018-09-28 | 2023-11-07 | Apple Inc. | Audio assisted enrollment |
| US11836725B2 (en) | 2014-05-29 | 2023-12-05 | Apple Inc. | User interface for payments |
| US12079458B2 (en) | 2016-09-23 | 2024-09-03 | Apple Inc. | Image data for enhanced user interactions |
| US12099586B2 (en) | 2021-01-25 | 2024-09-24 | Apple Inc. | Implementation of biometric authentication |
| WO2025013606A1 (en) * | 2023-07-13 | 2025-01-16 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
| WO2025013605A1 (en) * | 2023-07-13 | 2025-01-16 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
| US12216754B2 (en) | 2021-05-10 | 2025-02-04 | Apple Inc. | User interfaces for authenticating to perform secure operations |
| US12262111B2 (en) | 2011-06-05 | 2025-03-25 | Apple Inc. | Device, method, and graphical user interface for accessing an application in a locked device |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003303048A (en) * | 2002-02-06 | 2003-10-24 | Fujitsu Component Ltd | Input device and pointer control method |
| JP2005149389A (en) * | 2003-11-19 | 2005-06-09 | Casio Comput Co Ltd | Information equipment |
| WO2006020304A2 (en) * | 2004-07-30 | 2006-02-23 | Apple Computer, Inc. | Mode-based graphical user interfaces for touch sensitive input devices |
| JP2006146579A (en) * | 2004-11-19 | 2006-06-08 | Olympus Corp | Data retrieving/reproducing apparatus, information inputting/recording apparatus, and operation apparatus |
-
2006
- 2006-08-10 JP JP2006219004A patent/JP2008046692A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003303048A (en) * | 2002-02-06 | 2003-10-24 | Fujitsu Component Ltd | Input device and pointer control method |
| JP2005149389A (en) * | 2003-11-19 | 2005-06-09 | Casio Comput Co Ltd | Information equipment |
| WO2006020304A2 (en) * | 2004-07-30 | 2006-02-23 | Apple Computer, Inc. | Mode-based graphical user interfaces for touch sensitive input devices |
| JP2006146579A (en) * | 2004-11-19 | 2006-06-08 | Olympus Corp | Data retrieving/reproducing apparatus, information inputting/recording apparatus, and operation apparatus |
Cited By (39)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11468155B2 (en) | 2007-09-24 | 2022-10-11 | Apple Inc. | Embedded authentication systems in an electronic device |
| US12406490B2 (en) | 2008-01-03 | 2025-09-02 | Apple Inc. | Personal computing device control using face detection and recognition |
| US11676373B2 (en) | 2008-01-03 | 2023-06-13 | Apple Inc. | Personal computing device control using face detection and recognition |
| US9679400B2 (en) | 2008-11-24 | 2017-06-13 | Qualcomm Incorporated | Pictoral methods for application selection and activation |
| JP2012510109A (en) * | 2008-11-24 | 2012-04-26 | クアルコム,インコーポレイテッド | Illustrated method for selecting and activating an application |
| US9501694B2 (en) | 2008-11-24 | 2016-11-22 | Qualcomm Incorporated | Pictorial methods for application selection and activation |
| JP2010182071A (en) * | 2009-02-05 | 2010-08-19 | Sharp Corp | Mobile information terminal |
| JP2012527657A (en) * | 2009-05-18 | 2012-11-08 | 日本電気株式会社 | Touch screen, related operation method and system |
| JP2011059887A (en) * | 2009-09-08 | 2011-03-24 | Canon Inc | Electronic device, method of controlling the same, and program |
| JP2011257942A (en) * | 2010-06-08 | 2011-12-22 | Panasonic Corp | Handwriting input device, handwriting input processing method and program therefor |
| US12262111B2 (en) | 2011-06-05 | 2025-03-25 | Apple Inc. | Device, method, and graphical user interface for accessing an application in a locked device |
| US11755712B2 (en) | 2011-09-29 | 2023-09-12 | Apple Inc. | Authentication with secondary approver |
| US11200309B2 (en) | 2011-09-29 | 2021-12-14 | Apple Inc. | Authentication with secondary approver |
| JP2013114613A (en) * | 2011-11-30 | 2013-06-10 | Sharp Corp | Input device, input device control method, control program, and recording medium |
| JP2014026526A (en) * | 2012-07-27 | 2014-02-06 | Fujitsu Ltd | Character input device, character input method, and character input program |
| US11494046B2 (en) | 2013-09-09 | 2022-11-08 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
| JP2021099817A (en) * | 2013-09-09 | 2021-07-01 | アップル インコーポレイテッドApple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
| US11287942B2 (en) | 2013-09-09 | 2022-03-29 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces |
| US11768575B2 (en) | 2013-09-09 | 2023-09-26 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
| US12314527B2 (en) | 2013-09-09 | 2025-05-27 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
| JP2015115042A (en) * | 2013-12-16 | 2015-06-22 | 株式会社デンソー | Information terminal equipment and information terminal equipment system |
| US11836725B2 (en) | 2014-05-29 | 2023-12-05 | Apple Inc. | User interface for payments |
| US11206309B2 (en) | 2016-05-19 | 2021-12-21 | Apple Inc. | User interface for remote authorization |
| US12079458B2 (en) | 2016-09-23 | 2024-09-03 | Apple Inc. | Image data for enhanced user interactions |
| US11386189B2 (en) | 2017-09-09 | 2022-07-12 | Apple Inc. | Implementation of biometric authentication |
| US12462005B2 (en) | 2017-09-09 | 2025-11-04 | Apple Inc. | Implementation of biometric authentication |
| US11765163B2 (en) | 2017-09-09 | 2023-09-19 | Apple Inc. | Implementation of biometric authentication |
| US11393258B2 (en) | 2017-09-09 | 2022-07-19 | Apple Inc. | Implementation of biometric authentication |
| US11928200B2 (en) | 2018-06-03 | 2024-03-12 | Apple Inc. | Implementation of biometric authentication |
| US12189748B2 (en) | 2018-06-03 | 2025-01-07 | Apple Inc. | Implementation of biometric authentication |
| US11170085B2 (en) | 2018-06-03 | 2021-11-09 | Apple Inc. | Implementation of biometric authentication |
| US12105874B2 (en) | 2018-09-28 | 2024-10-01 | Apple Inc. | Device control using gaze information |
| US12124770B2 (en) | 2018-09-28 | 2024-10-22 | Apple Inc. | Audio assisted enrollment |
| US11809784B2 (en) | 2018-09-28 | 2023-11-07 | Apple Inc. | Audio assisted enrollment |
| US11619991B2 (en) | 2018-09-28 | 2023-04-04 | Apple Inc. | Device control using gaze information |
| US12099586B2 (en) | 2021-01-25 | 2024-09-24 | Apple Inc. | Implementation of biometric authentication |
| US12216754B2 (en) | 2021-05-10 | 2025-02-04 | Apple Inc. | User interfaces for authenticating to perform secure operations |
| WO2025013606A1 (en) * | 2023-07-13 | 2025-01-16 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
| WO2025013605A1 (en) * | 2023-07-13 | 2025-01-16 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2008046692A (en) | Input device | |
| CN102150114B (en) | image display device | |
| KR101613407B1 (en) | Vehicle system comprising an assistance functionality and method for operating a vehicle system | |
| KR101079270B1 (en) | Three dimensional input device | |
| US20110131515A1 (en) | In-vehicle display system | |
| US20200201442A1 (en) | Gesture operation device and gesture operation method | |
| US10967737B2 (en) | Input device for vehicle and input method | |
| US10725543B2 (en) | Input device, display device, and method for controlling input device | |
| CN103890760A (en) | Method for operating an electronic device or an application, and corresponding apparatus | |
| JP7003268B2 (en) | How to link with in-vehicle information devices and mobile terminals | |
| JP2015153325A (en) | information processing apparatus, operation support method and operation support program | |
| CN106104422A (en) | Gesture assessment system, the method assessed for gesture and vehicle | |
| JP2007304646A (en) | Finger motion detection control electronics | |
| WO2014196208A1 (en) | Gesture input device for car navigation device | |
| JP2016109434A (en) | Electronic equipment | |
| JP2009286175A (en) | Display device for vehicle | |
| CN102080962B (en) | In-vehicle display system | |
| US20220234444A1 (en) | Input device | |
| US20050175226A1 (en) | Operation control apparatus, process control apparatus, operation control method, its program and recording medium storing the program | |
| JP2008065504A (en) | Touch panel control device and touch panel control method | |
| CN114040857B (en) | Method for operating an operating system in a vehicle and operating system in a vehicle | |
| JP2008181367A (en) | Music player | |
| WO2019073543A1 (en) | Input control device, input device, and input control method | |
| JP4958979B2 (en) | Recording medium reproducing apparatus, recording medium reproducing method, recording medium reproducing program, and recording medium storing recording medium reproducing program | |
| JP2003099200A (en) | Information equipment |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090721 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100326 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110419 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110426 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110906 |