[go: up one dir, main page]

JP2008046692A - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP2008046692A
JP2008046692A JP2006219004A JP2006219004A JP2008046692A JP 2008046692 A JP2008046692 A JP 2008046692A JP 2006219004 A JP2006219004 A JP 2006219004A JP 2006219004 A JP2006219004 A JP 2006219004A JP 2008046692 A JP2008046692 A JP 2008046692A
Authority
JP
Japan
Prior art keywords
finger
mode
display screen
touch panel
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006219004A
Other languages
Japanese (ja)
Inventor
Kazuhisa Iwamoto
和久 岩本
Yasuhisa Ishida
泰久 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2006219004A priority Critical patent/JP2008046692A/en
Publication of JP2008046692A publication Critical patent/JP2008046692A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Collating Specific Patterns (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device for reducing the number of components, and for generating and outputting a plurality of different commands by a simple operation. <P>SOLUTION: A touch panel 11 reads the fingerprint image of the finger with which a user depresses a display picture, orbit information showing the orbit of the finger and depression time information, and provides them to an instruction generation part 12. The instruction generation part 12 refers to a fingerprint decision table 31, an orbit decision table 32 and a depression time decision table 33, and decides whether or not the provided fingerprint image, orbit information and depression time information are matched with a registered fingerprint image, orbit information and depression time information. The instruction generation part 12 generates an operation instruction by referring to an operation instruction association table 34 based on the decision result, and outputs it to an instruction accepting part 13. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、操作対象装置に対する指令を生成して出力する入力装置に関する。   The present invention relates to an input device that generates and outputs a command for an operation target device.

オーディオ装置およびAV(audiovisual)装置などの機能を備えるカーナビゲーションシステムは、複数のボタンを有する入力装置を備える。実用に供されているカーナビゲーションシステムは、ボタンの数、換言すれば部品点数が多くなると構造が複雑化し、装置が大形化するので、装置の小形化のために少ない数のボタンで複数の異なる操作命令を入力可能に構成されている。具体的には入力装置は、複数の操作命令を階層化し、この階層化された複数の操作命令のうちから利用者が所望する操作命令を選択することによって、操作命令が入力可能に構成されている。この場合であっても、使用頻度の高い操作命令に対しては、操作命令に1対1に対応するボタンを設けることによって入力装置としての利便性を向上している。   A car navigation system having functions such as an audio device and an AV (audiovisual) device includes an input device having a plurality of buttons. The car navigation system in practical use has a complicated structure as the number of buttons, in other words, the number of parts increases, and the device becomes larger. Therefore, a small number of buttons are used to reduce the size of the device. Different operation commands can be input. Specifically, the input device is configured to be capable of inputting an operation command by hierarchizing a plurality of operation commands and selecting a user-desired operation command from the hierarchized operation commands. Yes. Even in this case, the convenience as an input device is improved by providing buttons corresponding to the operation commands on a one-to-one basis for frequently used operation commands.

また従来の技術の入力装置では、指紋に対してシステムを動作させるためのコマンドを割当てておき、ユーザの指紋を識別することによって、この識別した指紋に割当てられたコマンドを特定し、特定したコマンドをシステムに通知している。特に指紋を識別することによってユーザが操作した指を特定し、その特定結果に基づいてシステムが行うべき処理を指定している。このようにユーザの各指をそれぞれボタンとして機能させることによって、入力装置に設けられるボタンの数を抑制している(たとえば特許文献1参照)。   In the conventional input device, a command for operating the system is assigned to the fingerprint, the user's fingerprint is identified to identify the command assigned to the identified fingerprint, and the identified command Is notified to the system. In particular, the finger operated by the user is identified by identifying the fingerprint, and the process to be performed by the system is designated based on the identification result. Thus, the number of buttons provided in the input device is suppressed by causing each finger of the user to function as a button (see, for example, Patent Document 1).

特開2003−163762号公報JP 2003-163762 A

階層化された複数の操作命令のうちから所望する操作命令を選択するためには、複数の操作が必要となるので、操作命令を入力する作業が煩雑化するという問題がある。   Since a plurality of operations are required to select a desired operation command from a plurality of hierarchical operation commands, there is a problem that the operation of inputting the operation command becomes complicated.

またユーザが操作した指を特定することによってユーザの各指をそれぞれボタンとして機能させる場合には、最大でも指の数の操作命令しか指定することができないという問題がある。   Further, when each finger of the user is made to function as a button by specifying the finger operated by the user, there is a problem that only the operation command of the number of fingers can be specified at the maximum.

したがって本発明の目的は、部品点数の低減を図るとともに、容易な操作で複数の異なる指令を生成して出力することができる入力装置を提供することである。   Accordingly, an object of the present invention is to provide an input device capable of reducing the number of parts and generating and outputting a plurality of different commands with an easy operation.

本発明(1)に従えば、判定手段が、タッチパネルに感圧する指と記憶手段に記憶される生体情報とを照合して指の種類を判定する。これによって、記憶手段に記憶される生体情報に合致する指がタッチパネルに感圧する場合には、指の種類が特定される。また判定手段は、タッチパネルによって検出される指の動きと記憶手段に記憶される軌跡情報とが合致するか否かを判定する。このように、タッチパネルの表面上において、記憶手段に記憶される特定の指で、記憶手段に記憶された軌跡情報に合致するように指が動かされたか否かが判定される。   According to the present invention (1), the determination unit determines the finger type by comparing the finger pressure-sensitive on the touch panel with the biological information stored in the storage unit. Thereby, when the finger | toe corresponding to the biometric information memorize | stored in a memory | storage means senses pressure on a touch panel, the kind of finger | toe is specified. The determination unit determines whether or not the finger movement detected by the touch panel matches the trajectory information stored in the storage unit. In this way, it is determined whether or not the finger is moved on the surface of the touch panel so as to match the trajectory information stored in the storage unit with the specific finger stored in the storage unit.

判定手段によって指の種類が判定され、かつ検出される指の動きと軌跡情報とが合致するとき、指令生成手段は、判定手段によって判定される指の種類、および前記タッチパネルによって検出される指の動きに対応する指令を生成して出力する。このようにタッチパネルの表面上において、利用者が記憶手段に記憶された特定の指で、記憶手段に記憶された軌跡情報に合致する指の動きをするだけで、この動きに対応する指令が生成されて出力される。   When the finger type is determined by the determining unit and the detected finger movement matches the trajectory information, the command generating unit determines the finger type determined by the determining unit and the finger type detected by the touch panel. Generates and outputs a command corresponding to the movement. In this way, on the surface of the touch panel, the user generates a command corresponding to the movement only by moving the finger that matches the trajectory information stored in the storage unit with a specific finger stored in the storage unit. Is output.

本発明(1)によれば、タッチパネルの表面上において、利用者が記憶手段に記憶された特定の指で、記憶手段に記憶された軌跡情報に合致する指の動きをするだけで、この動きに対応する指令が生成されて出力される。これによって煩雑な操作をすることなく、利用者の意図する指令を容易に入力することができる。また指の種類だけでなく、指の動きに応じた指令が生成されるので、指の数以上の異なる指令を指の動きに応じて入力することが可能となり、ボタンの数、つまり部品点数の低減を図ることができる。   According to the present invention (1), on the surface of the touch panel, the user simply moves the finger that matches the trajectory information stored in the storage unit with the specific finger stored in the storage unit. A command corresponding to is generated and output. This makes it possible to easily input a command intended by the user without performing a complicated operation. In addition to the types of fingers, commands corresponding to the movement of the finger are generated, so it is possible to input different commands that are more than the number of fingers according to the movement of the finger, and the number of buttons, that is, the number of parts Reduction can be achieved.

以下、図面を参照しながら本発明を実施するための形態を、複数の形態について説明する。ただし、本発明の技術的範囲は、それらの実施の形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶものである。各形態で先行する形態で説明している事項に対応している部分には同一の参照符号を付し、重複する説明を略する場合がある。構成の一部のみを説明している場合、構成の他の部分は、先行して説明している形態と同様とする。実施の各形態で具体的に説明している部分の組合せばかりではなく、特に組合せに支障が生じなければ、実施の形態同士を部分的に組合せることも可能である。   Hereinafter, a plurality of embodiments for carrying out the present invention will be described with reference to the drawings. However, the technical scope of the present invention is not limited to these embodiments, but extends to the invention described in the claims and equivalents thereof. Parts corresponding to the matters described in the preceding forms in each embodiment are denoted by the same reference numerals, and overlapping description may be omitted. When only a part of the configuration is described, the other parts of the configuration are the same as those described in the preceding section. Not only the combination of the parts specifically described in each embodiment, but also the embodiments can be partially combined as long as the combination does not hinder.

図1は、本発明の実施形態に係る入力装置1を備えるカーナビゲーションシステム2を示すブロック図である。カーナビゲーションシステム2は、表示手段3と、入力判定手段4と、描画制御手段5と、処理実行手段6と、スピーカ7と、制御手段8とを含んで構成される。   FIG. 1 is a block diagram showing a car navigation system 2 including an input device 1 according to an embodiment of the present invention. The car navigation system 2 includes a display unit 3, an input determination unit 4, a drawing control unit 5, a process execution unit 6, a speaker 7, and a control unit 8.

制御手段8は、マイクロコンピュータなどに備えられる中央処理装置(Central
Processing Unit:略称CPU)がROM(Read Only Memory)およびRAM(Random
Access Memory)などによって実現される記憶手段に記憶された制御プログラムを実行することによって実現され、カーナビゲーションシステム2を構成する各手段を制御する。
The control means 8 is a central processing unit (Central
Processing Unit: CPU (ROM) is ROM (Read Only Memory) and RAM (Random
It is realized by executing a control program stored in a storage means realized by an access memory or the like, and controls each means constituting the car navigation system 2.

表示手段3は、描画制御手段5から与えられる画像情報を表示画面に表示するディスプレイ9として機能するとともに、タッチパネル11としても機能する。タッチパネル11は、表示手段3の表示画面を押圧する指の表示画面上における絶対座標値を検出する。タッチパネル11は、たとえばアナログ抵抗膜方式を用いて実現される。タッチパネル11は、表示画面上における指の絶対座標値を予め定める時間間隔で検出し、絶対座標値の時間変化に基づいて表示画面上における指の動きの軌跡を検出可能である。またタッチパネル11は、利用者の指が表示画面を押圧してから、表示画面を離間するまでの時間(以下、押下時間という)を検出可能である。タッチパネル11は、検出した表示画面上における指の絶対座標値、指の動きを表す軌跡情報、および押下時間を表す押下時間情報を入力判定手段4の命令生成部12に与える。   The display unit 3 functions as the display 9 that displays the image information given from the drawing control unit 5 on the display screen, and also functions as the touch panel 11. The touch panel 11 detects absolute coordinate values on the display screen of the finger that presses the display screen of the display unit 3. The touch panel 11 is realized using, for example, an analog resistance film method. The touch panel 11 can detect the absolute coordinate value of the finger on the display screen at a predetermined time interval, and can detect the trajectory of the finger movement on the display screen based on the time change of the absolute coordinate value. In addition, the touch panel 11 can detect a time from when the user's finger presses the display screen until the display screen is separated (hereinafter referred to as a pressing time). The touch panel 11 provides the instruction generation unit 12 of the input determination unit 4 with the detected absolute coordinate value of the finger on the display screen, trajectory information indicating the movement of the finger, and pressing time information indicating the pressing time.

さらにタッチパネル11は、指の生体情報を取得可能に構成される。本実施の形態では、タッチパネル11は、表示画面を押圧する指の指紋を表す指紋画像を生体情報として取得する。指紋画像は、たとえば指に向けて光を照射して、指によって反射される反射光を受光する光学式、または指紋の凹凸によって生じる表示画面からの指の距離の相違を静電容量の変化に基づいて検出する静電容量式を用いて取得可能である。タッチパネル11は、表示画面のあらゆる領域に載置される指の指紋画像を取得可能に構成される。タッチパネル11は、取得した指紋画像を入力判定手段4の命令生成部12に与える。   Further, the touch panel 11 is configured to be able to acquire finger biometric information. In the present embodiment, the touch panel 11 acquires a fingerprint image representing a fingerprint of a finger pressing the display screen as biometric information. For example, the fingerprint image is an optical type that emits light toward the finger and receives the reflected light reflected by the finger, or the difference in the distance from the display screen caused by the unevenness of the fingerprint is a change in capacitance. It can be obtained using a capacitance type that is detected based on the capacitance type. The touch panel 11 is configured to be able to acquire a fingerprint image of a finger placed on any area of the display screen. The touch panel 11 gives the acquired fingerprint image to the command generation unit 12 of the input determination unit 4.

入力判定手段4は、前述したCPUが記憶手段に記憶された制御プログラムを実行することによって機能する命令生成部12と、命令生成部12が記憶手段に記憶されるデータを読込むまたは書込むことによって機能する指紋判定テーブル31、軌跡判定テーブル32、押下時間判定テーブル33および操作命令対応テーブル34とを含んで構成される。命令生成部12は、判定手段と、指令生成手段とに相当する。前記判定手段は、タッチパネル11に感圧する指の指紋画像と記憶手段に記憶される生体情報である指紋画像とを照合して指の種類を判定し、タッチパネル11によって検出される指の動きと記憶手段に記憶される軌跡情報とが合致するか否かを判定する。前記指令生成手段は、指の種類が判定され、かつ検出される指の動きと軌跡情報とが合致するとき、指の種類、およびタッチパネル11によって検出される指の動きに対応する指令に相当する操作命令を生成して出力する。   The input determination unit 4 includes an instruction generation unit 12 that functions when the CPU executes the control program stored in the storage unit, and the instruction generation unit 12 reads or writes data stored in the storage unit. A fingerprint determination table 31, a locus determination table 32, a pressing time determination table 33, and an operation command correspondence table 34 that function according to the above. The command generation unit 12 corresponds to a determination unit and a command generation unit. The determination unit compares a fingerprint image of a finger that is pressure sensitive to the touch panel 11 with a fingerprint image that is biometric information stored in the storage unit to determine the type of the finger, and the movement and storage of the finger detected by the touch panel 11 It is determined whether or not the trajectory information stored in the means matches. The command generation means corresponds to a command corresponding to the finger type and the finger movement detected by the touch panel 11 when the finger type is determined and the detected finger movement matches the trajectory information. Generate and output an operation command.

指紋判定テーブル31には、一または複数の指紋画像が登録されている。命令生成部12は、指紋判定テーブル31に登録される指紋画像と、タッチパネル11から与えられる指紋画像とを照合して、一致する指紋画像があれば表示画面に感圧する指の種類を特定する。たとえば「左手の人差指」を表示画面上に押圧しているときには、命令生成部12は、表示画面に感圧する指が「左手の人差指」であることを特定する。命令生成部12は、指紋画像を照合したときに、一致する指紋画像があれば、後述する指紋フラグに「1」を代入し、一致する指紋画像がなければ後述する指紋フラグに「0」を代入する。指紋の照合は、指紋の盛り上がった部分(隆線)の端点、および分岐点などの相対的な位置関係を特徴情報として抽出し、この特徴情報を比較することによって指紋の照合を行う特徴点抽出照合法(マニューシャ法)、または指紋画像を直接比較することによって指紋の照合を行う画像マッチング法(パタンマッチング法)などによって実行される。   One or a plurality of fingerprint images are registered in the fingerprint determination table 31. The command generation unit 12 collates the fingerprint image registered in the fingerprint determination table 31 with the fingerprint image provided from the touch panel 11 and specifies the type of finger to be pressure-sensitive on the display screen if there is a matching fingerprint image. For example, when “left index finger” is being pressed on the display screen, the command generation unit 12 specifies that the finger to be pressure-sensitive on the display screen is “left index finger”. The command generation unit 12 assigns “1” to a fingerprint flag described later if there is a matching fingerprint image when collating the fingerprint image, and sets “0” to a fingerprint flag described later if there is no matching fingerprint image. substitute. Fingerprint matching is a feature point extraction that extracts relative positional relationships such as the end points of bulges (ridges) and branching points as feature information as feature information and compares the feature information. This is performed by a collation method (maneuver method) or an image matching method (pattern matching method) in which fingerprints are collated by directly comparing fingerprint images.

軌跡判定テーブル32には、一または複数の軌跡情報が登録されている。命令生成部12は、タッチパネル11から与えられる指の動きを表す軌跡情報と、軌跡判定テーブル32に登録されている軌跡情報とを照合する。命令生成部12は、一致する軌跡があれば後述する軌跡フラグに「1」を代入し、一致する軌跡がなければ軌跡フラグに「0」を代入する。   One or more pieces of locus information are registered in the locus determination table 32. The command generation unit 12 collates trajectory information representing finger movement given from the touch panel 11 with trajectory information registered in the trajectory determination table 32. The instruction generation unit 12 substitutes “1” for a trajectory flag described later if there is a matching trajectory, and substitutes “0” for the trajectory flag if there is no matching trajectory.

押下時間判定テーブル33には、一または複数の予め定める範囲の押下時間が登録されている。予め定める範囲の押下時間とは、たとえば1秒程度の時間幅を有し、2秒〜3秒、3.5秒〜4.5秒および5秒〜6秒などである。命令生成部12は、タッチパネル11から与えられる押下時間情報があらわす押下時間と、押下時間判定テーブル33に登録されている押下時間とを照合する。命令生成部12は、タッチパネル11から与えられる押下時間情報があらわす押下時間が、押下時間判定テーブル33に登録された1または複数の予め定める範囲の押下時間内にあれば、後述する押下時間フラグに「1」を代入し、前記予め定める範囲の押下時間外であれば押下時間フラグに「0」を代入する。   In the pressing time determination table 33, one or more predetermined ranges of pressing times are registered. The pressing time in the predetermined range has a time width of about 1 second, for example, 2 to 3 seconds, 3.5 to 4.5 seconds, and 5 to 6 seconds. The command generation unit 12 collates the pressing time represented by the pressing time information given from the touch panel 11 with the pressing time registered in the pressing time determination table 33. If the pressing time indicated by the pressing time information given from the touch panel 11 is within one or more predetermined ranges of pressing times registered in the pressing time determination table 33, the command generation unit 12 sets a pressing time flag to be described later. “1” is substituted, and “0” is substituted into the pressing time flag if the pressing time is outside the predetermined range.

操作命令対応テーブル34には、指の種類、軌跡情報および押下時間情報のうちの少なくともいずれか1つと、特定の操作命令とが対応して登録されている。   In the operation command correspondence table 34, at least one of finger type, trajectory information, and pressing time information and a specific operation command are registered correspondingly.

命令生成部12は、操作命令対応テーブル34を参照して、後述する描画制御手段5の配分管理部24から与えられる現在の制御状態を表す制御情報に基づいて、指紋画像、指の動きを表す軌跡情報および押下時間情報のうちの、各判定テーブル31,32,33に登録された情報に一致する情報に対応する操作命令を生成して処理実行手段6の命令受付部13に出力して与える。   The command generation unit 12 refers to the operation command correspondence table 34 and represents the fingerprint image and the movement of the finger based on the control information indicating the current control state given from the distribution management unit 24 of the drawing control means 5 described later. Of the trajectory information and the pressing time information, an operation command corresponding to information matching the information registered in each determination table 31, 32, 33 is generated and output to the command receiving unit 13 of the processing execution means 6 for giving. .

処理実行手段6は、前述したCPUが記憶手段に記憶された制御プログラムを実行することによって機能する命令受付部13と、命令受付部13からの操作命令に基づく制御を行う操作対象制御部21と、増幅器(以後、AMPという)22とを含んで構成される。   The process execution unit 6 includes a command receiving unit 13 that functions when the CPU executes the control program stored in the storage unit, and an operation target control unit 21 that performs control based on an operation command from the command receiving unit 13. And an amplifier (hereinafter referred to as AMP) 22.

操作対象制御部21は、命令受付部13からの操作命令に基づいてCD(Compact Disc
)装置として機能するCD制御部14と、DVD(Digital Versatile Disk)装置として機能するDVD制御部15と、HDD(Hard Disk Drive)オーディオ装置として機能するHDD制御部16と、テレビジョン(TV)装置として機能するTV制御部17と、ラジオ(Radio)装置として機能するRadio制御部18と、カーナビゲーション装置として機能するNAVI制御部19とを含んで構成される。
The operation target control unit 21 receives a CD (Compact Disc) based on the operation command from the command receiving unit 13.
) CD control unit 14 functioning as a device, DVD control unit 15 functioning as a DVD (Digital Versatile Disk) device, HDD control unit 16 functioning as an HDD (Hard Disk Drive) audio device, and television (TV) device The TV control unit 17 that functions as a radio control unit, a radio control unit 18 that functions as a radio device, and a NAVI control unit 19 that functions as a car navigation device.

操作対象制御部21は、命令受付部13から与えられる操作命令に基づく処理を実行し、表示手段3に表示させるべき画像情報と、スピーカ7から出力させる音声を表す音声情報と、現在の制御状態を表す制御情報とを生成して描画制御手段5に与える。AMP22は、描画制御手段5から音声情報として与えられる電気信号を増幅してスピーカ7に出力し、スピーカ7から音声情報を音として出力させる。   The operation target control unit 21 executes processing based on the operation command given from the command receiving unit 13, image information to be displayed on the display unit 3, audio information representing sound output from the speaker 7, and the current control state Is generated and given to the drawing control means 5. The AMP 22 amplifies an electrical signal given as audio information from the drawing control means 5 and outputs the amplified signal to the speaker 7, and causes the speaker 7 to output the audio information as sound.

描画制御手段5は、前述したCPUが記憶手段に記憶された制御プログラムを実行することによって機能する描画エンジン23と配分管理部24とを含んで構成される。   The drawing control unit 5 includes a drawing engine 23 and a distribution management unit 24 that function when the CPU described above executes a control program stored in the storage unit.

配分管理部24は、操作対象制御部21から与えられる画像情報と、音声情報と、制御情報とに基づいて、表示手段3に表示させるべき画像情報を生成して描画エンジン23に与え、かつスピーカ7から出力させるべき音声を表す音声情報を電気信号としてAMP22に与えるとともに、操作対象制御部21の現在の制御を表す制御情報を命令生成部12に与える。描画エンジン23は、配分管理部24から与えられる画像情報を電気信号としてディスプレイ9に与えて、画像情報を表示画面に表示させる。   The distribution management unit 24 generates image information to be displayed on the display unit 3 based on the image information, the sound information, and the control information given from the operation target control unit 21 and gives the image information to the drawing engine 23, and the speaker. The voice information representing the voice to be output from the control unit 7 is given to the AMP 22 as an electrical signal, and the control information representing the current control of the operation target control unit 21 is given to the command generation unit 12. The drawing engine 23 gives the image information given from the distribution management unit 24 to the display 9 as an electrical signal, and displays the image information on the display screen.

図2は、指紋判定テーブル31に指紋画像を登録する処理を表すフローチャートである。図3は、指紋判定テーブル31に指紋画像を登録する処理を行うときに、表示手段3の表示画面に表示される画像を表す図である。   FIG. 2 is a flowchart showing processing for registering a fingerprint image in the fingerprint determination table 31. FIG. 3 is a diagram illustrating an image displayed on the display screen of the display unit 3 when processing for registering a fingerprint image in the fingerprint determination table 31 is performed.

カーナビゲーションシステム2には、複数の操作モードがある。指紋判定テーブル31に利用者の指紋を登録する操作モードを指紋登録モードという。カーナビゲーションシステム2の利用者が表示手段3の表示画面に表示される案内画面に基づいてタッチパネル11を押圧することによって指紋登録モードを選択すると、指紋画像を登録する処理が開始してステップa1に移行する。   The car navigation system 2 has a plurality of operation modes. An operation mode for registering a user's fingerprint in the fingerprint determination table 31 is called a fingerprint registration mode. When the user of the car navigation system 2 selects the fingerprint registration mode by pressing the touch panel 11 based on the guidance screen displayed on the display screen of the display means 3, the process of registering the fingerprint image starts and the process proceeds to step a1. Transition.

指紋登録モードが選択されると、まずディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、表示画面に右手および左手のいずれの指紋画像を登録するかを選択させる選択画面を表示する。たとえば右手を選択するときに押圧すべき表示画面上の領域と、左手を選択するときに押圧すべき表示画面上の領域とを表示する。ステップa1では、制御手段8は、右手の選択が行われたか否かを判断し、右手が選択されるとステップa2に移行し、右手でない、すなわち左手が選択されるとステップa3に移行する。右手または左手のいずれが選択されたかは、利用者が選択画面にしたがって表示画面を押圧した絶対座標値を検出することによって行われる。右手が選択されてステップa2に移行すると、制御手段8は、右手用のUI(User Interface)を選択し、右手用のUIを表示画面に表示してステップa4に移行する。右手用のUIが選択されると、ステップa4以降のステップにおいて右手用のUIの表示画面が表示される。ステップa1において左手が選択されてステップa3に移行すると、制御手段8は、左手用のUIを選択し、左手用のUIを表示画面に表示してステップa4に移行する。左手用のUIが選択されると、ステップa4以降のステップにおいて、左手用のUIが表示画面に表示される。   When the fingerprint registration mode is selected, the display 9 first displays a selection screen for selecting whether to register a right-hand or left-hand fingerprint image on the display screen based on the image information given from the drawing engine 23. For example, an area on the display screen to be pressed when the right hand is selected and an area on the display screen to be pressed when the left hand is selected are displayed. In step a1, the control means 8 determines whether or not the right hand has been selected. If the right hand is selected, the process proceeds to step a2. If the right hand is selected, that is, if the left hand is selected, the process proceeds to step a3. Whether the right hand or the left hand is selected is determined by detecting an absolute coordinate value when the user presses the display screen according to the selection screen. When the right hand is selected and the process proceeds to step a2, the control means 8 selects a right hand UI (User Interface), displays the right hand UI on the display screen, and proceeds to step a4. When the right-hand UI is selected, a right-hand UI display screen is displayed in steps after step a4. When the left hand is selected in step a1 and the process proceeds to step a3, the control means 8 selects the left hand UI, displays the left hand UI on the display screen, and proceeds to step a4. When the left-hand UI is selected, the left-hand UI is displayed on the display screen in steps after step a4.

図3(1)は、ステップa3において左手用のUIが選択されたときの表示画面を示す図である。ステップa3において左手用のUIを選択して左手用のUIを表示画面に表示すると、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、「表示の位置に小指、薬指、中指、人差指の各指をのせてください。」という文字情報を表示するとともに、左手の親指を除く4本の各指を載置させるべき4つの載置領域25を表示する。   FIG. 3A is a diagram showing a display screen when the left-hand UI is selected in step a3. When the left hand UI is selected in step a3 and the left hand UI is displayed on the display screen, the display 9 displays “the little finger, ring finger, middle finger, index finger at the display position based on the image information given from the drawing engine 23. Is displayed, and the four placement areas 25 on which the four fingers other than the thumb of the left hand are to be placed are displayed.

ステップa4では、制御手段8はタッチパネル11を制御して、親指を除く4本の各指の指紋画像を読込ませてステップa5に移行する。ステップa5では、制御手段8は、読込んだ指紋画像に基づいて、正常に指紋画像を読込むことができたか否かを判断し、正常に指紋画像を読込んだと判断した場合にはステップa6に移行する。たとえば4つの載置領域25の少なくともいずれか1つに指が載置されていない状態で指紋画像を読込むと、正常に指紋画像を読込むことができない。このように正常に指紋画像を読込むことができなかった場合には、ステップa7に移行する。ステップa7では、正常に指紋画像を読込むために、ディスプレイ9は、利用者に指紋が読込むことができなかった旨を報知することによって利用者の入力装置1に対する操作を補助する操作補助情報を可視表示するコーション表示を行う。具体的にはディスプレイ9は、「指紋が正しく入力されていません」という文字情報を表示画面に表示する。これによって利用者に載置領域25に指を載置させるように促すことができる。ステップa7においてコーション表示を行うと、再度ステップa4に移行して、指紋画像を正しく読込めるまでステップa4、ステップa5およびステップa7の処理を繰返す。   In step a4, the control means 8 controls the touch panel 11 to read the fingerprint images of the four fingers excluding the thumb, and proceeds to step a5. In step a5, the control means 8 determines whether or not the fingerprint image has been normally read based on the read fingerprint image. Move to a6. For example, if a fingerprint image is read in a state where no finger is placed on at least one of the four placement areas 25, the fingerprint image cannot be read normally. If the fingerprint image cannot be read normally as described above, the process proceeds to step a7. In step a7, in order to read the fingerprint image normally, the display 9 displays the operation assistance information that assists the user with respect to the input device 1 by notifying the user that the fingerprint could not be read. Display cautions to be displayed. Specifically, the display 9 displays character information “The fingerprint is not input correctly” on the display screen. This can prompt the user to place a finger on the placement area 25. When the caution display is performed in step a7, the process proceeds to step a4 again, and the processes of step a4, step a5 and step a7 are repeated until the fingerprint image can be read correctly.

ステップa6では、ステップa4において親指を除く4本の各指の指紋画像を正常に読込めたので、命令生成部12は、読込んだ指紋画像を指紋判定テーブル31に登録してステップa8に移行する。   In step a6, since the fingerprint images of the four fingers other than the thumb are read normally in step a4, the command generation unit 12 registers the read fingerprint image in the fingerprint determination table 31 and proceeds to step a8. To do.

図3(2)は、ステップa6において指紋画像の登録が終了した後の表示画面を表す図である。指紋画像の登録が終了すると、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、「表示の位置に親指をのせてください。」という文字情報を表示するとともに、左手の親指を載置させるべき載置領域26を表示する。   FIG. 3B is a diagram illustrating a display screen after registration of the fingerprint image is completed in step a6. When the registration of the fingerprint image is completed, the display 9 displays the character information “Put your thumb on the display position” based on the image information given from the drawing engine 23 and place the thumb of the left hand on it. The placement area 26 to be displayed is displayed.

ステップa8では、制御手段8はタッチパネル11を制御して、親指の指紋画像を読込ませてステップa9に移行する。ステップa9では、制御手段8は、読込んだ指紋画像に基づいて、正常に指紋画像を読込むことができたか否かを判断し、正常に指紋画像を読込んだと判断した場合にはステップa10に移行する。たとえば載置領域26に親指が載置されていない状態で指紋画像を読込むと、正常に指紋画像を読込むことができない。このように正常に指紋画像を読込むことができなかった場合には、ステップa11に移行する。ステップa11では、正常に指紋画像を読込むために、ディスプレイ9は、利用者に指紋が読込むことができなかった旨を報知するコーション表示を行う。具体的にはディスプレイ9は、「指紋が正しく入力されていません」という文字情報を表示画面に表示する。これによって利用者に載置領域26に親指を載置させるように促すことができる。ステップa11においてコーション表示を行うと、再度ステップa8に移行して、指紋画像を正しく読込めるまでステップa8、ステップa9およびステップa11の処理を繰返す。   In step a8, the control means 8 controls the touch panel 11 to read the thumb fingerprint image and proceeds to step a9. In step a9, the control means 8 determines whether or not the fingerprint image has been successfully read based on the read fingerprint image. If it is determined that the fingerprint image has been read normally, the control unit 8 Move to a10. For example, if a fingerprint image is read in a state where no thumb is placed on the placement area 26, the fingerprint image cannot be read normally. As described above, when the fingerprint image cannot be read normally, the process proceeds to step a11. In step a11, in order to read the fingerprint image normally, the display 9 performs a caution display notifying the user that the fingerprint could not be read. Specifically, the display 9 displays character information “The fingerprint is not input correctly” on the display screen. This can prompt the user to place the thumb on the placement area 26. When the caution display is performed in step a11, the process proceeds to step a8 again, and the processes of step a8, step a9 and step a11 are repeated until the fingerprint image is correctly read.

ステップa10では、ステップa8において親指の指紋画像を正常に読込めたので、制御手段8は、読込んだ親指の指紋画像を指紋判定テーブル31に登録してステップa12に移行する。   In step a10, since the thumb fingerprint image is normally read in step a8, the control means 8 registers the read thumb fingerprint image in the fingerprint determination table 31 and proceeds to step a12.

ステップa12では、命令生成部12は、ステップa6およびステップa10において登録した指紋画像が、指紋判定テーブル31に登録されていない新規な指紋画像か否かを判断し、登録されていない指紋画像であればステップa13に移行する。ステップa13では、ディスプレイ9は、利用者に指紋画像が正常に登録されたことを報知するコーション表示を行う。具体的には、ディスプレイ9は、「あなたの指紋データが登録されました」という文字情報を表示する。   In step a12, the command generation unit 12 determines whether the fingerprint image registered in step a6 and step a10 is a new fingerprint image not registered in the fingerprint determination table 31, and if it is an unregistered fingerprint image. If so, the process proceeds to step a13. In step a13, the display 9 performs a caution display for notifying the user that the fingerprint image has been registered normally. Specifically, the display 9 displays character information “Your fingerprint data has been registered”.

ステップa14では、制御手段8は、ディスプレイ9を制御して利用者がドライブ席に着座しているか助手席に着座しているか否かの着座位置情報を取得させ、かつこの着座位置情報を指紋画像とともに指紋判定テーブル31に登録する。ディスプレイ9は、カーナビゲーションシステム2が車両に搭載された状態において、車幅方向の両端部にそれぞれ腕部検出センサを備える。利用者が運転席に着座してタッチパネル11を指で押圧する場合には、運転席寄りに設けられる腕部検出センサによって腕部が検出され、助手席席に着座してタッチパネル11を指で押圧する場合には、助手席寄りに設けられる腕部検出センサによって腕部が検出されるので、腕部検出センサの検出結果に基づいて、ディスプレイ9は着座位置情報を取得することができる。この腕部検出センサは、たとえば利用者の身体から発せられる赤外線を検出する赤外線センサによって実現される。着座位置情報を登録すると本処理を終了する。   In step a14, the control means 8 controls the display 9 to acquire the seating position information indicating whether the user is seated in the drive seat or the passenger seat, and the seating position information is obtained from the fingerprint image. At the same time, it is registered in the fingerprint determination table 31. The display 9 includes arm detection sensors at both ends in the vehicle width direction when the car navigation system 2 is mounted on the vehicle. When the user sits in the driver's seat and presses the touch panel 11 with a finger, the arm is detected by the arm detection sensor provided near the driver's seat, and sits in the passenger seat and presses the touch panel 11 with the finger. In this case, since the arm portion is detected by the arm portion detection sensor provided near the passenger seat, the display 9 can acquire the seating position information based on the detection result of the arm portion detection sensor. This arm part detection sensor is realized by, for example, an infrared sensor that detects infrared rays emitted from the user's body. When the seating position information is registered, this process ends.

図3(3)は、指紋画像の指紋判定テーブル31への登録が正常に完了したことを利用者に報知するための表示画面である。ディスプレイ9は、ステップa14において指紋画像の指紋判定テーブル31への登録が正常に完了すると、図3(3)に示す画像を表示画面に出力して、指紋画像を登録する処理を終了する。   FIG. 3C is a display screen for notifying the user that registration of the fingerprint image in the fingerprint determination table 31 has been completed normally. When the registration of the fingerprint image in the fingerprint determination table 31 is normally completed in step a14, the display 9 outputs the image shown in FIG. 3 (3) to the display screen and ends the process of registering the fingerprint image.

ステップa12では、ステップa6およびステップa10において登録した指紋画像が、指紋判定テーブル31に既に登録されている指紋画像であると命令生成部12が判断すると、ステップa16に移行する。ステップa16では、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、登録しようとしている指紋画像が既に登録されている旨を利用者に報知するコーション表示を行う。具体的には、ディスプレイ9は、「あなたの指紋データは既に登録されています」という文字情報を表示してステップa17に移行する。ステップa17では、指紋画像の重複登録を防ぐために、ステップa6およびステップa10において指紋判定テーブル31に登録した指紋画像を消去して、指紋画像を登録する処理を終了する。   In step a12, when the command generation unit 12 determines that the fingerprint image registered in step a6 and step a10 is a fingerprint image already registered in the fingerprint determination table 31, the process proceeds to step a16. In step a16, the display 9 performs caution display for notifying the user that the fingerprint image to be registered is already registered based on the image information given from the drawing engine 23. Specifically, the display 9 displays character information “Your fingerprint data has already been registered” and proceeds to step a17. In step a17, in order to prevent duplicate registration of fingerprint images, the fingerprint images registered in the fingerprint determination table 31 in steps a6 and a10 are erased, and the processing for registering the fingerprint image ends.

以上説明した処理を行うことによって指紋判定テーブル31に指紋画像を登録することができる。特に入力装置1は、表示画面上において各指を載置すべき載置領域を表示することによって、指紋画像を登録するための入力インタフェースとして機能するので、利用者が載置領域に対応する指を載置するだけで各指の指紋画像を登録することができる。このように読込んだ指紋画像がどの指の指紋に対応するかを逐次利用者が入力する手間を省くことができる。このように五指の全ての指紋画像を登録するので、指紋判定テーブル31を参照することによって、タッチパネル11が感圧する指の種類、すなわちどの指で利用者が表示画面を押圧したかを判定することができる。   By performing the processing described above, a fingerprint image can be registered in the fingerprint determination table 31. In particular, the input device 1 functions as an input interface for registering a fingerprint image by displaying a placement area where each finger is to be placed on the display screen, so that the user can select a finger corresponding to the placement area. The fingerprint image of each finger can be registered simply by placing the. Thus, it is possible to save time and effort for the user to sequentially input which finger fingerprint the read fingerprint image corresponds to. Since all the fingerprint images of the five fingers are registered in this way, by referring to the fingerprint determination table 31, it is possible to determine the type of finger that the touch panel 11 senses pressure, that is, with which finger the user pressed the display screen. Can do.

図4は、モードの階層構造を示す模式図である。本実施の形態のカーナビゲーションシステム2は、特定の操作の処理を表すモードが階層化されている。最上階のモードに地図モード51と、AV操作モードと、電話モードと、G−Bookモードとの4つのモードがある。さらに地図モード51の下層には、目的地検索モード52および交通情報表示モード53などがある。さらに目的地検索モード52の下層には、地名から検索するモード54、ジャンルから検索するモード55、および電話番号から検索するモード56などがある。このように各モードが階層化されているので、最上階のモードを除く各モードは、上層のモードに関連付けられている。たとえば地名から検索するモード54は、地図モード51および目的地検索モード52の順に関連付けられている。   FIG. 4 is a schematic diagram showing a hierarchical structure of modes. In the car navigation system 2 according to the present embodiment, modes representing specific operation processes are hierarchized. There are four modes in the top floor mode: a map mode 51, an AV operation mode, a telephone mode, and a G-Book mode. Further, a destination search mode 52 and a traffic information display mode 53 are provided below the map mode 51. Further, below the destination search mode 52 are a mode 54 for searching from place names, a mode 55 for searching from genres, a mode 56 for searching from telephone numbers, and the like. Since the modes are hierarchized in this way, each mode except the top floor mode is associated with the upper layer mode. For example, the search mode 54 based on the place name is associated with the map mode 51 and the destination search mode 52 in this order.

地名から検索するモード54を選択する操作命令を入力するには、地図モード51、目的地検索モード52および地名から検索するモード54をこの順に選択することによって可能だが、本実施の形態では、表示画面上の指の操作と地名から検索するモード54とを対応させることによって、容易に地名から検索するモード54を選択する操作命令を入力することを可能にしている。   In order to input an operation command for selecting the search mode 54 from the place name, the map mode 51, the destination search mode 52, and the search mode 54 from the place name can be selected in this order. By associating the finger operation on the screen with the mode 54 for searching from the place name, it is possible to easily input an operation command for selecting the mode 54 for searching from the place name.

図5は、表示画面上の指の操作と、操作命令とを対応させて操作命令対応テーブル34に登録する処理を表すフローチャートである。図6は、表示画面上の指の操作と、操作命令とを対応させて操作命令対応テーブル34に登録する処理を行うときの表示画面を表す図である。   FIG. 5 is a flowchart showing a process of registering the operation of the finger on the display screen in association with the operation command in the operation command correspondence table 34. FIG. 6 is a diagram showing a display screen when processing for registering the operation of the finger on the display screen and the operation command in the operation command correspondence table 34 is performed.

本実施の形態では、一例として表示画面上の指の操作と、操作命令とを対応させて登録するためのモード(以後、操作登録モードという)の表示画面に基づいて、登録するモードを選択する処理について説明する。利用者が操作登録モードの表示画面の指示にしたがって登録すべきモードを選択する入力を行うと、操作命令対応テーブル34に登録する処理が開始してステップb1に移行する。   In this embodiment, as an example, a mode to be registered is selected based on a display screen of a mode (hereinafter referred to as an operation registration mode) for registering a finger operation on the display screen in association with an operation command. Processing will be described. When the user inputs to select a mode to be registered in accordance with an instruction on the display screen of the operation registration mode, a process of registering in the operation command correspondence table 34 starts and the process proceeds to step b1.

図6(1)〜(3)は、一例として地名から検索するモード54を選択するときの表示画面を表す図である。まず利用者が表示画面に表示される複数のメニューのなかから操作登録モードを選択すると、操作登録モードに遷移して、図6(1)に示す操作登録画面が表示される。モードを選択する場合には、表示画面上においてモードを示すアイコンの表示領域を押下し、モードの下層のモードを表示させるには、各モードから延びる矢印の表示領域を押下する。まず地図モード51の下層のモードを表示させるために、地図モード51を示すアイコン35から延びる矢印(図6(1)において右向きの矢印)36を利用者が押下すると、図6(2)に示す地図モード51の下層のモードの画面が表示される。目的地検索モード52の下層のモードを表示させるために、目的地検索モード52を示すアイコン37から延びる矢印(図6(2)において右向きの矢印)38を利用者が押下すると、図6(3)に示す目的地検索モード52の下層のモードの画面が表示される。次に地名から検索するモード54を選択するために、地名から検索するモード54を示すアイコン39の表示領域を押下する。このようにしてカーナビゲーションシステム2に地名から検索するモード54が選択されて入力される。   FIGS. 6 (1) to 6 (3) are diagrams showing display screens when the mode 54 for searching from place names is selected as an example. First, when the user selects an operation registration mode from a plurality of menus displayed on the display screen, the operation registration mode is displayed, and the operation registration screen shown in FIG. 6A is displayed. When selecting a mode, the display area of the icon indicating the mode is pressed on the display screen, and in order to display the mode below the mode, the display area of the arrow extending from each mode is pressed. First, in order to display a mode below the map mode 51, when the user presses an arrow 36 extending from the icon 35 indicating the map mode 51 (a right-pointing arrow in FIG. 6A), the user is shown in FIG. A screen of a mode below the map mode 51 is displayed. When the user presses an arrow (an arrow pointing to the right in FIG. 6 (2)) 38 extending from the icon 37 indicating the destination search mode 52 in order to display a mode below the destination search mode 52, FIG. The screen of the mode below the destination search mode 52 shown in FIG. Next, in order to select the mode 54 for searching from the place name, the display area of the icon 39 indicating the mode 54 for searching from the place name is pressed. In this way, the mode 54 for searching from the place name is selected and input to the car navigation system 2.

ステップb1では、制御手段8は、入力されたモードの選択を表す情報を読込み、ステップb2に移行する。ステップb2では、制御手段8は、操作命令対応テーブル34を参照して、選択されたモードに対応する指の操作が既に登録されているか否かを判断し、登録されている場合にはステップb3に移行し、登録されていなければステップb5に移行する。   In step b1, the control means 8 reads information representing the input mode selection, and proceeds to step b2. In step b2, the control means 8 refers to the operation command correspondence table 34 to determine whether or not a finger operation corresponding to the selected mode has already been registered. If not registered, the process proceeds to step b5.

ステップb3では、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、選択されたモードに対応する操作が既に登録されている旨を報知するとともに、このモードを再登録する意志があるか否かを利用者に選択させるためのコーション表示を行う。具体的には、ディスプレイ9は、「選択したモード△△は、既に操作方法が登録されています。再登録しますか?」という文字情報を表示する。このときディスプレイ9は、表示画面に「再登録する」と「再登録しない」とを表す文字情報を表示する。次にステップb4に移行する。ステップb4では、制御手段8は、選択したモードを再登録するか否かを判断し、再登録する場合にはステップb5に移行する。再登録しない場合にはステップb1に移行して、再度登録すべきモードを選択する処理を繰返す。制御手段8による再登録するか否かの判断は、利用者が表示画面上に表示される「再登録する」および「再登録しない」のいずれの表示領域を押圧したかに基づいて行われる。   In step b3, the display 9 informs that the operation corresponding to the selected mode is already registered based on the image information given from the drawing engine 23, and is there an intention to re-register this mode? A caution display is displayed to let the user select whether or not. Specifically, the display 9 displays character information “The operation mode has already been registered for the selected mode ΔΔ. Do you want to re-register?”. At this time, the display 9 displays character information indicating “re-register” and “not re-register” on the display screen. Next, the process proceeds to step b4. In step b4, the control means 8 determines whether or not to re-register the selected mode. When re-registering, the process proceeds to step b5. When not re-registering, it transfers to step b1 and repeats the process which selects the mode which should be registered again. The determination as to whether or not to re-register by the control means 8 is made based on which display area “re-register” or “not re-register” displayed on the display screen is pressed by the user.

ステップb5では、タッチパネル11は、表示画面上の指の動きを読込んでステップb6に移行する。このときタッチパネル11は、表示画面上の指の動きを読込むと同時に、指紋画像も読込む。ステップb6では、制御手段8は、利用者が表示画面上における指の動きの入力を完了したか否かを判断し、まだ入力が完了していなければステップb5に移行して指の動きを読込む処理を継続する。ステップb6において、利用者が表示画面上における指の動きの入力を完了したと制御手段8が判断するとステップb7に移行する。   In step b5, the touch panel 11 reads the movement of the finger on the display screen and proceeds to step b6. At this time, the touch panel 11 reads the finger movement on the display screen and also reads the fingerprint image. In step b6, the control means 8 determines whether or not the user has completed the input of the finger movement on the display screen. If the input has not been completed yet, the control means 8 proceeds to step b5 and reads the finger movement. Continue processing. In step b6, when the control means 8 determines that the user has completed the input of the finger movement on the display screen, the process proceeds to step b7.

図6(4)および(5)は、表示画面上の指の動きを読み込むときに表示手段3の表示画面に表示される画像である。表示手段3の表示画面の長手方向の一方を左向き、長手方向の他方を右向きと規定する。また表示手段3の厚み方向および表示手段3の表示画面の長手方向に垂直な上下方向の一方を上向き、上下方向の他方を下向きと規定する。ディスプレイ9は、利用者に登録する指の操作を行うべき領域42を表示するとともに、前記領域42において登録する指の操作を行わせる指示を報知する。利用者は登録する操作を行うべき領域42において表示画面を押圧しながら登録する指の動きを行った後に、「OK」を表した表示領域を押圧する。この「OK」を表した表示領域が押圧されると、制御手段8は、指の動きの入力が完了したと判断する。   6 (4) and 6 (5) are images displayed on the display screen of the display means 3 when reading a finger movement on the display screen. One of the longitudinal directions of the display screen of the display means 3 is defined as leftward, and the other of the longitudinal directions is defined as rightward. One of the vertical direction perpendicular to the thickness direction of the display means 3 and the longitudinal direction of the display screen of the display means 3 is defined as upward, and the other in the vertical direction is defined as downward. The display 9 displays a region 42 where a finger operation to be registered is to be performed for the user, and notifies an instruction to perform a finger operation to be registered in the region 42. The user moves the finger to be registered while pressing the display screen in the area 42 where the registration operation is to be performed, and then presses the display area representing “OK”. When the display area representing “OK” is pressed, the control means 8 determines that the input of the finger movement has been completed.

ステップb8では、命令生成部12は、読込んだ指の動きおよび指の種類を分析する入力分析を行う。具体的には命令生成部12は、ステップb5において読込んだ指紋画像と、指紋判定テーブル31に登録された指紋画像とを照合して、タッチパネル11を押圧した指の種類を判定する。つまり左右のいずれの手のどの指で指の操作を行うべき領域42が押圧されたかを判断する。また命令生成部12は、表示画面上における指の動きを、平面における上下左右の4つの向きを用いて表現する。たとえば指の軌跡の接線の向きを、上下左右の4つの向きのいずれかに近似する。たとえば図6(5)の登録する操作を行うべき領域42内に描かれた指の動きの軌跡は、下(↓)向きの軌跡に連続して右(→)向きの軌跡を辿ったと判定することができる。   In step b8, the command generator 12 performs input analysis for analyzing the read finger movement and finger type. Specifically, the command generation unit 12 compares the fingerprint image read in step b5 with the fingerprint image registered in the fingerprint determination table 31, and determines the type of finger that pressed the touch panel 11. That is, it is determined which finger of the left or right hand has pressed the area 42 where the finger should be operated. In addition, the command generation unit 12 expresses the movement of the finger on the display screen using four directions of up, down, left, and right on the plane. For example, the direction of the tangent line of the finger trajectory is approximated to one of four directions, up, down, left, and right. For example, it is determined that the trajectory of the finger movement drawn in the region 42 to be registered in FIG. 6 (5) follows the trajectory in the right (→) direction following the trajectory in the downward (↓) direction. be able to.

ステップb8では、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、入力分析を行った結果をコーション表示する。具体的には、ディスプレイ9は、「○指で、□□という操作がされました」という文字情報を表示する。図6(5)に示す一例では、ディスプレイ9は、「中指で、↓→という操作がされました」という文字情報を表示して、中指で下(↓)向き、右(→)向きの一連の指の操作が行われたことを報知する。次にステップb9に移行する。   In step b8, the display 9 displays the result of the input analysis based on the image information given from the drawing engine 23 as a caution display. Specifically, the display 9 displays character information “An operation of □□ was performed with a ○ finger”. In the example shown in FIG. 6 (5), the display 9 displays the character information “The operation of ↓ → was performed with the middle finger”, and a series of downward (↓) direction and right (→) direction with the middle finger. It is notified that the operation of the finger is performed. Next, the process proceeds to step b9.

ステップb9では、命令生成部12は、操作命令対応テーブル34を参照して、ステップb7において分析された指の操作に対応する操作指令が既に登録されているか否かを判断し、既に登録されていればステップb10に移行する。ステップb10では、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、既に操作命令対応テーブル34に登録された指の操作と同じ操作に対応する操作指令が既に存在する旨を利用者に報知するとともに、この指の操作をステップb1で選択された本モードに対応させて操作命令対応テーブル34に登録するか否かの利用者の意志の入力を促すコーション表示を行う。具体的には、ディスプレイ9は、「モード○○に同様の操作が登録されています。本モードの操作を登録しますか?」という文字情報を表示してステップ11に移行する。ステップb11では、制御手段8は、本モードに対して、ステップb7において分析された指の操作および指の種類を登録するか否かを判断し、登録しない場合にはステップb5に移行して、再度指の動きを読込む。これによって、1つの指の操作に対して、複数の異なる操作命令が対応して操作命令対応テーブル34に登録されることを防ぐことができる。   In step b9, the command generation unit 12 refers to the operation command correspondence table 34 to determine whether or not the operation command corresponding to the finger operation analyzed in step b7 has already been registered, and has already been registered. Then, the process proceeds to step b10. In step b10, the display 9 informs the user that an operation command corresponding to the same operation as the finger operation already registered in the operation command correspondence table 34 already exists based on the image information given from the drawing engine 23. At the same time, a caution display that prompts the user to input whether or not to register this finger operation in the operation command correspondence table 34 corresponding to the present mode selected in step b1 is performed. Specifically, the display 9 displays character information “Same operation is registered in mode XX. Do you want to register the operation in this mode?”, And the process proceeds to step 11. In step b11, the control means 8 determines whether or not to register the finger operation and the finger type analyzed in step b7 for this mode. If not, the control means 8 proceeds to step b5. Read the finger movement again. As a result, it is possible to prevent a plurality of different operation commands from being registered in the operation command correspondence table 34 corresponding to the operation of one finger.

ステップb11において、本モードに対してステップb7において分析された指の操作を操作命令対応テーブル34に登録すると制御手段8が判断すると、ステップb12に移行する。ステップb11における制御手段8の判断は、利用者の表示画面上の操作に基づいて行われる。   In step b11, when the control means 8 determines that the finger operation analyzed in step b7 is registered in the operation command correspondence table 34 for this mode, the process proceeds to step b12. The determination of the control means 8 in step b11 is made based on the user's operation on the display screen.

ステップb12では、制御手段8は、ステップb7において分析された指の操作に対応して操作命令対応テーブル34に既に登録されているモードを無効化してステップb13に移行する。ステップb13では、ディスプレイ9は、無効化したモードの操作を報知するコーション表示を行う。具体的にはディスプレイ9は、「モード○○の操作を無効にしました」ということを表す文字情報を表示して、ステップb14に移行する。   In step b12, the control means 8 invalidates the mode already registered in the operation command correspondence table 34 corresponding to the finger operation analyzed in step b7, and proceeds to step b13. In step b13, the display 9 performs a caution display for notifying the invalidated mode operation. Specifically, the display 9 displays character information indicating that “mode XX operation has been disabled”, and proceeds to step b14.

ステップb9において操作命令対応テーブル34に登録されていない操作が入力されたと命令生成部12が判断すると、ステップb14に移行する。   When the command generation unit 12 determines that an operation not registered in the operation command correspondence table 34 is input in step b9, the process proceeds to step b14.

図6(6)は、本モードと、ステップb7において分析した指の操作とを対応させて操作命令対応テーブル34に登録するか否かを確認する表示画面を示す。利用者が表示画面において「OK」を表示する表示領域を押圧すると、ステップb14では、命令生成部12は、本モードと、ステップb7において分析した指の操作とを対応させて操作命令対応テーブル34に登録するとともに、軌跡判定テーブル32にステップb7において分析した指の操作を軌跡情報として登録してステップb15に移行する。ステップb15では、ディスプレイ9は、描画エンジン23から与えられる画像情報に基づいて、登録した操作と、この操作に対応する操作命令とを報知するコーション表示を行う。具体的には、ディスプレイ9は、「○指による操作□□をモード△△に登録しました」という文字情報を表示して、表示画面上の指の操作と、操作命令とを対応させて操作命令対応テーブル34に登録する処理を終了する。   FIG. 6 (6) shows a display screen for confirming whether or not this mode and the finger operation analyzed in step b7 are registered in the operation command correspondence table 34 in correspondence with each other. When the user presses the display area displaying “OK” on the display screen, in step b14, the command generation unit 12 associates the present mode with the operation of the finger analyzed in step b7 to match the operation command correspondence table 34. And the finger operation analyzed in step b7 is registered as trajectory information in the trajectory determination table 32, and the process proceeds to step b15. In step b15, the display 9 performs caution display for notifying the registered operation and an operation command corresponding to the operation based on the image information given from the drawing engine 23. Specifically, the display 9 displays the character information “Owner's finger operation □□ registered in mode △△”, and operates the finger operation on the display screen in correspondence with the operation command. The process of registering in the instruction correspondence table 34 is terminated.

図6(7)は、登録した操作と、この操作に対応する操作命令とを報知するコーション表示を表す表示画面である。   FIG. 6 (7) is a display screen showing a caution display for notifying the registered operation and the operation command corresponding to this operation.

以上説明した処理を行うことによって、操作命令対応テーブル34に、表示画面上における指の操作と、操作命令とを対応させて登録することができる。本実施の形態では、指の種類および指の動きと、操作命令とを対応させて操作命令対応テーブル34に登録する処理について説明したが、指の種類、軌跡情報および押下時間情報の3つの情報のうちから少なくとも1つを選択して、選択した情報と、操作命令とを対応させて操作命令対応テーブル34に登録することができる。たとえば指の種類および指の動きに押下時間を加えて、指の種類、指の動き、およびこの指の動きに要する押下時間と、操作命令とを対応させて操作命令対応テーブル34に登録することができる。具体的には、ステップb7において入力分析を行うときに、指の種類および指の動きに加えて押下時間情報もタッチパネル11から取得し、本モードに対して、指の種類、軌跡情報、および押下時間情報を対応して操作命令対応テーブル34に登録する。またたとえば押下時間情報のみに操作命令を対応させて操作命令対応テーブル34に登録することができる。   By performing the processing described above, the operation of the finger on the display screen and the operation command can be registered in the operation command correspondence table 34 in association with each other. In the present embodiment, the process of registering the finger type / finger movement and the operation command in association with the operation command correspondence table 34 has been described, but three types of information, the finger type, the trajectory information, and the pressing time information, are described. At least one of them can be selected, and the selected information can be registered in the operation command correspondence table 34 in association with the operation command. For example, by adding the pressing time to the finger type and finger movement, the finger type, finger movement, and the pressing time required for the finger movement are registered in the operation command correspondence table 34 in association with the operation command. Can do. Specifically, when input analysis is performed in step b7, in addition to the finger type and finger movement, the pressing time information is also acquired from the touch panel 11, and the finger type, trajectory information, and pressing information are obtained for this mode. Corresponding time information is registered in the operation command correspondence table 34. Further, for example, an operation command can be associated with only the pressing time information and registered in the operation command correspondence table 34.

また実施の一例として1本の指の動きに対する軌跡情報を登録するときの処理について説明したが、たとえば複数の指を同時に表示画面に押圧したときの複数の指の種類と、操作命令とを対応させて操作命令対応テーブル34に登録することもできる。さらに複数の指を同時に表示画面に押圧して、これら複数の指の表示画面における指の操作も軌跡情報として操作命令に対応させて操作命令対応テーブル34に登録することもできる。   In addition, as an example of the implementation, the processing when registering the trajectory information for the movement of one finger has been described. For example, when a plurality of fingers are simultaneously pressed on the display screen, the types of fingers are associated with the operation commands It is also possible to register it in the operation command correspondence table 34. Furthermore, by pressing a plurality of fingers simultaneously on the display screen, finger operations on the display screens of the plurality of fingers can also be registered in the operation command correspondence table 34 as locus information corresponding to the operation commands.

本実施の形態の入力装置1では、生体情報に基づいて指の種類を認証し、指の種類に基づいて操作命令を入力するモードと、指の種類に拘わりなくタッチパネル11上の指の動きに基づいて操作命令を入力する通常入力モードとがある。具体的には、指紋画像に基づいて指の種類を認証し、認証した指の種類に基づいて操作命令を入力する指紋入力モードと、通常入力モードとがある。通常入力モードと指紋入力モードとは、利用者が特定の操作をすることによって切換え可能である。本実施の形態の入力装置1では、タッチパネル11は、通常入力モードと指紋入力モードとを切換えるボタンを備える。具体的には、このボタンは、表示画面上に前記ボタンを表示する表示領域を設け、この表示領域内において利用者の指の押下をタッチパネル11が感圧することによって実現される。   In the input device 1 according to the present embodiment, a finger type is authenticated based on biometric information, an operation command is input based on the finger type, and a finger movement on the touch panel 11 is performed regardless of the finger type. There is a normal input mode in which an operation command is input based on this. Specifically, there are a fingerprint input mode in which a finger type is authenticated based on a fingerprint image, and an operation command is input based on the authenticated finger type, and a normal input mode. The normal input mode and the fingerprint input mode can be switched by the user performing a specific operation. In input device 1 of the present embodiment, touch panel 11 includes a button for switching between a normal input mode and a fingerprint input mode. Specifically, this button is realized by providing a display area for displaying the button on the display screen, and the touch panel 11 sensing pressure of the user's finger in the display area.

図7は、利用者が表示画面上において指を操作したときに、この操作に基づいて操作命令を生成する処理を表すフローチャートである。指紋入力モードにおいて利用者が表示画面を押圧して、タッチパネル11が感圧すると、ステップc1に移行する。ステップc1では、タッチパネル11は、指紋画像を読込んで命令生成部12に与え、ステップc2に移行する。ステップc2では、命令生成部12は、指紋の判定を行う。具体的には命令生成部12は、指紋判定テーブル31に登録された指紋画像を参照して、読込んだ指紋画像を認証してステップc3に移行する。ステップc3では、命令生成部12は、読込んだ指紋画像が、指紋判定テーブル31に登録済みの一または複数の指紋画像のうちの1つの指紋画像と一致するか否かを判断し、一致する指紋画像があればステップc4に移行し、一致する指紋画像がなければステップc5に移行する。   FIG. 7 is a flowchart showing a process of generating an operation command based on this operation when the user operates a finger on the display screen. When the user presses the display screen in the fingerprint input mode and the touch panel 11 senses pressure, the process proceeds to step c1. In step c1, the touch panel 11 reads the fingerprint image and gives it to the command generation unit 12, and proceeds to step c2. In step c2, the command generator 12 determines a fingerprint. Specifically, the command generation unit 12 refers to the fingerprint image registered in the fingerprint determination table 31, authenticates the read fingerprint image, and proceeds to step c3. In step c3, the command generation unit 12 determines whether or not the read fingerprint image matches one fingerprint image of one or more fingerprint images registered in the fingerprint determination table 31. If there is a fingerprint image, the process proceeds to step c4, and if there is no matching fingerprint image, the process proceeds to step c5.

ステップc4では、命令生成部12は、指紋フラグに数値「1」を代入する。この指紋フラグは、値が「1」のときに読込んだ指紋画像が指紋判定テーブル31に登録済みの指紋画像に一致することを表し、値が「0」のときに読込んだ指紋画像が指紋判定テーブル31に登録済みの指紋画像に一致しないことを表す。次にステップc7に移行する。   In step c4, the command generator 12 substitutes a numerical value “1” for the fingerprint flag. This fingerprint flag indicates that the fingerprint image read when the value is “1” matches the fingerprint image registered in the fingerprint determination table 31, and the fingerprint image read when the value is “0”. This indicates that the fingerprint image does not match the fingerprint image registered in the fingerprint determination table 31. Next, the process proceeds to step c7.

読込んだ指紋画像が指紋判定テーブル31に登録済みの指紋画像に一致しないとしてステップc5に移行すると、制御手段8は、指紋入力モードから通常入力モードに移行する。このように指紋画像が登録済みの指紋画像に一致せずに指の種類を判定することができない場合には、入力装置1は、通常のタッチパネルを備える入力装置として機能する。たとえば指ではない棒状の物によって表示画面を押圧したときにも、入力装置1は通常のタッチパネルを備える入力装置として機能する。次にステップc6に移行して、命令生成部12は、指紋フラグに「0」を代入する。次にステップc7に移行する。   If the read fingerprint image does not match the fingerprint image registered in the fingerprint determination table 31 and the process proceeds to step c5, the control unit 8 shifts from the fingerprint input mode to the normal input mode. In this way, when the fingerprint image does not match the registered fingerprint image and the finger type cannot be determined, the input device 1 functions as an input device including a normal touch panel. For example, even when the display screen is pressed by a stick-like object that is not a finger, the input device 1 functions as an input device including a normal touch panel. Next, proceeding to step c6, the command generation unit 12 substitutes “0” for the fingerprint flag. Next, the process proceeds to step c7.

ステップc7では、命令生成部12は、タッチパネル11から与えられる利用者の軌跡情報を読込んで、軌跡情報の判定を行う。具体的には利用者の指が表示画面を押圧してから離間するまでの間に表示画面を辿る利用者の指の軌跡を表す軌跡情報と、軌跡判定テーブル32に登録された指の軌跡情報とが一致するか否かを判定する。次にステップc8に移行する。ステップc8では、命令生成部12は、読込んだ軌跡情報が軌跡判定テーブル32に登録済みの軌跡情報のいずれか1つに一致するか否かを判定し、一致する軌跡情報がある場合にはステップc9に移行し、一致する軌跡情報がない場合にはステップc10に移行する。   In step c7, the command generation unit 12 reads the user's trajectory information given from the touch panel 11 and determines the trajectory information. Specifically, the trajectory information representing the trajectory of the user's finger that traces the display screen from when the user's finger presses the display screen until it is separated, and the trajectory information of the finger registered in the trajectory determination table 32 Is matched. Next, the process proceeds to step c8. In step c8, the command generation unit 12 determines whether or not the read trajectory information matches any one of the trajectory information registered in the trajectory determination table 32, and if there is matching trajectory information. The process proceeds to step c9, and if there is no matching trajectory information, the process proceeds to step c10.

ステップc9では、命令生成部12は、軌跡フラグに数値「1」を代入する。この軌跡フラグは、値が「1」のときに読込んだ軌跡が軌跡判定テーブル32に登録済みの軌跡情報に一致することを表し、値が「0」のときに読込んだ軌跡が軌跡判定テーブル32に登録済みの軌跡に一致しないことを表す。次にステップc11に移行する。ステップc10では、命令生成部12は、軌跡フラグに「0」を代入してステップc11に移行する。   In step c9, the instruction generator 12 substitutes a numerical value “1” for the trajectory flag. This trajectory flag indicates that the trajectory read when the value is “1” matches the trajectory information registered in the trajectory determination table 32, and the trajectory read when the value is “0” is the trajectory determination. This indicates that the trajectory registered in the table 32 does not match. Next, the process proceeds to step c11. In step c10, the instruction generator 12 substitutes “0” for the trajectory flag and proceeds to step c11.

ステップc11では、命令生成部12は、タッチパネル11から与えられる押下時間情報を読込んで、押下時間の判定を行う。具体的には、利用者の指が表示画面を押圧してから離間するまでの間の時間が、押下時間判定テーブル33に登録された予め定める範囲の押下時間内か否かの判定を行う。次にステップc12に移行し、命令生成部12は、読込んだ押下時間が、押下時間判定テーブル33に登録済みの予め定める範囲の押下時間内か否かを判定し、予め定める範囲の押下時間内である場合にはステップc13に移行し、予め定める範囲の押下時間外の場合にはステップc14に移行する。   In step c11, the command generation unit 12 reads the pressing time information given from the touch panel 11 and determines the pressing time. Specifically, it is determined whether or not the time from when the user's finger presses the display screen until the user's finger is separated is within a predetermined range of pressing time registered in the pressing time determination table 33. Next, the process proceeds to step c12, where the command generation unit 12 determines whether or not the read pressing time is within a pressing time within a predetermined range registered in the pressing time determination table 33, and the pressing time within the predetermined range. If it is within the predetermined range, the process proceeds to step c13, and if it is outside the predetermined range, the process proceeds to step c14.

ステップc13では、命令生成部12は、押下時間フラグに数値「1」を代入してステップc15に移行する。押下時間フラグは、値が「1」のときに読込んだ押下時間が押下時間判定テーブル33に登録済みの予め定める範囲の押下時間内であって、登録済みの押下時間に一致することを表し、値が「0」のときに読込んだ押下時間が押下時間判定テーブル33に登録済みの予め定める範囲の押下時間外であって、登録済みの押下時間に一致しないことを表す。ステップc14では、命令生成部12は、押下時間フラグに数値「0」を代入してステップc15に移行する。   In step c13, the instruction generating unit 12 assigns a numerical value “1” to the pressing time flag and proceeds to step c15. The pressing time flag indicates that the pressing time read when the value is “1” is within the pressing time within a predetermined range registered in the pressing time determination table 33 and matches the registered pressing time. The pressing time read when the value is “0” is outside the pressing time within a predetermined range registered in the pressing time determination table 33 and does not match the registered pressing time. In step c14, the instruction generating unit 12 assigns a numerical value “0” to the pressing time flag and proceeds to step c15.

ステップc15では、命令生成部12は、操作命令対応テーブル34を参照して操作命令を生成する。具体的には命令生成部12は、指紋フラグ、軌跡フラグおよび押下時間フラグに基づいて、登録済みの指紋画像、軌跡情報および押下時間に基づいて操作命令対応テーブル34に登録された操作命令を生成して命令受付部13に出力する。   In step c15, the instruction generation unit 12 refers to the operation instruction correspondence table 34 and generates an operation instruction. Specifically, the command generation unit 12 generates an operation command registered in the operation command correspondence table 34 based on the registered fingerprint image, the track information, and the press time based on the fingerprint flag, the track flag, and the press time flag. And output to the command receiving unit 13.

表1は、指紋フラグ、軌跡フラグおよび押下時間フラグの各フラグの値と、ステップc15において参照する情報との対応関係を表す表である。   Table 1 is a table showing the correspondence relationship between the values of the fingerprint flag, the trajectory flag, and the pressing time flag and the information referred to in step c15.

Figure 2008046692
Figure 2008046692

たとえば指紋フラグ、押下時間フラグおよび軌跡フラグの全ての値が「0」のときには、表示画面上における利用者の指の操作が、登録済みの指紋画像、軌跡情報および押下時間のいずれにも一致しないので、命令生成部12は、単に利用者が表示画面を押圧したときの表示画面上における絶対座標値に基づいて操作命令を生成する。またたとえば指紋フラグ、押下時間フラグおよび軌跡フラグの全ての値が「1」の場合には、表示画面上における利用者の指の操作が、登録済みの指紋画像、軌跡情報および押下時間の全てに一致するので、命令生成部12は、表示画面上を操作した指の種類、指の軌跡および押圧時間に基づいて操作命令を生成する。   For example, when all the values of the fingerprint flag, the pressing time flag, and the trajectory flag are “0”, the user's finger operation on the display screen does not match any of the registered fingerprint image, the trajectory information, and the pressing time. Therefore, the command generation unit 12 generates an operation command based on the absolute coordinate value on the display screen when the user simply presses the display screen. For example, when all the values of the fingerprint flag, the pressing time flag, and the trajectory flag are “1”, the user's finger operation on the display screen is applied to all the registered fingerprint images, the trajectory information, and the pressing time. Since they match, the command generation unit 12 generates an operation command based on the type of finger operated on the display screen, the trajectory of the finger, and the pressing time.

命令生成部12が操作命令を生成して命令受付部13に出力すると、操作命令を生成する処理を終了する。   When the command generation unit 12 generates an operation command and outputs it to the command reception unit 13, the process of generating the operation command is terminated.

以上説明した本実施の形態の入力装置1によれば、命令生成部12が操作命令を生成して命令受付部13に出力すると、命令受付部13は、与えられた操作命令に基づいて操作対象制御部21を制御する。これによってカーナビゲーションシステム2は、利用者の表示画面における指の操作に基づいた処理を行う。このように利用者が表示画面上において特定の操作を行うだけで、煩雑な操作をすることなく、利用者の意図する操作命令を容易に入力することができる。また指の種類だけでなく、指の動きに応じた操作命令が生成されるので、指の数以上の異なる操作命令を指の動きに応じて入力することが可能となり、ボタンの数を抑制することができる。したがって装置本体の部品点数の低減を図るとともに入力操作を極力簡単化した入力装置1を実現することができる。また部品点数の低減を図ることによって構造を簡単化することが可能となるので、入力装置1の小形化を図ることができる。   According to the input device 1 of the present embodiment described above, when the command generation unit 12 generates an operation command and outputs the operation command to the command reception unit 13, the command reception unit 13 operates based on the given operation command. The control unit 21 is controlled. Thereby, the car navigation system 2 performs processing based on the operation of the finger on the display screen of the user. In this way, the user can easily input an operation command intended by the user without performing a complicated operation only by performing a specific operation on the display screen. Also, not only the type of finger but also an operation command corresponding to the movement of the finger is generated, so that it becomes possible to input an operation command different from the number of fingers according to the movement of the finger, and the number of buttons is suppressed. be able to. Therefore, it is possible to realize the input device 1 that can reduce the number of parts of the device body and simplify the input operation as much as possible. In addition, since the structure can be simplified by reducing the number of parts, the size of the input device 1 can be reduced.

また表示画面上における指の操作に応じて操作命令が入力されるので、利用者は、表示画面を見ることなく操作命令を入力することができる。これによって操作命令を入力しながら、視線を表示画面以外に合わせて他の作業をすることができ、利用者の利便性が向上する。   In addition, since the operation command is input according to the operation of the finger on the display screen, the user can input the operation command without looking at the display screen. As a result, it is possible to perform other operations with the line of sight other than the display screen while inputting an operation command, and the convenience for the user is improved.

また本実施の形態の入力装置1によれば、利用者の好みに応じて表示画面上における指の操作と、操作命令とを操作命令対応テーブル34に登録することができる。たとえば利用者の使用頻度の高い操作命令に対応する指の操作を登録することができ、利用者の利便性が向上する。   Further, according to the input device 1 of the present embodiment, it is possible to register the finger operation on the display screen and the operation command in the operation command correspondence table 34 according to the user's preference. For example, a finger operation corresponding to an operation command frequently used by the user can be registered, and convenience for the user is improved.

また本実施の形態の入力装置1によれば、利用者の入力装置1に対する操作を補助する操作補助情報を可視表示するコーション表示を行うことによって、指紋画像および指の動きなどを登録するときに入力装置1に対して利用者が行うべき操作を報知するので、利用者が戸惑うことなく円滑に指紋画像および指の動きなどを登録することができる。   Further, according to the input device 1 of the present embodiment, when a caution display for visually displaying operation assistance information for assisting a user's operation on the input device 1 is performed, a fingerprint image and a finger movement are registered. Since the operation to be performed by the user is notified to the input device 1, it is possible to smoothly register a fingerprint image, a finger movement, and the like without being confused by the user.

また本実施の形態の入力装置1によれば、表示画面上の指の動きを上下左右の4つの向きの指の動きに近似した軌跡情報を検出している。このように表示画面上の指の動きを単純化して表現するので、利用者は、登録された軌跡情報に対応する指の動きを容易に再現することができ、容易に操作命令を入力することができる。仮に指の動きをそのまま軌跡情報として登録すると、登録された指の動きをそのまま再現しない限り操作命令を入力することができず、操作命令を入力する操作が煩雑になる。   Further, according to the input device 1 of the present embodiment, trajectory information that approximates the movement of the finger on the display screen to the movement of the finger in four directions, up, down, left, and right is detected. Since the finger movement on the display screen is expressed in a simplified manner in this way, the user can easily reproduce the finger movement corresponding to the registered trajectory information, and can easily input an operation command. Can do. If the finger movement is registered as trajectory information as it is, an operation command cannot be input unless the registered finger movement is reproduced as it is, and the operation for inputting the operation command becomes complicated.

本実施の形態の入力装置1では、利用者の入力装置1に対する操作を補助する操作補助情報を可視表示するコーション表示を行うが、操作補助情報をスピーカ7から音声として出力してもよい。このように操作補助情報を音声として出力することによって、利用者が表示画面に表示されるコーション表示を読むことなく入力装置1に対する操作を行うことができる。   In the input device 1 according to the present embodiment, caution display for visually displaying the operation assistance information for assisting the user's operation on the input device 1 is performed. However, the operation assistance information may be output from the speaker 7 as sound. As described above, by outputting the operation assistance information as sound, the user can operate the input device 1 without reading the caution display displayed on the display screen.

さらに、タッチパネル11は、操作補助情報を可視表示または音声として出力するか否かを切換えるボタンを備えていてもよい。利用者がこの表示画面に表示されるボタンを押下することによって、利用者の必要に応じて操作補助情報を出力するか否かを切換えるこ
とができ、利用者の利便性が向上する。
Furthermore, the touch panel 11 may include a button for switching whether to output the operation assistance information as a visible display or a sound. When the user presses a button displayed on the display screen, whether or not the operation assistance information is output can be switched according to the user's needs, and the convenience for the user is improved.

本実施の形態の入力装置1では、指紋画像を認証することによって指の種類を判定しているが、指紋画像に限らずに他の生体情報に基づいて指の種類を判定してもよい。たとえば入力装置1は、静脈認証を行うことによって指の種類を判定するようにしてもよい。   In the input device 1 according to the present embodiment, the finger type is determined by authenticating the fingerprint image. However, the finger type may be determined based on other biological information without being limited to the fingerprint image. For example, the input device 1 may determine the type of finger by performing vein authentication.

以上の説明では、モードの選択を行う操作命令と、指の操作とを対応させて操作命令対応テーブル34に登録する処理について説明したが、本実施の形態の入力装置1では、特定のモードにおいて行う指の操作と、この指の操作に対応する操作命令とを対応させて操作命令対応テーブル34に登録することもできる。   In the above description, the operation command for selecting the mode and the processing for registering the operation of the finger in correspondence with the operation command correspondence table 34 have been described. However, in the input device 1 of the present embodiment, in the specific mode. The operation of the finger to be performed and the operation command corresponding to the operation of the finger can also be registered in the operation command correspondence table 34.

図8は、特定のモードにおける表示画面と、各モードにおける各指の動きと、この指の動きに対応する操作命令との対応関係を表す図である。表2は、特定のモードと、各モードにおける各指の動きと、この指の動きに対応する操作命令とを表す表である。本実施の形態の入力装置1では、表2に示す特定のモードと、各モードにおける各指の動きと、この指の動きに対応する操作命令とは、予め対応させて操作命令対応テーブル34に登録されている。   FIG. 8 is a diagram illustrating a correspondence relationship between a display screen in a specific mode, movement of each finger in each mode, and an operation command corresponding to the movement of the finger. Table 2 is a table showing specific modes, movements of fingers in each mode, and operation commands corresponding to the movements of the fingers. In the input device 1 according to the present embodiment, the specific modes shown in Table 2, the movement of each finger in each mode, and the operation command corresponding to the movement of this finger are associated with each other in the operation command correspondence table 34 in advance. It is registered.

Figure 2008046692
Figure 2008046692

表2および図8を参照しながら表示画面上における指の動きと、操作命令との対応関係について説明する。   The correspondence between the finger movement on the display screen and the operation command will be described with reference to Table 2 and FIG.

図8(1)は、基本(地図)モードにおける各指の動きと、操作命令との対応関係を表す。基本(地図)モードでは、表示画面に現在地を含む周辺の地図画面が表示される。たとえばこの基本(地図)モードにおいて表示画面を小指で押圧すると、基本(地図)モードから図8(2)に示すソースダイレクトモードに切換える操作命令が入力され、ソースダイレクトモードに入力モードが切換わる。また図8(1)〜(4)に示す各モードにおいて表示画面を親指で押圧すると、基本(地図)モードに遷移する操作命令が入力されて、基本(地図)モードに遷移する。したがって、基本(地図)モードにおいて表示画面を親指で押圧した場合には、基本(地図)モードを維持する。   FIG. 8A shows the correspondence between the movement of each finger and the operation command in the basic (map) mode. In the basic (map) mode, the surrounding map screen including the current location is displayed on the display screen. For example, when the display screen is pressed with a little finger in this basic (map) mode, an operation command for switching from the basic (map) mode to the source direct mode shown in FIG. 8B is input, and the input mode is switched to the source direct mode. In addition, when the display screen is pressed with the thumb in each mode shown in FIGS. 8A to 8D, an operation command for changing to the basic (map) mode is input, and the mode changes to the basic (map) mode. Therefore, when the display screen is pressed with the thumb in the basic (map) mode, the basic (map) mode is maintained.

図8(2)は、ソースダイレクトモードにおける各指の動きと、操作命令との対応関係を表す。ソースダイレクトモードでは、表示画面に現在地を含む周辺の地図画面が表示される。このソースダイレクトモードにおける表示画面は、基本(地図)モードの表示画面と同じであるが、基本(地図)モードにおいて表示画面を小指で押圧することによってソースダイレクトモードに遷移するので、利用者はソースダイレクトモードか基本(地図)モードかを把握することができる。たとえばこのソースダイレクトモードにおいて、親指または小指を表示画面に押圧すると、ソースダイレクトモードから基本(地図)モードに遷移する操作命令が入力されて、基本(地図)モードに遷移する。またたとえばソースダイレクトモードの表示画面上において薬指で所定の動きを行うと、TV制御部17を操作する操作命令が入力される。またソースダイレクトモードの表示画面上において中指で所定の動きを行うと、Radio制御部17を操作する操作命令が入力される。またソースダイレクトモードの表示画面上において人差指で所定の動きを行うと、CD制御部14、DVD制御部15およびMD制御部16を含むオーディオ制御部を操作する操作命令が入力される。   FIG. 8 (2) shows the correspondence between the movement of each finger and the operation command in the source direct mode. In the source direct mode, a surrounding map screen including the current location is displayed on the display screen. The display screen in the source direct mode is the same as the display screen in the basic (map) mode, but in the basic (map) mode, the display screen is changed to the source direct mode by pressing the display screen with a little finger. Whether direct mode or basic (map) mode can be grasped. For example, in this source direct mode, when a thumb or little finger is pressed on the display screen, an operation command for changing from the source direct mode to the basic (map) mode is input, and the mode changes to the basic (map) mode. For example, when a predetermined movement is performed with the ring finger on the display screen in the source direct mode, an operation command for operating the TV control unit 17 is input. When a predetermined movement is performed with the middle finger on the display screen in the source direct mode, an operation command for operating the radio control unit 17 is input. When a predetermined movement is performed with the index finger on the display screen in the source direct mode, an operation command for operating the audio control unit including the CD control unit 14, the DVD control unit 15, and the MD control unit 16 is input.

表3は、オーディオ操作およびRadio操作とTV操作とに共通のチューナ(Radio/TV)操作と、指の動きと、この指の動きに対応する操作命令との関係を表す表である。   Table 3 is a table showing a relationship between a tuner (Radio / TV) operation common to an audio operation, a Radio operation, and a TV operation, a finger movement, and an operation command corresponding to the finger movement.

Figure 2008046692
Figure 2008046692

たとえばソースダイレクトモードの表示画面において中指で表示画面を押下すると、音楽を再生または停止する操作命令が入力されて、音声情報を再生しているときには音声情報の再生を停止し、音声情報を再生していないときには音声情報の再生を開始する。音声情報を再生しているか否かは、配分管理部24から命令生成部12に与えられる現在の制御状態を表す制御情報に基づいて判断される。またたとえばソースダイレクトモードの表示画面において表示画面を中指で押下しながら右に指を移動すると、次のトラックに移動するトラックアップの操作命令が入力されて、次のトラックに移動する。またたとえばソースダイレクトモードの表示画面において、中指を表示画面に予め定める時間以上押下げ続ける(長押し)と、図8(3)に示すオーディオ再生モードに遷移する操作命令が入力されて、オーディオ再生モードへ遷移する。   For example, when the display screen in the source direct mode is pressed with the middle finger, an operation command for playing or stopping music is input, and when playing back audio information, playback of the audio information is stopped and the audio information is played back. If not, playback of audio information is started. Whether or not the sound information is being reproduced is determined based on control information indicating the current control state given from the distribution management unit 24 to the command generation unit 12. Further, for example, when the finger is moved to the right while pressing the display screen with the middle finger on the display screen in the source direct mode, a track up operation command for moving to the next track is input and moved to the next track. Further, for example, in the source direct mode display screen, when the middle finger is continuously pressed down for a predetermined time (long press) on the display screen, an operation command for switching to the audio playback mode shown in FIG. Transition to mode.

またたとえばソースダイレクトモードの表示画面において人差指で表示画面を長押しすると、図8(4)に示すチューナ再生モードに遷移する。またソースダイレクトモードの表示画面において表示画面を人差指で押下しながら右に指を移動すると、チャンネルを1つ上げて切換えるチャンネルアップの操作命令が入力されて、1つ上のチャンネルに切換わる。またソースダイレクトモードの表示画面において表示画面を人差指で押下しながら右に指を移動して、そのまま長押しすると、受信可能なチャンネルまでチャンネルを1つずつ上げていくオートプリセットの操作命令が入力されて、受信可能なチャンネルに切換わる。またソースダイレクトモードの表示画面において表示画面を人差指で押下しながら左に指を移動すると、チャンネルを1つ下げて切換えるチャンネルダウンの操作命令が入力されて、1つ下のチャンネルに切換わる。またソースダイレクトモードの表示画面において表示画面を人差指で押下しながら左に指を移動して、そのまま長押しすると、受信可能なチャンネルまでチャンネルを1つずつ下げていくオートプリセットの操作命令が入力されて、受信可能なチャンネルに切換わる。   Further, for example, when the display screen is pressed for a long time with the index finger on the display screen in the source direct mode, the mode changes to the tuner reproduction mode shown in FIG. When the finger is moved to the right while pressing the display screen with the index finger on the display screen in the source direct mode, a channel up operation command for switching up one channel is input, and the channel is switched up one channel. Also, on the source direct mode display screen, if you move your finger to the right while pressing the display screen with your index finger and then press and hold it, an auto preset operation command will be input to raise the channel one by one to the receivable channel. Switch to a receivable channel. Further, when the finger is moved to the left while pressing the display screen with the index finger on the display screen in the source direct mode, a channel down operation command for switching the channel down by one is input, and the channel is switched to the next lower channel. On the source direct mode display screen, move the finger to the left while pressing the display screen with your index finger, and press and hold to input an auto-preset operation command that lowers the channel one by one to the receivable channel. Switch to a receivable channel.

図8(3)は、オーディオ再生モードにおける各指の動きと、操作命令との対応関係を表す。図8(4)は、チューナ再生モードにおける各指の動きと、操作命令との対応関係を表す。オーディオ操作モードにおいて利用者が特定の指で表示画面を押下すると、オーディオを操作する操作命令が入力される。またチューナ操作モードにおいて利用者が特定の指で表示画面を押下すると、TV制御部17またはラジオ制御部18に対する操作命令が入力される。   FIG. 8 (3) shows the correspondence between the movement of each finger and the operation command in the audio playback mode. FIG. 8 (4) shows the correspondence between the movement of each finger and the operation command in the tuner playback mode. When the user presses the display screen with a specific finger in the audio operation mode, an operation command for operating the audio is input. When the user presses the display screen with a specific finger in the tuner operation mode, an operation command for the TV control unit 17 or the radio control unit 18 is input.

以上説明したように本実施の形態の入力装置1では、表2に示す特定のモードと、各モードにおける各指の動きと、この指の動きに対応する操作命令とは、予め対応させて操作命令対応テーブル34に登録されている。このように頻繁に使用される操作命令に対応する指の動きを予め登録しておくことによって、利用者が逐次操作命令に対応する指の操作を登録する作業を省略することができ、利用者の利便性が向上する。またこのように操作命令に対応する指の操作を予め登録しておいたとしても、利用者の好みに応じて登録された指の動きを変更して操作命令対応テーブル34に再度登録し直すことができるので、利用者の好みに応じて操作命令に対応する指の操作を変更可能である。   As described above, in the input device 1 according to the present embodiment, the specific modes shown in Table 2, the movement of each finger in each mode, and the operation command corresponding to the movement of the finger are associated with each other in advance. Registered in the instruction correspondence table 34. By registering finger movements corresponding to frequently used operation commands in advance in this way, the user can omit the task of registering finger operations corresponding to sequential operation commands. Improved convenience. In addition, even if the finger operation corresponding to the operation command is registered in advance as described above, the registered finger movement is changed according to the user's preference and re-registered in the operation command correspondence table 34. Therefore, the operation of the finger corresponding to the operation command can be changed according to the user's preference.

本実施の形態の入力装置1では、操作選択モードの表示画面にしたがって利用者がモードを選択するが、現在選択されているモードを選択して、このモードを選択する操作命令と、利用者の表示画面上の指の操作とを対応させて操作命令対応テーブル34に登録してもよい。   In the input device 1 according to the present embodiment, the user selects a mode according to the display screen of the operation selection mode. However, the user selects the currently selected mode and selects the mode, and the user's instruction. A finger operation on the display screen may be associated with the operation command correspondence table 34.

図9は、モードの階層構造を示す模式図である。図10は、表示画面上の指の操作と、操作命令とを対応させて操作命令対応テーブル34に登録する処理を行うときの、表示画面を表す図である。一例としてプレイリストモード60を選択し、このプレイリストモード60を選択する操作命令と、表示画面上の指の操作とを対応させて操作命令対応テーブル34に登録する処理について説明する。   FIG. 9 is a schematic diagram showing a hierarchical structure of modes. FIG. 10 is a diagram illustrating a display screen when processing for registering the operation of the finger on the display screen and the operation command in association with the operation command correspondence table 34 is performed. As an example, processing for selecting the playlist mode 60 and registering the operation command for selecting the playlist mode 60 and the operation of the finger on the display screen in the operation command correspondence table 34 will be described.

本実施の形態では、前述したように特定の操作の処理を表すモードが階層化されている。オーディオモード57の下層には、HDD−Audioモード58およびCD Playerモード59などがある。さらにHDD−Audioモード58の下層には、プレイリストモード60、アルバムモード61およびアーティストモード62などがある。プレイリストモード60は、オーディオモード57およびHDD−Audioモード58の順に関連付けられている。   In the present embodiment, as described above, modes representing specific operation processes are hierarchized. Below the audio mode 57 are an HDD-Audio mode 58 and a CD Player mode 59. Further, a playlist mode 60, an album mode 61, an artist mode 62, and the like are below the HDD-Audio mode 58. The playlist mode 60 is associated with the audio mode 57 and the HDD-Audio mode 58 in this order.

図10(1)〜(3)は、プレイリストモード60を選択するときの表示画面を表す図である。表示画面には、現在のモードを表示する画像に加えて、操作登録モードに遷移するためのボタン43が表示されている。この操作登録モードに遷移するためのボタン43を利用者が押圧すると、現在のモードを選択することを表す情報が入力されるとともに、操作登録モードに遷移して、前述した図5のステップb1に移行する。   10 (1) to 10 (3) are diagrams showing display screens when the playlist mode 60 is selected. On the display screen, a button 43 for transitioning to the operation registration mode is displayed in addition to an image for displaying the current mode. When the user presses the button 43 for transition to the operation registration mode, information indicating that the current mode is selected is input, and the transition to the operation registration mode is performed, and the above-described step b1 in FIG. 5 is performed. Transition.

プレイモードリストを選択するには、まずオーディオモード57の下層に関連付けられている複数のモードからHDD−Audioモード58を選択し、次にHDD−Audioモード58の下層に関連付けられているプレイリストモード60を選択する。プレイリストモード60が選択されると、プレイリストモード60に遷移してプレイリストモード60の下層に関連付けられる複数のモード、および操作登録モードに遷移するためのボタン43が表示画面に表示される。この表示画面において操作登録モードに遷移するためのボタン43を表す表示領域を利用者が押圧すると、プレイリストモード60を選択することを表す情報が入力されるとともに、操作登録モードに遷移して、前述した図5のステップb1に移行する。このプレイリストモード60を選択する操作命令と、指の動きとを対応させて操作命令対応テーブル34に登録する処理は、前述したステップb1からステップb15までの処理と同じなので、重複する説明を省略する。   To select a play mode list, first, the HDD-Audio mode 58 is selected from a plurality of modes associated with the lower layer of the audio mode 57, and then the play list mode associated with the lower layer of the HDD-Audio mode 58 is selected. 60 is selected. When the playlist mode 60 is selected, a plurality of modes that are changed to the playlist mode 60 and associated with the lower layers of the playlist mode 60 and a button 43 for changing to the operation registration mode are displayed on the display screen. When the user presses the display area representing the button 43 for transitioning to the operation registration mode on this display screen, information indicating selection of the playlist mode 60 is input, and transition to the operation registration mode is performed. The process proceeds to step b1 in FIG. The processing for registering the operation command for selecting the playlist mode 60 in the operation command correspondence table 34 in correspondence with the movement of the finger is the same as the processing from step b1 to step b15 described above, and therefore a duplicate description is omitted. To do.

入力装置1は、操作登録モードに遷移するためのボタン43を備えるので、利用者がこのボタン43を押下するだけで、現在のモードを選択して操作登録モードに遷移する。このように登録する操作命令に対応するモードを選択する手間を省いて、指の操作とモードを選択する操作命令とを対応させて操作命令対応テーブル34に登録することができ、利用者の利便性が向上する。   Since the input device 1 includes the button 43 for transitioning to the operation registration mode, the user selects the current mode and transitions to the operation registration mode simply by pressing the button 43. Thus, it is possible to save the effort of selecting the mode corresponding to the operation command to be registered, and to register the finger operation and the operation command for selecting the mode in the operation command correspondence table 34 in correspondence with each other. Improves.

本発明の他の実施の形態の入力装置1では、指紋画像に基づいて指の種類だけでなく個人を判定する。このように指紋画像に基づいて個人を判定することによって、個人、指の種類、および軌跡情報と操作命令とを対応させて操作命令対応テーブル34に登録し、命令生成部12が個人、指の種類、および軌跡情報に基づいて操作命令を生成するようにしてもよい。このように指の種類および軌跡情報に加えて個人を判定することによって、各人ごとに指の操作に対応する操作命令を操作命令対応テーブル34に登録することが可能となる。すなわち異なる人間が表示画面上において同じ指の操作をしたとしても、異なる操作命令を入力することができる。このように1つのカーナビゲーションシステム2に対して、利用者に応じて操作命令を設定することが可能となる。これによってたとえば複数人でカーナビゲーションシステム2を共用する場合に利用者の利便性が向上する。   In the input device 1 according to another embodiment of the present invention, not only the finger type but also the individual is determined based on the fingerprint image. Thus, by determining the individual based on the fingerprint image, the individual, the type of finger, and the trajectory information and the operation command are associated with each other and registered in the operation command correspondence table 34, and the command generation unit 12 stores the individual, finger An operation command may be generated based on the type and trajectory information. Thus, by determining the individual in addition to the finger type and the trajectory information, it becomes possible to register an operation command corresponding to the operation of the finger in the operation command correspondence table 34 for each person. That is, even if different people operate the same finger on the display screen, different operation commands can be input. In this way, an operation command can be set for one car navigation system 2 according to the user. Thereby, for example, when the car navigation system 2 is shared by a plurality of people, convenience for the user is improved.

本発明のさらに他の実施の形態の入力装置1は、個人を判定することによって各人の表示画面上における指の操作と、操作命令とを対応して操作命令対応テーブル34に登録する場合には、操作命令対応テーブル34に操作命令を登録した人によってのみ登録された指の操作と、操作命令との対応を変更可能に構成される。具体的には、命令生成部12は、指紋画像を判定することによって操作命令を登録した人か否かを判定し、操作命令を登録した人であれば、登録された指の操作と、操作命令との対応関係を変更して操作命令対応テーブル34に再登録することを許可し、操作命令を登録した人でないと判定すると、変更を許可しない。これによって、利用者が知らない間に他の人によって操作命令を入力する指の操作が変更されることを防ぐことができ、利用者の利便性が向上する。   In the input device 1 according to still another embodiment of the present invention, when an individual is identified and a finger operation on the display screen of each person and an operation command are registered in correspondence with each other in the operation command correspondence table 34. Is configured so that the correspondence between the operation of the finger registered only by the person who has registered the operation command in the operation command correspondence table 34 and the operation command can be changed. Specifically, the command generation unit 12 determines whether or not a person has registered an operation command by determining a fingerprint image, and if the user has registered the operation command, the registered finger operation and the operation If the correspondence relationship with the command is changed and re-registration in the operation command correspondence table 34 is permitted, and it is determined that the person is not the person who registered the operation command, the change is not permitted. Accordingly, it is possible to prevent a finger operation for inputting an operation command from being changed by another person without the user's knowledge, and the convenience of the user is improved.

本発明のさらに他の実施の形態の入力装置1は、現在表示画面に表示されているモードを表す文字情報を表示画面に表示する。このように各モードを表す文字情報を表示画面に表示することによって、現在のモードを利用者が容易に認識することができる。たとえば異なるモードで同じ表示画面が表示される場合でも、モードを表す文字情報が表示されるので、現在のモードを容易に認識することができる。さらに、モードを表す文字情報が表示されるので、表示画面上における指の操作によって他のモードに遷移したときに、遷移したモードを容易に把握することができる。   The input device 1 according to still another embodiment of the present invention displays character information representing the mode currently displayed on the display screen on the display screen. Thus, by displaying the character information representing each mode on the display screen, the user can easily recognize the current mode. For example, even when the same display screen is displayed in different modes, the character information representing the mode is displayed, so that the current mode can be easily recognized. Furthermore, since the character information indicating the mode is displayed, when the mode is changed to another mode by the operation of the finger on the display screen, the changed mode can be easily grasped.

本発明のさらに他の実施の形態の入力装置1は、現在表示画面に表示されているモードを表す音声情報を音としてスピーカ7から出力する。このように各モードを表す音声情報を音として出力することによって、現在のモードを利用者が容易に認識することができる。さらに、モードを表す音声情報が音として出力されるので、表示画面上における指の操作によって他のモードに遷移したときに、遷移したモードを容易に把握することができる。特に表示画面を見ずに表示画面上における指の操作によって他のモードに遷移したときにも、遷移したモードを把握することができるので、利用者の利便性が向上する。   The input device 1 according to still another embodiment of the present invention outputs sound information representing the mode currently displayed on the display screen from the speaker 7 as sound. Thus, by outputting the sound information representing each mode as a sound, the user can easily recognize the current mode. Furthermore, since the sound information indicating the mode is output as sound, when the mode is changed to another mode by a finger operation on the display screen, the changed mode can be easily grasped. In particular, even when a transition is made to another mode by operating a finger on the display screen without looking at the display screen, the transitioned mode can be grasped, so that convenience for the user is improved.

本実施の形態の入力装置1は、カーナビゲーションシステム2に搭載されるとしたけれども、カーナビゲーションシステム2に限られずに、たとえばオーディオ装置およびAV装置などの入力装置を備える機器に搭載されてもよい。   Although the input device 1 according to the present embodiment is mounted on the car navigation system 2, the input device 1 is not limited to the car navigation system 2, and may be mounted on a device including an input device such as an audio device and an AV device. .

本発明の実施形態に係る入力装置1を備えるカーナビゲーションシステム2を示すブロック図である。It is a block diagram which shows the car navigation system 2 provided with the input device 1 which concerns on embodiment of this invention. 指紋判定テーブル31に指紋画像を登録する処理を表すフローチャートである。4 is a flowchart showing processing for registering a fingerprint image in a fingerprint determination table 31. 指紋判定テーブル31に指紋画像を登録する処理を行うときに、表示手段3の表示画面に表示される画像を表す図である。7 is a diagram illustrating an image displayed on the display screen of the display unit 3 when performing processing for registering a fingerprint image in the fingerprint determination table 31. FIG. モードの階層構造を示す模式図である。It is a schematic diagram which shows the hierarchical structure of a mode. 表示画面上の指の操作と、操作命令とを対応させて操作命令対応テーブル34に登録する処理を表すフローチャートである。It is a flowchart showing the process which matches operation of the finger | toe on a display screen, and an operation command, and is registered into the operation command corresponding | compatible table 34. FIG. 表示画面上の指の操作と、操作命令とを対応させて操作命令対応テーブル34に登録する処理を行うときの表示画面を表す図である。It is a figure showing a display screen when performing the process which matches operation of the finger | toe on a display screen, and an operation command, and is registered into the operation command corresponding | compatible table 34. FIG. 利用者が表示画面上において指を操作したときに、この操作に基づいて操作命令を生成する処理を表すフローチャートである。It is a flowchart showing the process which produces | generates an operation command based on this operation, when a user operates a finger | toe on a display screen. 特定のモードにおける表示画面と、各モードにおける各指の動きと、この指の動きに対応する操作命令との対応関係を表す図である。It is a figure showing the correspondence of the display screen in a specific mode, the movement of each finger in each mode, and the operation command corresponding to the movement of this finger. モードの階層構造を示す模式図である。It is a schematic diagram which shows the hierarchical structure of a mode. 表示画面上の指の操作と、操作命令とを対応させて操作命令対応テーブル34に登録する処理を行うときの、表示画面を表す図である。It is a figure showing a display screen when performing the process which matches operation of the finger | toe on a display screen, and an operation command, and is registered into the operation command corresponding | compatible table 34. FIG.

符号の説明Explanation of symbols

1 入力装置
2 カーナビゲーションシステム
3 表示部
4 入力判定手段
5 描画制御手段
6 処理実行手段
7 スピーカ
8 制御手段
9 ディスプレイ
11 タッチパネル
12 命令生成部
13 命令受付部
21 操作対象制御部
31 指紋判定テーブル
32 軌跡判定テーブル
33 押下時間判定テーブル
34 操作命令対応テーブル
1 Input device 2 Car navigation system 3 Display unit
DESCRIPTION OF SYMBOLS 4 Input determination means 5 Drawing control means 6 Process execution means 7 Speaker 8 Control means 9 Display 11 Touch panel 12 Command generation part 13 Command reception part 21 Operation object control part 31 Fingerprint determination table 32 Trajectory determination table 33 Press time determination table 34 Operation instruction Correspondence table

Claims (5)

タッチパネルと、
指の生体情報および指の動きを表す軌跡情報を記憶する記憶手段と、
前記タッチパネルに感圧する指と前記記憶手段に記憶される生体情報とを照合して指の種類を判定し、前記タッチパネルによって検出される指の動きと前記記憶手段に記憶される軌跡情報とが合致するか否かを判定する判定手段と、
前記判定手段によって指の種類が判定され、かつ検出される指の動きと軌跡情報とが合致するとき、前記判定手段によって判定される指の種類、および前記タッチパネルによって検出される指の動きに対応する指令を生成して出力する指令生成手段と、
を含むことを特徴とする入力装置。
A touch panel;
Storage means for storing biological information of the finger and trajectory information representing the movement of the finger;
The finger type is determined by comparing the finger pressure sensitive to the touch panel and the biological information stored in the storage means, and the finger movement detected by the touch panel matches the trajectory information stored in the storage means. Determining means for determining whether to do;
When the finger type is determined by the determining unit and the detected finger movement matches the trajectory information, it corresponds to the finger type determined by the determining unit and the finger movement detected by the touch panel. Command generating means for generating and outputting a command to perform,
An input device comprising:
前記記憶手段は、タッチパネルによって検出される指の動き、タッチパネルに指を接触する個人、およびタッチパネルに接触する指の種類と、これに対応する指令との対応関係をタッチパネルから入力して記憶することを特徴とする請求項1に記載の入力装置。   The storage means inputs and stores correspondences between finger movements detected by the touch panel, individuals touching the touch panel, types of fingers touching the touch panel, and commands corresponding thereto. The input device according to claim 1. 右手および左手のいずれか一方に対応して、指の種類毎に指を載置すべき領域を表示して、指の種類を前記記憶手段に記憶する表示画面を表示するディスプレイをさらに含むことを特徴とする請求項2に記載の入力装置。   In correspondence with either the right hand or the left hand, the display further includes a display for displaying a display area for displaying a region where the finger should be placed for each finger type and storing the finger type in the storage unit. The input device according to claim 2, wherein 前記指令生成手段は、前記判定手段によって判定される結果に基づいて、指令を生成して出力することを特徴とする請求項1〜3のいずれか1つに記載の入力装置。   The input device according to claim 1, wherein the command generation unit generates and outputs a command based on a result determined by the determination unit. 前記記憶手段は、タッチパネルへの押下時間を記憶する機能をさらに備え、
前記判定手段は、前記タッチパネルによって検出される指の押下時間と、記憶手段に記憶される予め定める範囲の時間とが合致するか否かをさらに判定し、前記指令生成手段は判定結果に基づく指令を生成して出力することを特徴とする請求項1〜4のいずれか1つに記載の入力装置。
The storage means further includes a function of storing a pressing time on the touch panel,
The determination means further determines whether or not a finger pressing time detected by the touch panel matches a predetermined range time stored in the storage means, and the command generation means determines a command based on the determination result. The input device according to any one of claims 1 to 4, wherein the input device is generated and output.
JP2006219004A 2006-08-10 2006-08-10 Input device Pending JP2008046692A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006219004A JP2008046692A (en) 2006-08-10 2006-08-10 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006219004A JP2008046692A (en) 2006-08-10 2006-08-10 Input device

Publications (1)

Publication Number Publication Date
JP2008046692A true JP2008046692A (en) 2008-02-28

Family

ID=39180406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006219004A Pending JP2008046692A (en) 2006-08-10 2006-08-10 Input device

Country Status (1)

Country Link
JP (1) JP2008046692A (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010182071A (en) * 2009-02-05 2010-08-19 Sharp Corp Mobile information terminal
JP2011059887A (en) * 2009-09-08 2011-03-24 Canon Inc Electronic device, method of controlling the same, and program
JP2011257942A (en) * 2010-06-08 2011-12-22 Panasonic Corp Handwriting input device, handwriting input processing method and program therefor
JP2012510109A (en) * 2008-11-24 2012-04-26 クアルコム,インコーポレイテッド Illustrated method for selecting and activating an application
JP2012527657A (en) * 2009-05-18 2012-11-08 日本電気株式会社 Touch screen, related operation method and system
JP2013114613A (en) * 2011-11-30 2013-06-10 Sharp Corp Input device, input device control method, control program, and recording medium
JP2014026526A (en) * 2012-07-27 2014-02-06 Fujitsu Ltd Character input device, character input method, and character input program
JP2015115042A (en) * 2013-12-16 2015-06-22 株式会社デンソー Information terminal equipment and information terminal equipment system
JP2021099817A (en) * 2013-09-09 2021-07-01 アップル インコーポレイテッドApple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US11200309B2 (en) 2011-09-29 2021-12-14 Apple Inc. Authentication with secondary approver
US11206309B2 (en) 2016-05-19 2021-12-21 Apple Inc. User interface for remote authorization
US11386189B2 (en) 2017-09-09 2022-07-12 Apple Inc. Implementation of biometric authentication
US11393258B2 (en) 2017-09-09 2022-07-19 Apple Inc. Implementation of biometric authentication
US11468155B2 (en) 2007-09-24 2022-10-11 Apple Inc. Embedded authentication systems in an electronic device
US11619991B2 (en) 2018-09-28 2023-04-04 Apple Inc. Device control using gaze information
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US11809784B2 (en) 2018-09-28 2023-11-07 Apple Inc. Audio assisted enrollment
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments
US12079458B2 (en) 2016-09-23 2024-09-03 Apple Inc. Image data for enhanced user interactions
US12099586B2 (en) 2021-01-25 2024-09-24 Apple Inc. Implementation of biometric authentication
WO2025013606A1 (en) * 2023-07-13 2025-01-16 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2025013605A1 (en) * 2023-07-13 2025-01-16 ソニーグループ株式会社 Information processing device, information processing method, and program
US12216754B2 (en) 2021-05-10 2025-02-04 Apple Inc. User interfaces for authenticating to perform secure operations
US12262111B2 (en) 2011-06-05 2025-03-25 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003303048A (en) * 2002-02-06 2003-10-24 Fujitsu Component Ltd Input device and pointer control method
JP2005149389A (en) * 2003-11-19 2005-06-09 Casio Comput Co Ltd Information equipment
WO2006020304A2 (en) * 2004-07-30 2006-02-23 Apple Computer, Inc. Mode-based graphical user interfaces for touch sensitive input devices
JP2006146579A (en) * 2004-11-19 2006-06-08 Olympus Corp Data retrieving/reproducing apparatus, information inputting/recording apparatus, and operation apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003303048A (en) * 2002-02-06 2003-10-24 Fujitsu Component Ltd Input device and pointer control method
JP2005149389A (en) * 2003-11-19 2005-06-09 Casio Comput Co Ltd Information equipment
WO2006020304A2 (en) * 2004-07-30 2006-02-23 Apple Computer, Inc. Mode-based graphical user interfaces for touch sensitive input devices
JP2006146579A (en) * 2004-11-19 2006-06-08 Olympus Corp Data retrieving/reproducing apparatus, information inputting/recording apparatus, and operation apparatus

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11468155B2 (en) 2007-09-24 2022-10-11 Apple Inc. Embedded authentication systems in an electronic device
US12406490B2 (en) 2008-01-03 2025-09-02 Apple Inc. Personal computing device control using face detection and recognition
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US9679400B2 (en) 2008-11-24 2017-06-13 Qualcomm Incorporated Pictoral methods for application selection and activation
JP2012510109A (en) * 2008-11-24 2012-04-26 クアルコム,インコーポレイテッド Illustrated method for selecting and activating an application
US9501694B2 (en) 2008-11-24 2016-11-22 Qualcomm Incorporated Pictorial methods for application selection and activation
JP2010182071A (en) * 2009-02-05 2010-08-19 Sharp Corp Mobile information terminal
JP2012527657A (en) * 2009-05-18 2012-11-08 日本電気株式会社 Touch screen, related operation method and system
JP2011059887A (en) * 2009-09-08 2011-03-24 Canon Inc Electronic device, method of controlling the same, and program
JP2011257942A (en) * 2010-06-08 2011-12-22 Panasonic Corp Handwriting input device, handwriting input processing method and program therefor
US12262111B2 (en) 2011-06-05 2025-03-25 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US11755712B2 (en) 2011-09-29 2023-09-12 Apple Inc. Authentication with secondary approver
US11200309B2 (en) 2011-09-29 2021-12-14 Apple Inc. Authentication with secondary approver
JP2013114613A (en) * 2011-11-30 2013-06-10 Sharp Corp Input device, input device control method, control program, and recording medium
JP2014026526A (en) * 2012-07-27 2014-02-06 Fujitsu Ltd Character input device, character input method, and character input program
US11494046B2 (en) 2013-09-09 2022-11-08 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
JP2021099817A (en) * 2013-09-09 2021-07-01 アップル インコーポレイテッドApple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11287942B2 (en) 2013-09-09 2022-03-29 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces
US11768575B2 (en) 2013-09-09 2023-09-26 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US12314527B2 (en) 2013-09-09 2025-05-27 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
JP2015115042A (en) * 2013-12-16 2015-06-22 株式会社デンソー Information terminal equipment and information terminal equipment system
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments
US11206309B2 (en) 2016-05-19 2021-12-21 Apple Inc. User interface for remote authorization
US12079458B2 (en) 2016-09-23 2024-09-03 Apple Inc. Image data for enhanced user interactions
US11386189B2 (en) 2017-09-09 2022-07-12 Apple Inc. Implementation of biometric authentication
US12462005B2 (en) 2017-09-09 2025-11-04 Apple Inc. Implementation of biometric authentication
US11765163B2 (en) 2017-09-09 2023-09-19 Apple Inc. Implementation of biometric authentication
US11393258B2 (en) 2017-09-09 2022-07-19 Apple Inc. Implementation of biometric authentication
US11928200B2 (en) 2018-06-03 2024-03-12 Apple Inc. Implementation of biometric authentication
US12189748B2 (en) 2018-06-03 2025-01-07 Apple Inc. Implementation of biometric authentication
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US12105874B2 (en) 2018-09-28 2024-10-01 Apple Inc. Device control using gaze information
US12124770B2 (en) 2018-09-28 2024-10-22 Apple Inc. Audio assisted enrollment
US11809784B2 (en) 2018-09-28 2023-11-07 Apple Inc. Audio assisted enrollment
US11619991B2 (en) 2018-09-28 2023-04-04 Apple Inc. Device control using gaze information
US12099586B2 (en) 2021-01-25 2024-09-24 Apple Inc. Implementation of biometric authentication
US12216754B2 (en) 2021-05-10 2025-02-04 Apple Inc. User interfaces for authenticating to perform secure operations
WO2025013606A1 (en) * 2023-07-13 2025-01-16 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2025013605A1 (en) * 2023-07-13 2025-01-16 ソニーグループ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP2008046692A (en) Input device
CN102150114B (en) image display device
KR101613407B1 (en) Vehicle system comprising an assistance functionality and method for operating a vehicle system
KR101079270B1 (en) Three dimensional input device
US20110131515A1 (en) In-vehicle display system
US20200201442A1 (en) Gesture operation device and gesture operation method
US10967737B2 (en) Input device for vehicle and input method
US10725543B2 (en) Input device, display device, and method for controlling input device
CN103890760A (en) Method for operating an electronic device or an application, and corresponding apparatus
JP7003268B2 (en) How to link with in-vehicle information devices and mobile terminals
JP2015153325A (en) information processing apparatus, operation support method and operation support program
CN106104422A (en) Gesture assessment system, the method assessed for gesture and vehicle
JP2007304646A (en) Finger motion detection control electronics
WO2014196208A1 (en) Gesture input device for car navigation device
JP2016109434A (en) Electronic equipment
JP2009286175A (en) Display device for vehicle
CN102080962B (en) In-vehicle display system
US20220234444A1 (en) Input device
US20050175226A1 (en) Operation control apparatus, process control apparatus, operation control method, its program and recording medium storing the program
JP2008065504A (en) Touch panel control device and touch panel control method
CN114040857B (en) Method for operating an operating system in a vehicle and operating system in a vehicle
JP2008181367A (en) Music player
WO2019073543A1 (en) Input control device, input device, and input control method
JP4958979B2 (en) Recording medium reproducing apparatus, recording medium reproducing method, recording medium reproducing program, and recording medium storing recording medium reproducing program
JP2003099200A (en) Information equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110906