JP2008097220A - Character input device, character input method and program - Google Patents
Character input device, character input method and program Download PDFInfo
- Publication number
- JP2008097220A JP2008097220A JP2006276821A JP2006276821A JP2008097220A JP 2008097220 A JP2008097220 A JP 2008097220A JP 2006276821 A JP2006276821 A JP 2006276821A JP 2006276821 A JP2006276821 A JP 2006276821A JP 2008097220 A JP2008097220 A JP 2008097220A
- Authority
- JP
- Japan
- Prior art keywords
- character input
- tilt
- key
- input device
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Input From Keyboards Or The Like (AREA)
- Telephone Function (AREA)
Abstract
Description
本発明は、文字入力装置本体に回転操作を加え、本体の傾きの方向によって文字の入力操作を変更させるための技術に関する。 The present invention relates to a technique for applying a rotation operation to a character input device body and changing the character input operation depending on the tilt direction of the body.
従来の携帯端末装置における文字入力方法は、入力キーの配置数に厳しい制限があったため、かな文字を1文字入力するためには同一のキーを複数回押下する入力方法が一般的であった。 A conventional character input method in a portable terminal device has a strict limit on the number of input keys. Therefore, in order to input a single kana character, an input method in which the same key is pressed a plurality of times is generally used.
また、キー操作を誤って押下した場合には、文字の入力に割り当てられたキー以外のキーを押下、同一のキーをさらに複数回押下する必要があり、入力にかかる時間や労力が非常に多く不都合があった。 In addition, if a key operation is accidentally pressed, it is necessary to press a key other than the key assigned to input the character and press the same key more than once, which takes a lot of time and labor for input. There was an inconvenience.
従来の携帯端末本体の傾き情報を利用した文字入力方法の一例が、例えば、特許文献1、2に記載されている。これらの技術は、携帯型情報機器本体に回転操作を加え、本体の傾きに伴う加速度を、加速度センサを用いて検出し、傾きに応じた入力操作に関連する情報を表示させる制御手段を備えたものである。
An example of a conventional character input method using tilt information of a portable terminal body is described in
ここで、入力する文字の種類を変更する複数の入力モードを備え、自装置の傾斜角を検出する傾斜角検出部と、傾斜角を記憶する記憶部と、操作部による文字の入力操作中に、傾斜角検出部の検出する傾斜角を基準傾斜角として記憶部に記憶させた後、傾斜角検出部の検出する傾斜角が変化して、この傾斜角と記憶部に記憶された基準傾斜角との相対角度が所定の角度よりも大きくなってからこの傾斜角が基準傾斜角に戻った場合に、入力モードを切替えるように制御する制御部とを備えることで、文字入力の速度を低下させず、入力する文字の種類を切替えるための操作を簡単に行なうことができると共に、そのような操作を片手のみで行なうことができる技術が提案されている(例えば、特許文献3参照)。
しかしながら、従来技術には、次のような問題点があった。第1の問題点は、利用者は文字入力をする際、必ず表示部分を見ておかなければならないことである。その理由は、加速度センサが端末本体に加わる全ての動作に反応してしまうため、常に利用者は傾き情報を誤って検出していないか表示部分を常に確認しておかなければならないためである。これは、文字入力に慣れた利用者が、表示部を確認せずに文字入力する際には、大きな障害となっていた。 However, the prior art has the following problems. The first problem is that the user must always look at the display portion when inputting characters. The reason is that since the acceleration sensor reacts to all the operations applied to the terminal body, the user must always check the display portion for detecting the tilt information by mistake. This is a major obstacle when a user who is used to character input enters characters without checking the display unit.
第2の問題点は、加速度センサといった特別な装置が必要になることである。 The second problem is that a special device such as an acceleration sensor is required.
本発明は、以上説明した問題点を解決するためになされたものである。その目的は、機能切り替えを行うためのキー操作を行わずして文字入力を行うことである。 The present invention has been made to solve the above-described problems. The purpose is to input characters without performing key operations for switching functions.
上記課題を解決するために、本発明は、本体の傾きの方向によって文字入力機能が切り替わる文字入力装置であって、
カメラ機構を用いて傾きを検出する文字入力装置を提供する。
In order to solve the above problem, the present invention is a character input device in which a character input function is switched according to the direction of inclination of the main body,
Provided is a character input device that detects tilt using a camera mechanism.
また、本発明は、文字入力装置本体のカメラ機構を用いて傾きを検出するステップと、
本体の傾きの方向によって文字入力機能を切り替えるステップと、
を有する文字入力方法を提供する。
The present invention also includes a step of detecting an inclination using the camera mechanism of the character input device body,
Switching the character input function according to the direction of tilt of the main body,
A character input method having
本発明によれば、機能切り替えを行うためのキー操作を行わずして文字入力を行うことができる。 According to the present invention, it is possible to input characters without performing a key operation for switching functions.
以下、本発明の実施の形態について図面を参照して詳細に説明する。なお、各図において共通する部分には、同一の符号が付されている。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, the same code | symbol is attached | subjected to the common part in each figure.
図1において、本実施の形態における文字入力装置としての携帯電話端末11は、表示装置12、キー入力装置部13、プログラム制御により動作するCPU14(中央処理装置;プロセッサ;データ処理装置)、カメラ15、メモリ16から構成される。 In FIG. 1, a mobile phone terminal 11 as a character input device in the present embodiment includes a display device 12, a key input device unit 13, a CPU 14 (central processing unit; processor; data processing device) that operates by program control, and a camera 15. The memory 16 is configured.
これらの装置はそれぞれ次のように動作する。表示装置12は、CPU14による制御の元、文字入力結果などを表示するための出力装置である。キー入力装置部13は、文字を入力する際の入力装置である。CPU14は、表示装置12、キー入力装置部13、カメラ15、メモリ16の制御、文字変換処理、画像処理を行う。カメラ15は、カメラは表示装置の横に取り付けられ、端末利用時に利用者の顔を撮影するために用いられる。メモリ16は、文字入力に関するデータ、画像推定結果などのデータ保存するために用いられる。 Each of these devices operates as follows. The display device 12 is an output device for displaying character input results and the like under the control of the CPU 14. The key input device unit 13 is an input device for inputting characters. The CPU 14 performs control of the display device 12, the key input device unit 13, the camera 15, and the memory 16, character conversion processing, and image processing. The camera 15 is attached to the side of the display device, and is used for photographing a user's face when using the terminal. The memory 16 is used for storing data relating to character input and data such as image estimation results.
次に、図2のフローチャートを参照して本実施の形態の動作について詳細に説明する。 Next, the operation of the present embodiment will be described in detail with reference to the flowchart of FIG.
まず、端末の内側に取り付けられたカメラを用いて傾き推定に用いる画像を撮影する(ステップ21)。なお、カメラを用いて傾きの検出を実現するので既存の機能・部品のみでコストなどがかからない。 First, an image used for tilt estimation is taken using a camera attached to the inside of the terminal (step 21). In addition, since the detection of the tilt is realized using a camera, only existing functions / parts do not cost.
次に、撮影された画像から目や鼻といった特徴点を抽出し、特徴点の配置関係、画像の見え方の情報を元に撮影画像中に顔領域が存在するか推定行う(ステップ22、23)。
Next, feature points such as eyes and nose are extracted from the photographed image, and it is estimated whether or not a face region exists in the photographed image based on the information on the arrangement relation of the feature points and the appearance of the image (
そして、画像中に顔領域が存在しない場合には、利用者が表示部を確認していないため、意図的に装置本体を傾けていないと判断し、傾き推定は行わない。代わりに、メモリには傾き情報として「傾きなし」と保存する(ステップ24)。このように利用者が表示部を見ているか認識することで、傾き誤検出を防ぐことができる。 If the face area does not exist in the image, the user has not confirmed the display unit, so it is determined that the apparatus body is not intentionally tilted, and tilt estimation is not performed. Instead, “no tilt” is stored as tilt information in the memory (step 24). By recognizing whether the user is looking at the display unit in this way, it is possible to prevent erroneous tilt detection.
また、画像中に顔領域が存在する場合には、画像情報から端末本体の傾きを推定し(ステップ25)、推定結果をメモリに保存する(ステップ26)。 If there is a face area in the image, the inclination of the terminal body is estimated from the image information (step 25), and the estimation result is stored in the memory (step 26).
傾き推定が終了した後、保存された傾き情報をチェックし(ステップ27)、表示部に推定した傾き方向(または、それに対応した機能が動作する状態であること)を出力し、利用者に結果を伝える(ステップ28)。 After the inclination estimation is completed, the stored inclination information is checked (step 27), and the estimated inclination direction (or the corresponding function is in operation) is output to the display unit, and the result is displayed to the user. (Step 28).
続いて、キーが押下されたかをチェックし(ステップ29)、押下されていれば傾き情報に応じて割り当てられた処理を起動する(ステップ210)。最後に終了要求があるかを確認し、要求がなければステップ21に戻る。そして、終了要求がくるまでこれらの処理を繰り返し行う。 Subsequently, it is checked whether or not the key is pressed (step 29). If the key is pressed, the process assigned according to the tilt information is started (step 210). Finally, it is confirmed whether or not there is an end request. These processes are repeated until an end request is received.
また、画像情報を用いた傾き推定の例を図3のフローチャートに示す。 An example of tilt estimation using image information is shown in the flowchart of FIG.
まず、時刻tにおける画像から特徴点を抽出する(ステップ31)。 First, feature points are extracted from the image at time t (step 31).
次に、時刻tにおける特徴点と時刻t−1までに検出された特徴点の情報から勾配法・ブロックマッチング法などの各種手法を用いてオプティカルフロー(画面上の各点の速度場)を推定する(ステップ32)。 Next, the optical flow (velocity field at each point on the screen) is estimated from the feature point information at time t and the feature point information detected up to time t-1 using various methods such as gradient method and block matching method. (Step 32).
そして、推定されたオプティカルフローの大きさを閾値処理し、前時刻から端末本体に動きがあったかを判定する(ステップ33)。 Then, threshold processing is performed on the estimated size of the optical flow, and it is determined whether the terminal body has moved since the previous time (step 33).
動きがない場合、端末本体への回転操作はないものと判断し、傾きは前時刻と同じとする(ステップ34)。 If there is no movement, it is determined that there is no rotation operation on the terminal body, and the inclination is the same as the previous time (step 34).
また、動きがある場合、例えば図4のように端末本体に対し左方向の回転を加えた場合、画像全体のオプティカルフローは右方向となる。したがって、画像全体のオプティカルフローがどの方向に向いているかを調べることにより、どの方向に対して回転操作が行われたかを推定する(ステップ35)。 In addition, when there is movement, for example, when the terminal body is rotated in the left direction as shown in FIG. 4, the optical flow of the entire image is in the right direction. Therefore, by examining which direction the optical flow of the entire image is directed, it is estimated to which direction the rotation operation has been performed (step 35).
さらに、推定誤差の影響を軽減させるために、事前登録しておいた各傾斜時の画像を用いて推定結果の検証を行う。(ステップ36)。例えば、図5のようにあらかじめ左方向に回転させた時の画像、回転がない時の画像を事前に撮影しておき、時刻tにおける画像と各傾斜時の画像との特徴点の位置などを比較し誤差を計算することで、推定結果の検証を行う。なお、推定した傾きとその傾きに対応する登録画像と差分がある閾値より大きい場合には、フェールセーフの観点から傾きがないものとする。 Further, in order to reduce the influence of the estimation error, the estimation result is verified using the pre-registered image at each inclination. (Step 36). For example, as shown in FIG. 5, an image when rotated in the left direction in advance and an image when there is no rotation are taken in advance, and the positions of feature points between the image at time t and the image at each inclination are determined. By comparing and calculating the error, the estimation result is verified. If the difference between the estimated inclination and the registered image corresponding to the inclination is larger than a certain threshold, it is assumed that there is no inclination from the viewpoint of fail-safe.
最後に、具体例を用いて本実施の形態の動作を説明する。例えば、端末本体に回転を加えないときにはかな入力、端末本体に左回転操作を加えたときには英字入力を行うように割り当てたとする。このとき、本実施の形態を用いずに「あかad」と入力する場合、図6に示すように、あ行キー、か行キー、文字入力モード変更キー、aキー、dキーと計5回入力しなければならない。一方、本実施の形態を用いた場合、あ行キー、か行キー、左方向へ回転、aキー、dキーと計4回入力すればよいので、キーの入力回数を軽減することが可能となる。 Finally, the operation of this embodiment will be described using a specific example. For example, it is assumed that the terminal body is assigned to perform kana input when rotation is not applied and the alphabetical input is performed when left rotation operation is applied to the terminal body. At this time, when “Aka ad” is input without using the present embodiment, as shown in FIG. 6, the A line key, the line key, the character input mode change key, the a key, and the d key are totaled 5 times. Must be entered. On the other hand, when this embodiment is used, it is possible to reduce the number of times the key is input because it is sufficient to input four times in total: the a-row key, the row key, the left rotation, the a-key, and the d-key. Become.
上記の本実施の形態によれば、少ないキーの押下回数で文字の入力を行うことができるため、入力速度の向上を図ることができる。その理由は、傾き情報を利用して1つのキーに対して複数の機能を割り当てることにより、機能切り替えを行うためのキー操作を行わずして文字入力を行うことができるためである。 According to the above-described embodiment, since characters can be input with a small number of key presses, the input speed can be improved. The reason is that by inputting a plurality of functions to one key using the tilt information, it is possible to input characters without performing a key operation for performing function switching.
また、加速度センサといった特別な装置を用いず、現在携帯電話端末に搭載されている一般的な装置のみで実現できる。その理由は、傾きの検出に内側に設置されたカメラから撮影された画像のみを用いるためである。 Moreover, it is realizable only with the general apparatus currently mounted in the mobile telephone terminal, without using special apparatuses, such as an acceleration sensor. The reason is that only an image taken from a camera installed inside is used for detecting the tilt.
なお、上述する各実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。例えば、文字入力装置の機能を実現するためのプログラムを装置に読込ませて実行することにより装置の機能を実現する処理を行ってもよい。さらに、そのプログラムは、コンピュータ読み取り可能な記録媒体であるCD−ROMまたは光磁気ディスクなどを介して、または伝送媒体であるインターネット、電話回線などを介して伝送波により他のコンピュータシステムに伝送されてもよい。 Each of the above-described embodiments is a preferred embodiment of the present invention, and various modifications can be made without departing from the scope of the present invention. For example, a process for realizing the function of the device may be performed by causing the device to read and execute a program for realizing the function of the character input device. Further, the program is transmitted to another computer system by a transmission wave via a computer-readable recording medium such as a CD-ROM or a magneto-optical disk, or via a transmission medium such as the Internet or a telephone line. Also good.
上述する各実施の形態は、文字入力装置が1つのコンピュータシステムとして実現されている構成について説明したが、機能毎に複数の装置などが追加された構成にも適用可能であることはもちろんである。 In each of the above-described embodiments, the configuration in which the character input device is realized as one computer system has been described. However, it is needless to say that the embodiments can be applied to a configuration in which a plurality of devices are added for each function. .
また、本発明によれば、携帯電話端末やPDAなどの携帯型情報機器における文字入力装置およびそれらを制御するためのプログラムといった用途に適用できる。 Further, the present invention can be applied to applications such as a character input device and a program for controlling them in a portable information device such as a mobile phone terminal or a PDA.
11 携帯電話端末
12 表示装置
13 キー入力装置部
14 CPU
15 カメラ
16 メモリ
11 Mobile phone terminal 12 Display device 13 Key input device section 14 CPU
15 Camera 16 Memory
Claims (6)
カメラ機構を用いて傾きを検出することを特徴とする文字入力装置。 A character input device whose character input function is switched depending on the direction of tilt of the main body,
A character input device that detects tilt using a camera mechanism.
本体の傾きの方向によって文字入力機能を切り替えるステップと、
を有することを特徴とする文字入力方法。 Detecting the tilt using the camera mechanism of the character input device body;
Switching the character input function according to the direction of tilt of the main body,
The character input method characterized by having.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006276821A JP2008097220A (en) | 2006-10-10 | 2006-10-10 | Character input device, character input method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006276821A JP2008097220A (en) | 2006-10-10 | 2006-10-10 | Character input device, character input method and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008097220A true JP2008097220A (en) | 2008-04-24 |
Family
ID=39380019
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006276821A Withdrawn JP2008097220A (en) | 2006-10-10 | 2006-10-10 | Character input device, character input method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2008097220A (en) |
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011029881A (en) * | 2009-07-24 | 2011-02-10 | Softbank Mobile Corp | Portable information processing apparatus, portable information processing method and portable information processing program |
| JP2012509544A (en) * | 2008-11-20 | 2012-04-19 | アマゾン テクノロジーズ インコーポレイテッド | Motion recognition as an input mechanism |
| US8878773B1 (en) | 2010-05-24 | 2014-11-04 | Amazon Technologies, Inc. | Determining relative motion as input |
| US8884928B1 (en) | 2012-01-26 | 2014-11-11 | Amazon Technologies, Inc. | Correcting for parallax in electronic displays |
| US8947351B1 (en) | 2011-09-27 | 2015-02-03 | Amazon Technologies, Inc. | Point of view determinations for finger tracking |
| US9035874B1 (en) | 2013-03-08 | 2015-05-19 | Amazon Technologies, Inc. | Providing user input to a computing device with an eye closure |
| US9041734B2 (en) | 2011-07-12 | 2015-05-26 | Amazon Technologies, Inc. | Simulating three-dimensional features |
| US9063574B1 (en) | 2012-03-14 | 2015-06-23 | Amazon Technologies, Inc. | Motion detection systems for electronic devices |
| US9123272B1 (en) | 2011-05-13 | 2015-09-01 | Amazon Technologies, Inc. | Realistic image lighting and shading |
| US9223415B1 (en) | 2012-01-17 | 2015-12-29 | Amazon Technologies, Inc. | Managing resource usage for task performance |
| US9269012B2 (en) | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
| US9285895B1 (en) | 2012-03-28 | 2016-03-15 | Amazon Technologies, Inc. | Integrated near field sensor for display devices |
| US9367203B1 (en) | 2013-10-04 | 2016-06-14 | Amazon Technologies, Inc. | User interface techniques for simulating three-dimensional depth |
| US9423886B1 (en) | 2012-10-02 | 2016-08-23 | Amazon Technologies, Inc. | Sensor connectivity approaches |
| JP2017215877A (en) * | 2016-06-01 | 2017-12-07 | キヤノン株式会社 | Electronic apparatus and its control method |
| US10055013B2 (en) | 2013-09-17 | 2018-08-21 | Amazon Technologies, Inc. | Dynamic object tracking for user interfaces |
| US10088924B1 (en) | 2011-08-04 | 2018-10-02 | Amazon Technologies, Inc. | Overcoming motion effects in gesture recognition |
| US11199906B1 (en) | 2013-09-04 | 2021-12-14 | Amazon Technologies, Inc. | Global user input management |
-
2006
- 2006-10-10 JP JP2006276821A patent/JP2008097220A/en not_active Withdrawn
Cited By (25)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012509544A (en) * | 2008-11-20 | 2012-04-19 | アマゾン テクノロジーズ インコーポレイテッド | Motion recognition as an input mechanism |
| US8788977B2 (en) | 2008-11-20 | 2014-07-22 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
| US9304583B2 (en) | 2008-11-20 | 2016-04-05 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
| JP2011029881A (en) * | 2009-07-24 | 2011-02-10 | Softbank Mobile Corp | Portable information processing apparatus, portable information processing method and portable information processing program |
| US8878773B1 (en) | 2010-05-24 | 2014-11-04 | Amazon Technologies, Inc. | Determining relative motion as input |
| US9557811B1 (en) | 2010-05-24 | 2017-01-31 | Amazon Technologies, Inc. | Determining relative motion as input |
| US9123272B1 (en) | 2011-05-13 | 2015-09-01 | Amazon Technologies, Inc. | Realistic image lighting and shading |
| US9041734B2 (en) | 2011-07-12 | 2015-05-26 | Amazon Technologies, Inc. | Simulating three-dimensional features |
| US10088924B1 (en) | 2011-08-04 | 2018-10-02 | Amazon Technologies, Inc. | Overcoming motion effects in gesture recognition |
| US8947351B1 (en) | 2011-09-27 | 2015-02-03 | Amazon Technologies, Inc. | Point of view determinations for finger tracking |
| US9223415B1 (en) | 2012-01-17 | 2015-12-29 | Amazon Technologies, Inc. | Managing resource usage for task performance |
| US10019107B2 (en) | 2012-01-26 | 2018-07-10 | Amazon Technologies, Inc. | Correcting for parallax in electronic displays |
| US8884928B1 (en) | 2012-01-26 | 2014-11-11 | Amazon Technologies, Inc. | Correcting for parallax in electronic displays |
| US9063574B1 (en) | 2012-03-14 | 2015-06-23 | Amazon Technologies, Inc. | Motion detection systems for electronic devices |
| US9471153B1 (en) | 2012-03-14 | 2016-10-18 | Amazon Technologies, Inc. | Motion detection systems for electronic devices |
| US9285895B1 (en) | 2012-03-28 | 2016-03-15 | Amazon Technologies, Inc. | Integrated near field sensor for display devices |
| US9652083B2 (en) | 2012-03-28 | 2017-05-16 | Amazon Technologies, Inc. | Integrated near field sensor for display devices |
| US9423886B1 (en) | 2012-10-02 | 2016-08-23 | Amazon Technologies, Inc. | Sensor connectivity approaches |
| US9483113B1 (en) | 2013-03-08 | 2016-11-01 | Amazon Technologies, Inc. | Providing user input to a computing device with an eye closure |
| US9035874B1 (en) | 2013-03-08 | 2015-05-19 | Amazon Technologies, Inc. | Providing user input to a computing device with an eye closure |
| US9269012B2 (en) | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
| US11199906B1 (en) | 2013-09-04 | 2021-12-14 | Amazon Technologies, Inc. | Global user input management |
| US10055013B2 (en) | 2013-09-17 | 2018-08-21 | Amazon Technologies, Inc. | Dynamic object tracking for user interfaces |
| US9367203B1 (en) | 2013-10-04 | 2016-06-14 | Amazon Technologies, Inc. | User interface techniques for simulating three-dimensional depth |
| JP2017215877A (en) * | 2016-06-01 | 2017-12-07 | キヤノン株式会社 | Electronic apparatus and its control method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2008097220A (en) | Character input device, character input method and program | |
| US10459626B2 (en) | Text input method in touch screen terminal and apparatus therefor | |
| JP5889397B2 (en) | Information terminal, input reception control method, and input reception control program | |
| US10719689B2 (en) | Electronic device and fingerprint recognition method | |
| US10721196B2 (en) | Method and device for message reading | |
| US20190251317A1 (en) | Method and apparatus for fingerprint unlocking | |
| US20170293387A1 (en) | Input circuitry, terminal, and touch response method and device | |
| JP2009129443A (en) | Input receiving method of touch screen, electronic device with touch screen for implementing the method, and input system of touch screen for implementing the method | |
| US20120019466A1 (en) | Apparatus and method for inputting key in terminal having touch screen | |
| US12135870B2 (en) | Input control method, device, and electronic apparatus for input through external device | |
| US8633895B2 (en) | Apparatus and method for improving character input function in mobile terminal | |
| KR20120134504A (en) | Terminal having touch screen and method for displaying key thereof | |
| JP4679342B2 (en) | Virtual key input device and information terminal device | |
| WO2007034787A1 (en) | Mobile telephone terminal, data process starting method and data transmitting method | |
| EP2492835A1 (en) | Data security management systems and methods | |
| CN108229139A (en) | A kind of cipher-code input method and mobile terminal | |
| KR100562144B1 (en) | Finger image display method in wireless communication terminal | |
| WO2020253495A1 (en) | Screen lock control method, device, handheld terminal, and storage medium | |
| US11442582B1 (en) | Virtual keypads for hands-free operation of computing devices | |
| WO2022111560A1 (en) | Payment method and apparatus, and electronic device, and medium | |
| US9722669B2 (en) | Information processing apparatus, control method therefor, and computer-readable storage medium | |
| JP2010160274A (en) | Image display apparatus and image display method | |
| CN105074810A (en) | Portable electronic device, control method therefor, and program | |
| KR100756986B1 (en) | Apparatus and method for changing input mode of portable terminal | |
| KR101538454B1 (en) | Method and apparatus for inputting password, and recording medium for storing program using the same |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100105 |