[go: up one dir, main page]

JP6179036B2 - Input support apparatus, input support method, and program - Google Patents

Input support apparatus, input support method, and program Download PDF

Info

Publication number
JP6179036B2
JP6179036B2 JP2013161617A JP2013161617A JP6179036B2 JP 6179036 B2 JP6179036 B2 JP 6179036B2 JP 2013161617 A JP2013161617 A JP 2013161617A JP 2013161617 A JP2013161617 A JP 2013161617A JP 6179036 B2 JP6179036 B2 JP 6179036B2
Authority
JP
Japan
Prior art keywords
user
input
character
attention
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013161617A
Other languages
Japanese (ja)
Other versions
JP2015033011A (en
Inventor
俊幸 萩谷
俊幸 萩谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013161617A priority Critical patent/JP6179036B2/en
Publication of JP2015033011A publication Critical patent/JP2015033011A/en
Application granted granted Critical
Publication of JP6179036B2 publication Critical patent/JP6179036B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザが入力しようとしている文字列を予測する技術に関する。   The present invention relates to a technique for predicting a character string that a user intends to input.

従来から、タッチパネルを備えた携帯電話機やPDA(Personal Digital Assistants)では、文字入力はソフトウェアキーボードで行なわれる。文字入力においては、確定的な正しい入力文字について、前方一致、部分一致などの予測を行なって、その仮名漢字文を提示したり、それに続く文字を補った形で提示したりすることが多い。   Conventionally, in a mobile phone equipped with a touch panel and PDA (Personal Digital Assistants), character input is performed with a software keyboard. In character input, for a definite and correct input character, prediction such as forward match or partial match is often performed, and the kana / kanji sentence is presented, or the subsequent characters are presented in a supplemented form.

一方、ユーザがタッチパネルを操作する際、ソフトウェアキーボード上の特定のボタンを押したつもりが、意図しないボタンが反応してしまうことがある。このため、従来から、ユーザが間違えて入力した文字に対して、確率やスコアに基づいて訂正した文字を提示する技術が提案されている。   On the other hand, when the user operates the touch panel, a user may press a specific button on the software keyboard, but an unintended button may react. For this reason, conventionally, there has been proposed a technique for presenting a corrected character based on a probability and a score with respect to a character input by the user by mistake.

特許文献1および特許文献2には、タッチパネルにおけるユーザの入力座標と、ソフトウェアキーボード上の各文字に対応するボタンの位置関係から、ユーザが入力した単語の優先度を推定する装置が開示されている。特許文献1に記載されている技術では、図5に示すように、入力座標と各文字に対応するボタンの領域の位置関係から、押された候補となる文字を抽出し、得点を付ける。次に、図6Aおよび図6Bに示すように、連続する座標入力に伴って抽出される各文字群から、1文字ずつ取り出して文字列を全ての組み合わせについて作成し、その文字列の中から単語となり得るものを抽出する。最後に、その単語を構成する各文字の得点と、単語の使用頻度から算出された得点から各単語の優先度を算出し、その優先度順に提示するというものである。   Patent Documents 1 and 2 disclose an apparatus that estimates the priority of a word input by a user from the input coordinates of the user on the touch panel and the positional relationship of buttons corresponding to each character on the software keyboard. . In the technique described in Patent Document 1, as shown in FIG. 5, the pressed candidate character is extracted from the positional relationship between the input coordinates and the button area corresponding to each character, and a score is given. Next, as shown in FIG. 6A and FIG. 6B, character strings are created for all combinations by taking out one character from each character group extracted with continuous coordinate input, and words are extracted from the character strings. Extract what can be. Finally, the priority of each word is calculated from the score of each character constituting the word and the score calculated from the frequency of use of the word, and presented in the order of priority.

特許文献2に記載されている技術は、文字毎にタッチ座標の確率密度関数から算出される確率と、“n-gram”を用いた言語モデルによる言語確率の積により、入力開始から何文字目であるかに応じた文字毎の生起確率値を求め、生起確率の高い順に候補単語を提示する。この方法により、タッチ入力に誤りがあっても、候補単語の中にユーザ所望の単語を表示することが可能となる。   The technique described in Patent Literature 2 is based on the product of the probability calculated from the probability density function of touch coordinates for each character and the language probability based on the language model using “n-gram”. An occurrence probability value for each character according to whether the occurrence probability is obtained, and candidate words are presented in descending order of occurrence probability. By this method, even if there is an error in touch input, it is possible to display a user-desired word among candidate words.

特許文献3に記載されている技術は、イメージセンサおよびデプスセンサから得られる情報から、視線情報を取得し、キャリブレーションを行ない、2次元上に表示される画面のポインタを操作する。   The technique described in Patent Document 3 acquires line-of-sight information from information obtained from an image sensor and a depth sensor, performs calibration, and operates a pointer on a screen displayed two-dimensionally.

特開2006−005655号公報JP 2006-005655 A 特開2012−248153号公報JP 2012-248153 A 特開2009−054101号公報JP 2009-054101 A

しかしながら、特許文献1および特許文献2に記載されている技術は、入力座標や言語モデルを用いて、ユーザ所望の単語候補を複数予測し表示するものであるが、予測の結果、「実際に入力されている文字列と同じ文字列が表示され、その文字列から変換される単語(漢字仮名交じり文)」と、「異なる文字列が表示され、その文字列から変換される単語」が混在して表示される可能性がある。   However, the techniques described in Patent Document 1 and Patent Document 2 predict and display a plurality of user-desired word candidates using input coordinates and a language model. The same character string as the displayed character string is displayed, and the word converted from the character string (kanji-kana mixed text) and the word converted from the character string with a different character string displayed are mixed. May be displayed.

ここで、ユーザが端末の画面を確認しながら文字の入力を行なっている場合は、入力誤りが少なく、実際に入力されている文字列から変換される単語を提示したり、前方一致を用いて補完したりすることによって、ユーザの所望する文字列が表示される可能性が高くなると考えられる。   Here, when the user is inputting characters while checking the terminal screen, there are few input errors, and words that are converted from the actually input character string are presented or forward matching is used. By complementing, it is considered that the possibility that the character string desired by the user is displayed is increased.

逆に、ユーザがブラインドタッチで文字の入力を行なっている場合は、入力誤りが多く、タッチ誤りを考慮した変換候補を多く表示することによって、ユーザの所望する文字列が表示される可能性が高くなると考えられる。   Conversely, when the user is inputting characters by blind touch, there are many input errors, and by displaying a large number of conversion candidates in consideration of touch errors, the user's desired character string may be displayed. It is thought to be higher.

特許文献3に記載されている技術は、視線情報により視線が示す位置を判別し、ポインタとして操作するものであるが、文字を入力する際は、画面に表示されているソフトウェアキーボードを見る必要がある。また、ディスプレイにタッチパネルを搭載していれば、タッチでの入力も可能であるが、ユーザが画面を見ているかどうかの情報については考慮されていない。従って、特許文献3では、ユーザがブラインドタッチをしているかどうかによって変換候補を変えることは想定されていないと言える。   The technique described in Patent Document 3 determines the position indicated by the line of sight based on the line-of-sight information and operates as a pointer. However, when inputting characters, it is necessary to look at the software keyboard displayed on the screen. is there. Further, if a touch panel is mounted on the display, touch input is possible, but information on whether or not the user is looking at the screen is not taken into consideration. Therefore, in patent document 3, it can be said that it is not assumed that a conversion candidate is changed depending on whether the user is performing a blind touch.

本発明は、このような事情に鑑みてなされたものであり、ユーザの端末操作中の画面への注目度に基づいて、表示される文字候補を変更することによって、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことができる入力支援装置、入力支援方法およびプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and improves the operability during character input by changing the displayed character candidates based on the degree of attention to the screen while the user is operating the terminal. It is an object to provide an input support apparatus, an input support method, and a program capable of presenting a highly accurate word or word string.

(1)上記の目的を達成するために、本発明は、以下のような手段を講じた。すなわち、本発明の入力支援装置は、ユーザが入力しようとしている文字列を予測する入力支援装置であって、少なくとも文字を表示するディスプレイと、ユーザによる文字の入力を受け付けるキーボードと、装置本体に対するユーザの操作状況を検出するセンシングデバイスと、前記検出されたユーザの操作状況に基づいて、前記ディスプレイに対するユーザの注目度を推定する注目度推定部と、前記キーボードから入力された文字および前記推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測する予測部と、前記予測した候補とする文字列を出力する出力部と、を備えることを特徴とする。   (1) In order to achieve the above object, the present invention takes the following measures. That is, the input support device according to the present invention is an input support device that predicts a character string that a user intends to input, and includes a display that displays at least a character, a keyboard that receives character input by the user, and a user for the device body A sensing device that detects the operation status of the user, an attention level estimation unit that estimates a user's level of attention to the display based on the detected user operation status, characters input from the keyboard, and the estimated A prediction unit that predicts a character string as a candidate based on the degree of attention of the user with respect to the display, and an output unit that outputs the character string as the predicted candidate are provided.

このように、検出されたユーザの操作状況に基づいて、ディスプレイに対するユーザの注目度を推定し、キーボードから入力された文字および推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測するので、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。   As described above, the user's attention level with respect to the display is estimated based on the detected user operation state, and the character string to be a candidate is determined based on the characters input from the keyboard and the estimated user's attention level with respect to the display. Therefore, it is possible to improve the operability at the time of character input and to present a highly accurate word or word string.

(2)また、本発明の入力支援装置において、前記予測部は、前記注目度が高い場合は、ユーザによって入力された文字を含む文字列の生起確率を高くする一方、前記注目度が低い場合は、ユーザによって入力された文字を含む文字列の生起確率を低くすることを特徴とする。   (2) In the input support device of the present invention, when the degree of attention is high, the prediction unit increases the probability of occurrence of a character string including a character input by the user while the degree of attention is low. Is characterized in that the occurrence probability of a character string including a character input by a user is lowered.

このように、ユーザのディスプレイに対する注目度が高い場合は、入力誤りは少ないと考えられるため、ユーザによって入力された文字を含む文字列の生起確率を高くする。一方、ユーザのディスプレイに対する注目度が低い場合は、ブラインドタッチ入力をしている可能性があり、入力誤りが多いと考えられるため、ユーザによって入力された文字を含む文字列の生起確率を低くする。これにより、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。   In this way, when the degree of attention of the user's display is high, it is considered that there are few input errors, so the occurrence probability of the character string including the character input by the user is increased. On the other hand, when the degree of attention to the user's display is low, there is a possibility that blind touch input is being performed, and it is considered that there are many input errors, so the occurrence probability of a character string including characters input by the user is lowered. . As a result, it is possible to improve the operability at the time of character input and to present a highly accurate word or word string.

(3)また、本発明の入力支援装置において、前記注目度推定部は、一文字毎の注目度を推定し、前記予測部は、前記一文字毎の注目度が高い場合は、注目度が高い文字の生起確率を高くする一方、前記一文字毎の注目度が低い場合は、注目度が低い文字の生起確率を低くすることを特徴とする。   (3) Further, in the input support device of the present invention, the attention level estimation unit estimates the attention level for each character, and the prediction unit determines that the character having a high attention level when the attention level for each character is high. The occurrence probability of a character with a low degree of attention is lowered when the attention degree for each character is low.

このように、ユーザの一文字毎の注目度が高い場合は、入力誤りは少ないと考えられるため、注目度が高い文字の生起確率を高くする。一方、ユーザの一文字毎の注目度が低い場合は、ブラインドタッチ入力をしている可能性があり、入力誤りが多いと考えられるため、注目度が低い文字の生起確率を低くする。これにより、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。   In this way, when the attention level for each character of the user is high, it is considered that there are few input errors, so the occurrence probability of a character with high attention level is increased. On the other hand, when the attention level for each character of the user is low, there is a possibility that a blind touch input is being performed, and it is considered that there are many input errors, so the occurrence probability of a character with low attention level is reduced. As a result, it is possible to improve the operability at the time of character input and to present a highly accurate word or word string.

(4)また、本発明の入力支援装置において、前記キーボードは、タッチパネルに表示されたソフトウェアキーボードであって、前記タッチパネルに接触したユーザの指の座標情報を検出し、前記予測部は、前記検出された座標情報、単語間の関係性を定式化した言語モデルおよび前記注目度に基づいて、候補となる文字列を予測することを特徴とする。   (4) In the input support device of the present invention, the keyboard is a software keyboard displayed on a touch panel, and detects coordinate information of a user's finger that touches the touch panel, and the prediction unit detects the detection A candidate character string is predicted based on the coordinate information, a language model that formulates the relationship between words, and the degree of attention.

このように、検出された座標情報、単語間の関係性を定式化した言語モデルおよび注目度に基づいて、候補となる文字列を予測するので、タッチパネルによる文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。   Thus, based on the detected coordinate information, the language model that formulates the relationship between words and the attention level, the candidate character strings are predicted, so that the operability at the time of character input by the touch panel is improved, It becomes possible to present highly accurate words or word strings.

(5)また、本発明の入力支援装置において、前記注目度推定部は、前記検出されたユーザの操作状況に基づいて、ユーザが前記ディスプレイを目視する時間、頻度、ユーザの操作の特徴量または前記キーボードに対するユーザの入力座標情報の少なくとも一つに基づいて、前記注目度を推定することを特徴とする。   (5) In the input support device according to the present invention, the attention level estimation unit may determine a time, frequency, a user operation feature amount, or a user operation amount based on the detected user operation state. The degree of attention is estimated based on at least one of user input coordinate information for the keyboard.

このように、検出されたユーザの操作状況に基づいて、ユーザがディスプレイを目視する時間、頻度、ユーザの操作の特徴量またはキーボードに対するユーザの入力座標情報の少なくとも一つに基づいて、注目度を推定するので、ユーザがディスプレイを見ながら文字入力をしているのか、またはブラインドタッチによる文字入力をしているのかに応じて、候補となる文字列を予測することが可能となる。その結果、タッチパネルによる文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。   As described above, based on the detected user operation state, the degree of attention is determined based on at least one of the time and frequency with which the user views the display, the feature amount of the user operation, or the user input coordinate information with respect to the keyboard. Since the estimation is performed, it becomes possible to predict a candidate character string depending on whether the user is inputting characters while looking at the display or is inputting characters by blind touch. As a result, it is possible to improve the operability when inputting characters using the touch panel and present a highly accurate word or word string.

(6)また、本発明の入力支援装置において、前記出力部は、前記予測した文字列を、前記ディスプレイに文字情報として出力し、またはスピーカに音声情報として出力することを特徴とする。   (6) Further, in the input support device according to the present invention, the output unit outputs the predicted character string as character information to the display or as voice information to a speaker.

このように、予測した文字列を、ディスプレイに文字情報として出力し、またはスピーカに音声情報として出力するので、ユーザは予測された文字列を認識し、確定するかどうかを判断することができる。特に、音声情報として出力する場合は、いわゆるトークバックを実施することができるため、ユーザは聴覚により予測された文字列を認識することが可能となる。これにより、高精度な単語または単語列提示を行なうことが可能となる。   In this way, the predicted character string is output as character information to the display or output as voice information to the speaker, so that the user can recognize the predicted character string and determine whether to confirm it. In particular, when outputting as voice information, since so-called talkback can be performed, the user can recognize a character string predicted by hearing. This makes it possible to present a highly accurate word or word string.

(7)また、本発明の入力支援方法は、ユーザが入力しようとしている文字列を予測する入力支援方法であって、少なくとも文字をディスプレイに表示するステップと、キーボードからユーザによる文字の入力を受け付けるステップと、センシングデバイスで装置本体に対するユーザの操作状況を検出するステップと、前記検出されたユーザの操作状況に基づいて、前記ディスプレイに対するユーザの注目度を推定するステップと、前記キーボードから入力された文字および前記推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測するステップと、前記予測した候補とする文字列を出力するステップと、を少なくとも含むことを特徴とする。   (7) Further, the input support method of the present invention is an input support method for predicting a character string that the user intends to input, and at least the step of displaying characters on the display and the input of characters by the user from the keyboard are accepted. A step of detecting an operation state of the user with respect to the apparatus main body by the sensing device, a step of estimating a degree of attention of the user with respect to the display based on the detected operation state of the user, and an input from the keyboard The method includes at least a step of predicting a character string to be a candidate based on a character and a degree of attention of the user with respect to the estimated display, and a step of outputting the character string to be the predicted candidate.

このように、検出されたユーザの操作状況に基づいて、ディスプレイに対するユーザの注目度を推定し、キーボードから入力された文字および推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測するので、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。   As described above, the user's attention level with respect to the display is estimated based on the detected user operation state, and the character string to be a candidate is determined based on the characters input from the keyboard and the estimated user's attention level with respect to the display. Therefore, it is possible to improve the operability at the time of character input and to present a highly accurate word or word string.

(8)また、本発明のプログラムは、ユーザが入力しようとしている文字列を予測する入力支援装置のプログラムであって、少なくとも文字をディスプレイに表示する処理と、キーボードからユーザによる文字の入力を受け付ける処理と、センシングデバイスで装置本体に対するユーザの操作状況を検出する処理と、前記検出されたユーザの操作状況に基づいて、前記ディスプレイに対するユーザの注目度を推定する処理と、前記キーボードから入力された文字および前記推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測する処理と、前記予測した候補とする文字列を出力する処理と、の一連の処理をコンピュータに実行させることを特徴とする。   (8) The program of the present invention is a program for an input support apparatus that predicts a character string that the user is going to input, and accepts at least character display processing and character input by the user from the keyboard. Processing, processing for detecting a user's operation status with respect to the apparatus main body with a sensing device, processing for estimating a user's attention level with respect to the display based on the detected user's operation status, and input from the keyboard A computer executes a series of processes including a process for predicting a character string as a candidate and a process for outputting the character string as a predicted candidate based on the user's degree of attention to the character and the estimated display. It is characterized by that.

このように、検出されたユーザの操作状況に基づいて、ディスプレイに対するユーザの注目度を推定し、キーボードから入力された文字および推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測するので、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。   As described above, the user's attention level with respect to the display is estimated based on the detected user operation state, and the character string to be a candidate is determined based on the characters input from the keyboard and the estimated user's attention level with respect to the display. Therefore, it is possible to improve the operability at the time of character input and to present a highly accurate word or word string.

本発明によれば、検出されたユーザの操作状況に基づいて、ディスプレイに対するユーザの注目度を推定し、キーボードから入力された文字および推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測するので、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。   According to the present invention, the user's attention level to the display is estimated based on the detected user operation status, and the candidate is based on the characters input from the keyboard and the estimated user's attention level to the display. Since the character string is predicted, it is possible to improve the operability at the time of character input and to present a highly accurate word or word string.

本実施形態に係る入力支援装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the input assistance apparatus which concerns on this embodiment. 情報携帯端末A1の概観を示す図である。It is a figure which shows the external appearance of information portable terminal A1. 第1の実施形態に係る入力支援装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the input assistance apparatus which concerns on 1st Embodiment. 第2の実施形態に係る入力支援装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the input assistance apparatus which concerns on 2nd Embodiment. 入力座標とボタンに割り当てた得点を示す図である。It is a figure which shows the score assigned to the input coordinate and the button. タッチ座標の得点例を示す図である。It is a figure which shows the score example of a touch coordinate. 得点計算例を示す図である。It is a figure which shows the example of score calculation.

本発明の実施形態に係る入力支援装置は、タッチパネルによる文章入力の操作性向上のために、センシングデバイスでユーザの操作状況を把握し、センシングデバイスから取得したデータに基づいて、ユーザのディスプレイに対する注目度を推定する。そして、この注目度に応じて、表示する文字候補・領域を変更する。   An input support apparatus according to an embodiment of the present invention recognizes a user's operation status with a sensing device and improves the operability of text input using a touch panel, and pays attention to a user's display based on data acquired from the sensing device. Estimate the degree. Then, the character candidates / areas to be displayed are changed according to the degree of attention.

図1は、本実施形態に係る入力支援装置の概略構成を示すブロック図である。図1において、入力部1は、ユーザがデータを入力するためのインタフェースである。例えば、タッチパネルディスプレイと、そのタッチパネルディスプレイに表示したキーボードから構成される。タッチパネルディスプレイから得られる二次元情報は、座標Xt=(xt,yt)として把握される。また、三次元情報の場合は、座標Xt=(xt,yt,zt)として把握される。入力文字表示部3は、ユーザが入力中の文字およびユーザの操作により確定した文字を表示する。辞書格納部5は、単語と、それを構成する文字列の組み合わせを格納する。 FIG. 1 is a block diagram illustrating a schematic configuration of the input support apparatus according to the present embodiment. In FIG. 1, an input unit 1 is an interface for a user to input data. For example, it comprises a touch panel display and a keyboard displayed on the touch panel display. The two-dimensional information obtained from the touch panel display is grasped as coordinates X t = (x t , y t ). In the case of three-dimensional information, it is grasped as coordinates X t = (x t , y t , z t ). The input character display unit 3 displays characters that are being input by the user and characters that have been determined by user operations. The dictionary storage unit 5 stores a combination of a word and a character string constituting the word.

文字列予測部7は、入力部1から得られる座標情報と、単語間の関係性を定式化した言語モデルに基づいて、辞書格納部5の単語辞書中に登録されている単語のスコア値を算出し、上位N個の文字列を予測する。代表的な言語モデルとしては、Nグラムモデル、隠れマルコフモデル、最大エントロピーモデル、などがある。   The character string prediction unit 7 calculates the score value of the word registered in the word dictionary of the dictionary storage unit 5 based on the coordinate information obtained from the input unit 1 and the language model in which the relationship between words is formulated. Calculate and predict the top N character strings. Typical language models include an N-gram model, a hidden Markov model, and a maximum entropy model.

仮名漢字変換部9は、入力されてディスプレイに表示された文字列から、候補単語(単語・文節・文)を前方一致、部分一致または後方一致により予測変換・補完する。この候補単語は、単語、文節または文のいずれであってもよい。文字列補完部11は、仮名漢字変換部9から取得した文字列に基づいて、前方一致、部分一致または後方一致などにより、文字列を補完する処理を行なう。候補仮名漢字表示部13は、文字列補完部11から出力された単語を表示する。   The kana-kanji conversion unit 9 predictively converts and complements candidate words (words / phrases / sentences) from a character string that is input and displayed on the display by a forward match, partial match, or backward match. This candidate word may be a word, a clause, or a sentence. Based on the character string acquired from the kana-kanji conversion unit 9, the character string complementing unit 11 performs a process of complementing the character string by forward matching, partial matching, backward matching, or the like. The candidate kana / kanji display unit 13 displays the word output from the character string complementing unit 11.

センシングデバイス15は、イメージセンサとデプスセンサから構成され、視線認識を行なう。ディスプレイ注目度推定部17は、センシングデバイス15から入力されたデータに基づいて、ユーザのディスプレイ注目度を推定する。候補仮名漢字表示変更部19は、ディスプレイ注目度推定部17から入力されたディスプレイ注目度に応じて、候補となる文字列の割合を変更する。音声出力部21は、候補となる文字列を音声として出力する。主制御部22は、各構成要素の動作を制御する。   The sensing device 15 includes an image sensor and a depth sensor, and performs line-of-sight recognition. The display attention level estimation unit 17 estimates the user's display attention level based on the data input from the sensing device 15. The candidate kana / kanji display changing unit 19 changes the ratio of the candidate character strings according to the display attention level input from the display attention level estimation unit 17. The voice output unit 21 outputs candidate character strings as voice. The main control unit 22 controls the operation of each component.

(第1の実施形態)
本実施形態では、情報携帯端末として、タッチパネルを搭載した情報携帯端末を例にとって説明する。また、本実施形態では、ディスプレイ注目度Oを求める例として、イメージセンサとデプスセンサからなる視線認識を採用する。本実施形態における視線認識は、ディスプレイ上のXt=(xt,yt)を示すポインタとして取得できるものとする。
(First embodiment)
In the present embodiment, an information portable terminal equipped with a touch panel will be described as an example of the information portable terminal. In the present embodiment, as an example of obtaining the display attention degree O, line-of-sight recognition including an image sensor and a depth sensor is employed. The line-of-sight recognition in the present embodiment can be acquired as a pointer indicating X t = (x t , y t ) on the display.

ディスプレイ注目度推定部17による処理は、以下の通りである。すなわち、ディスプレイ注目度Oは、ユーザが文字入力の際に、ディスプレイの文字入力領域をどれだけ注目しているかの指標を意味する。ある文字Wt_1を入力してから、n文字目を入力するまでの時間をTnとすると、ディスプレイ注目度Lは、Tn中に、ディスプレイの文字入力領域と、それ以外の領域(ディスプレイ外も含む)を行き来した回数num、ディスプレイを見た時間time、視線が示すポインタXt時系列の関数で以下のように表すことができる。これらの値のみならず、Xtの平均、分散、その他算出できる値を用いる。
O=α(time/ Tn)*β(1-exp(-a・num))*γ(exp(-b・RMS(σx,σy))) (0≦O≦1)
ただし、a,b,α,β,γは係数(0<a,b,0<α,β,γ<1 )、RMSは二乗平均を示す。
The processing by the display attention level estimation unit 17 is as follows. That is, the display attention degree O means an index of how much attention a user has on the character input area of the display when the user inputs characters. Enter a certain character W t _ 1, and the time to enter the n-th character and T n, display attention L is, in T n, and the character input area of the display, the other region ( The number of times (including outside the display) num, the time when the display was viewed, and the pointer Xt time series function indicated by the line of sight can be expressed as follows. Not only these values, the average of X t, dispersion, use other calculation values can be.
O = α (time / T n ) * β (1-exp (-a · num)) * γ (exp (-b · RMS (σx, σy))) (0 ≦ O ≦ 1)
However, a, b, α, β, γ are coefficients (0 <a, b, 0 <α, β, γ <1), and RMS represents a mean square.

ディスプレイ注目度Oは、候補単語表示変更部に送信される。ここでは、複数の文字入力に対して、ディスプレイ注目度を算出したが、一文字毎のディスプレイ注目度を算出してもよい。   The display attention degree O is transmitted to the candidate word display changing unit. Although the display attention level is calculated for a plurality of character inputs here, the display attention level for each character may be calculated.

文字列予測部7による処理は、以下の通りである。すなわち、文字列予測部7は、入力された実際の文字列と、それ以外の類似した文字列を予測する。この手法としては、特許文献1に記載されているように、タッチ位置に近い文字に対してスコアをつけて、スコアを比較する手法や、特許文献2に記載されているように、確率を用いる手法を採ることが可能である。本実施形態では、タッチモデルとn-gram文字連鎖確率を用いる手法を採用する。   Processing by the character string prediction unit 7 is as follows. That is, the character string predicting unit 7 predicts the input actual character string and other similar character strings. As this method, as described in Patent Document 1, a score is assigned to a character close to the touch position, and the scores are compared. As described in Patent Document 2, probability is used. It is possible to take a technique. In this embodiment, a method using a touch model and an n-gram character chain probability is adopted.

タッチモデルは、まず、予め文字毎に2次元座標を変数とした確率分布関数Pwi(x,y)を定義しておく。Pwi(x,y)は、座標(x,y)に対する、文字wiが生起する確率を示す関数である。この関数の例としては、混合ガウス分布などが挙げられる。 In the touch model, first, a probability distribution function Pw i (x, y) with a two-dimensional coordinate as a variable is defined in advance for each character. Pw i (x, y) is a function indicating the probability of occurrence of the character w i with respect to the coordinates (x, y). An example of this function is a mixed Gaussian distribution.

n-gram文字連鎖確率は、文字wi-1, …,w1 が入力された後に、文字wi を表示する確率であり、P(wi|wi-1, …,w1)= ΠP (wi|wi-1, …,w1))と表わすことができる。 The n-gram character chain probability is the probability of displaying the character w i after the characters w i-1 ,…, w 1 are input, and P (w i | w i-1 ,…, w 1 ) = ΠP (w i | w i−1 ,…, w 1 )).

P(wi|(x,y))=P wi(x,y)P(wi|wi-1, …,w1)がその文字に対する文字生起確率となり、文字列に対しては、文字生起確率を各々累積したものが文字列の生起確率となる。実際は、全ての文字列について計算すると計算量・使用メモリが膨大になるためViterbi algorithmなどで簡易的に計算する。 P (w i | (x, y)) = P w i (x, y) P (w i | w i-1 ,…, w 1 ) is the character occurrence probability for that character. A character string occurrence probability is obtained by accumulating the character occurrence probabilities. Actually, if all the character strings are calculated, the calculation amount and memory used become enormous.

図2は、情報携帯端末A1の概観を示す図である。情報携帯端末A1は、入力文字表示領域A2、候補単語表示領域A3、およびタッチパネル上にトグルキーボードA4を備える。例えば、図2に示すようなトグルキーボードで「あした」(“あ”、“さ”、“さ”、“た”)と入力されたとき、「あした」以外に、他の候補として「あさは」「あきた」「かした」などが候補として算出され、それぞれに確率が付与されている。これらの情報を、仮名漢字変換部9に送信する。   FIG. 2 is a diagram showing an overview of the portable information terminal A1. The information portable terminal A1 includes an input character display area A2, a candidate word display area A3, and a toggle keyboard A4 on the touch panel. For example, when “Tomorrow” (“Ah”, “Sa”, “Sa”, “Ta”) is entered with a toggle keyboard as shown in FIG. “Akita”, “Kakashi”, etc. are calculated as candidates, and a probability is given to each. These pieces of information are transmitted to the kana-kanji conversion unit 9.

仮名漢字変換部9の処理は、以下の通りである。すなわち、仮名漢字変換には、ヒューリスティックな仮名漢字変換と、統計的仮名漢字変換とがあるが、本実施形態では、後者の一つである、「統計的最少コスト法」を採用する。これにより、実際に入力された文字列と、文字列予測部から取得した複数の文字列(仮名列)を仮名漢字変換し、その候補を文字列補完部11に送信する。   The process of the kana-kanji conversion unit 9 is as follows. That is, kana-kanji conversion includes heuristic kana-kanji conversion and statistical kana-kanji conversion. In this embodiment, the “statistical least cost method”, which is one of the latter, is adopted. Thus, the actually input character string and a plurality of character strings (kana strings) acquired from the character string predicting unit are converted to kana-kanji characters, and the candidates are transmitted to the character string complementing unit 11.

文字列補完部11の処理は、以下の通りである。すなわち、文字列補完部11では、仮名漢字変換部9から取得した文字列を基に、前方一致、部分一致、後方一致などにより文字列を補完する処理を行なう。例えば、入力が「明日」であった場合、出力を「明日は」とする。   The processing of the character string complementing unit 11 is as follows. That is, the character string complementing unit 11 performs processing for complementing the character string by forward matching, partial matching, backward matching, and the like based on the character string acquired from the kana-kanji conversion unit 9. For example, if the input is “Tomorrow”, the output is “Tomorrow is”.

次に、ディスプレイ注目度に基づく候補仮名漢字表示変更部19の処理について説明する。ここでは、実際に入力された文字列に関する文字列が、例えば、上述したように、「あした」であった場合、文字列予測部7で予測されたそれ以外の文字列に関して、仮名漢字変換・文字列補完をした結果を表示する割合、領域サイズ、配色などを変更する処理を行なう。候補仮名漢字表示変更部19で処理されるパラメタの例として、各々の文字列予測部7から予測される単語表示の数(領域)・位置が挙げられる。   Next, the process of the candidate kana / kanji display changing unit 19 based on the display attention level will be described. Here, for example, as described above, when the character string related to the actually input character string is “Ashita”, kana-kanji conversion / conversion is performed for other character strings predicted by the character string prediction unit 7. Processing to change the ratio, area size, color scheme, etc. for displaying the result of character string completion is performed. Examples of parameters processed by the candidate kana / kanji display changing unit 19 include the number (region) / position of word display predicted from each character string predicting unit 7.

ディスプレイ注目度Oが高い場合は、実際に入力された文字列に関する仮名漢字変換結果(これを「結果1」とする)の割合および表示領域を増加させる。一方、ディスプレイ注目度Oが低い場合は、文字列予測部から取得した文字列(仮名列)に関する仮名漢字変換結果(これを「結果2」とする)の割合を減少させる。候補表示数の割合の関数は、例えば、(結果1の候補表示数の割合r1)=1-μO、とすることができる。これを候補仮名漢字表示部13に表示する。   When the display attention degree O is high, the ratio and display area of the kana-kanji conversion result (this is referred to as “result 1”) regarding the actually input character string is increased. On the other hand, when the display attention degree O is low, the ratio of the kana-kanji conversion result (referred to as “result 2”) related to the character string (kana string) acquired from the character string prediction unit is decreased. The function of the ratio of the number of candidate displays can be, for example, (the ratio r1 of the number of candidate displays of result 1) = 1−μO. This is displayed on the candidate kana / kanji display unit 13.

図3は、第1の実施形態に係る入力支援装置の動作を示すフローチャートである。まず、ユーザからの入力を待機している状態で、入力があったかどうかを判断する(ステップS1)。入力が無い場合は、ステップS1の判断を繰り返し、入力があった場合は、入力座標(x1,y1)を検知する(ステップS2)。次に、初期化を行ない、「k=1, Pwi 0=1」とする(ステップS3)。次に、全文字wiにおいて、文字生起確率を計算し(ステップS4)、累積確率「Pwi k=Pwi k-1×Pwi((xk,yk))」を算出する(ステップS5)。次に、単語候補をn個抽出し(ステップS6)、仮名漢字変換・文字列補完を行なう(ステップS7)。 FIG. 3 is a flowchart showing the operation of the input support apparatus according to the first embodiment. First, it is determined whether there is an input while waiting for an input from the user (step S1). If there is no input, the determination in step S1 is repeated. If there is an input, the input coordinates (x1, y1) are detected (step S2). Next, initialization is performed to set “k = 1, Pw i 0 = 1” (step S3). Next, the character occurrence probability is calculated for all the characters w i (step S4), and the cumulative probability “Pw i k = Pw i k−1 × Pw i ((x k , y k ))” is calculated (step S5). Next, n word candidates are extracted (step S6), and kana-kanji conversion and character string interpolation are performed (step S7).

一方、ステップS1において、ユーザからの入力があった場合、センシングデバイスから情報を取得し(ステップS10)、ディスプレイ注目度を推定する(ステップS11)。このディスプレイ注目度に基づいて、文字列候補の変更を行なう(ステップS8)。次に、変更された文字列候補を単語候補として表示する(ステップS9)。   On the other hand, if there is an input from the user in step S1, information is acquired from the sensing device (step S10), and the display attention level is estimated (step S11). Based on the display attention degree, the character string candidate is changed (step S8). Next, the changed character string candidate is displayed as a word candidate (step S9).

次に、入力があったかどうかを判断する(ステップS12)。入力が無い場合は、ステップS12の判断を繰り返し、入力があった場合は、入力座標(xk+1,yk+1)を検知する(ステップS13)。次に、(xk+1,yk+1)は、単語候補表示領域であるか、キーボード領域であるかを判断し(ステップS14)、キーボード領域であった場合は、「k++」として(ステップS16)、ステップS4に遷移する。一方、ステップS14において、単語表示領域であった場合は、文字列を入力文字表示部3に表示して(ステップS15)、ステップS1に遷移する。 Next, it is determined whether or not there is an input (step S12). If there is no input, the determination in step S12 is repeated. If there is an input, the input coordinates (x k + 1 , y k + 1 ) are detected (step S13). Next, it is determined whether (x k + 1 , y k + 1 ) is a word candidate display area or a keyboard area (step S14). Step S16) and the process proceeds to Step S4. On the other hand, when it is a word display area in step S14, a character string is displayed on the input character display part 3 (step S15), and it transfers to step S1.

(第2の実施形態)
上述したように、第1の実施形態では、ディスプレイ注目度を、文字列候補の変更のみに反映させたが、第2の実施形態では、一文字毎にディスプレイ注目度Oiを算出する。算出したディスプレイ注目度Oiを用いて、文字列予測部7で算出される文字毎の確率に対し、以下の式に示すように、重みづけを行なう。
(Second Embodiment)
As described above, in the first embodiment, the display attention level is reflected only on the change of the character string candidate. However, in the second embodiment, the display attention level O i is calculated for each character. Using the calculated display attention degree O i , the probability for each character calculated by the character string prediction unit 7 is weighted as shown in the following equation.

P(wi |(x,y))= ξOi* P wi(x,y) P(wi|wi-1, …,w1)
これにより、ディスプレイ注目度が高い時の文字の生起確率を増加させる。
P (w i | (x, y)) = ξO i * P w i (x, y) P (w i | w i-1 ,…, w 1 )
Thereby, the occurrence probability of the character when the display attention degree is high is increased.

図4は、第2の実施形態に係る入力支援装置の動作を示すフローチャートである。ステップT5において、ディスプレイ注目度oiを用いて(ステップT11)、重み付けを行なう。その他のステップは、第1の実施形態と同様である。 FIG. 4 is a flowchart showing the operation of the input support apparatus according to the second embodiment. In step T5, weighting is performed using the display attention degree o i (step T11). Other steps are the same as those in the first embodiment.

(第3の実施形態)
第2の実施形態では、一文字毎にディスプレイ注目度oiを算出し、これを文字の重みづけに用いたが、第3の実施形態では、OiおよびP wi(x,y) P(wi|wi-1, …,w1)がある一定の閾値を超えている場合、その時点で入力された文字wi を確定させる。これにより、演算量、メモリ使用量を減少させることが可能となる。
(Third embodiment)
In the second embodiment, the display attention degree o i is calculated for each character and used for character weighting. In the third embodiment, O i and P w i (x, y) P ( If w i | w i−1 ,..., w 1 ) exceeds a certain threshold, the character w i input at that time is determined. Thereby, it is possible to reduce the calculation amount and the memory usage.

なお、第1〜第3の実施形態において、ディスプレイ注目度に基づく入力文字表示領域・候補文字領域の表示方法として、文字の色、ハイライトを変えることも可能である。   In the first to third embodiments, the character color and highlight can be changed as the display method of the input character display area / candidate character area based on the display attention level.

(第4の実施形態)
第4の実施形態では、音声合成によるトークバックを行なう。第1〜第3の実施形態では、候補仮名漢字表示変更部19で候補仮名漢字表示を変更した後、候補仮名漢字表示部13に出力した。これに対し、第4の実施形態では、文字列予測部7で算出される文字列の確率から、確率の高い順に、音声出力部21において、トークバックを行なう。トークバックの内容は、確率の高い順の読み(仮名)または、仮名漢字変換結果または、補完結果のいずれかとする。
(Fourth embodiment)
In the fourth embodiment, talkback is performed by speech synthesis. In the first to third embodiments, the candidate kana / kanji display changing unit 19 changes the candidate kana / kanji display and then outputs the candidate kana / kanji display unit 13. On the other hand, in the fourth embodiment, the speech output unit 21 performs talkback in descending order of probability from the probability of the character string calculated by the character string prediction unit 7. The content of the talkback is either reading in the order of high probability (kana), kana-kanji conversion result, or complement result.

(センシングデバイスについて)
第1〜第4の実施形態では、センシングデバイスを視線認識としたが、近接センサ、加速度、ジャイロ、角速度等のセンサなどを用いて、ディスプレイ注目度を算出してもよい。ディスプレイ注目度の算出としては、見ている状況とそうでない状況のデータを収集して、当データを用いた機械学習・パターン認識を行ない、その信頼度・スコア値を用いる手法などがある。パターン認識としては、SVMやベイズ、HMMなど一般的な手法でもよい。
(About sensing devices)
In the first to fourth embodiments, the line-of-sight recognition is used as the sensing device, but the display attention degree may be calculated using a sensor such as a proximity sensor, acceleration, gyroscope, and angular velocity. As the calculation of the display attention level, there is a method of collecting data of a situation that is being viewed and a situation that is not, performing machine learning / pattern recognition using the data, and using the reliability / score value. The pattern recognition may be a general method such as SVM, Bayes, or HMM.

以上説明したように、本実施形態によれば、ユーザの端末操作中の画面への注目度に基づいて、表示される文字候補を変更するので、高精度な単語または単語列提示を行なうことが可能となる。   As described above, according to the present embodiment, the displayed character candidates are changed based on the degree of attention to the screen during the user's terminal operation, so that highly accurate words or word strings can be presented. It becomes possible.

1 入力部
3 入力文字表示部
5 辞書格納部
7 文字列予測部
9 仮名漢字変換部
11 文字列補完部
13 候補仮名漢字表示部
15 センシングデバイス
17 ディスプレイ注目度推定部
19 候補仮名漢字表示変更部
21 音声出力部
23 主制御部
A1 情報携帯端末
A2 入力文字表示領域
A3 候補単語表示領域
A4 トグルキーボード

DESCRIPTION OF SYMBOLS 1 Input part 3 Input character display part 5 Dictionary storage part 7 Character string prediction part 9 Kana kanji conversion part 11 Character string complement part 13 Candidate Kana kanji display part 15 Sensing device 17 Display attention estimation part 19 Candidate kana kanji display change part 21 Voice output unit 23 Main control unit A1 Information portable terminal A2 Input character display area A3 Candidate word display area A4 Toggle keyboard

Claims (7)

ユーザが入力しようとしている文字列を予測する入力支援装置であって、
少なくとも文字を表示するタッチパネルディスプレイと、
前記タッチパネルディスプレイに表示され、ユーザによる文字の入力を受け付けるソフトウェアキーボードと、
装置本体に対するユーザの操作状況を検出するセンシングデバイスと、
前記検出されたユーザの操作状況に基づいて、前記ソフトウェアキーボードに対するユーザの注目度を推定する注目度推定部と、
前記ソフトウェアキーボードから入力された文字および前記推定されたソフトウェアキーボードに対するユーザの注目度に基づいて、候補とする文字列を予測する予測部と、
前記予測した候補とする文字列を出力する出力部と、を備えることを特徴とする入力支援装置。
An input support device that predicts a character string that a user is about to input,
A touch panel display that displays at least characters,
A software keyboard that is displayed on the touch panel display and accepts input of characters by a user;
A sensing device for detecting a user's operation status on the apparatus main body;
A degree-of-interest estimation unit that estimates the degree of attention of the user with respect to the software keyboard based on the detected user operation state;
A prediction unit based on the user's attention, predicts a character string as a candidate for the software keyboard that is character and the estimated input from the software keyboard,
And an output unit that outputs a character string as the predicted candidate.
前記予測部は、前記注目度が高い場合は、ユーザによって入力された文字を含む文字列の生起確率を高くする一方、前記注目度が低い場合は、ユーザによって入力された文字を含む文字列の生起確率を低くすることを特徴とする請求項1記載の入力支援装置。   When the degree of attention is high, the prediction unit increases the occurrence probability of the character string including the character input by the user. On the other hand, when the degree of attention is low, the prediction unit increases the probability of the character string including the character input by the user. 2. The input support apparatus according to claim 1, wherein the occurrence probability is lowered. 前記注目度推定部は、一文字毎の注目度を推定し、
前記予測部は、前記一文字毎の注目度が高い場合は、注目度が高い文字の生起確率を高くする一方、前記一文字毎の注目度が低い場合は、注目度が低い文字の生起確率を低くすることを特徴とする請求項1記載の入力支援装置。
The attention level estimation unit estimates the attention level for each character,
The predicting unit increases the probability of occurrence of a character with a high degree of attention when the degree of attention for each character is high, while decreasing the probability of occurrence of a character with a low degree of attention when the degree of attention for each character is low. The input support apparatus according to claim 1, wherein:
前記ソフトウェアキーボードは、前記タッチパネルディスプレイに接触したユーザの指の座標情報を検出し、
前記予測部は、前記検出された座標情報、単語間の関係性を定式化した言語モデルおよび前記注目度に基づいて、候補となる文字列を予測することを特徴とする請求項1から請求項3のいずれかに記載の入力支援装置。
The software keyboard detects coordinate information of a user's finger that has touched the touch panel display ,
The prediction unit predicts a candidate character string based on the detected coordinate information, a language model that formulates a relationship between words, and the degree of attention. 4. The input support device according to any one of 3.
前記注目度推定部は、前記検出されたユーザの操作状況に基づいて、ユーザが前記ソフトウェアキーボードを目視する時間、頻度、ユーザの操作の特徴量または前記ソフトウェアキーボードに対するユーザの入力座標情報の少なくとも一つに基づいて、前記注目度を推定することを特徴とする請求項1から請求項4のいずれかに記載の入力支援装置。 The attention degree estimation unit based on the operation status of the detected user, time for the user to visually the software keyboard, the frequency, at least one user input coordinate information for the feature amount or the software keyboard operation of the user The input support apparatus according to any one of claims 1 to 4, wherein the attention degree is estimated based on one of the two. ユーザが入力しようとしている文字列を予測する入力支援方法であって、
少なくとも文字をタッチパネルディスプレイに表示するステップと、
前記タッチパネルディスプレイに表示されたソフトウェアキーボードからユーザによる文字の入力を受け付けるステップと、
センシングデバイスで装置本体に対するユーザの操作状況を検出するステップと、
前記検出されたユーザの操作状況に基づいて、前記ソフトウェアキーボードに対するユーザの注目度を推定するステップと、
前記ソフトウェアキーボードから入力された文字および前記推定されたソフトウェアキーボードに対するユーザの注目度に基づいて、候補とする文字列を予測するステップと、
前記予測した候補とする文字列を出力するステップと、を少なくとも含むことを特徴とする入力支援方法。
An input support method for predicting a character string that a user is about to input,
Displaying at least characters on the touch panel display; and
Receiving a character input by a user from a software keyboard displayed on the touch panel display ;
Detecting a user's operation status on the apparatus main body with a sensing device;
Estimating a user's attention to the software keyboard based on the detected user operation status;
A step of based on the user's attention, predicts a character string as a candidate for the software keyboard that is character and the estimated input from the software keyboard,
Outputting at least the character string as the predicted candidate.
ユーザが入力しようとしている文字列を予測する入力支援装置のプログラムであって、
少なくとも文字をタッチパネルディスプレイに表示する処理と、
前記タッチパネルディスプレイに表示されたソフトウェアキーボードからユーザによる文字の入力を受け付ける処理と、
センシングデバイスで装置本体に対するユーザの操作状況を検出する処理と、
前記検出されたユーザの操作状況に基づいて、前記ソフトウェアキーボードに対するユーザの注目度を推定する処理と、
前記ソフトウェアキーボードから入力された文字および前記推定されたソフトウェアキーボードに対するユーザの注目度に基づいて、候補とする文字列を予測する処理と、
前記予測した候補とする文字列を出力する処理と、の一連の処理をコンピュータに実行させることを特徴とするプログラム。
A program of an input support device that predicts a character string that a user is going to input,
Processing to display at least characters on the touch panel display;
A process of accepting a character input by a user from a software keyboard displayed on the touch panel display ;
A process for detecting a user's operation status with respect to the apparatus main body with a sensing device;
A process of estimating the degree of attention of the user with respect to the software keyboard based on the detected operation status of the user;
A process of the software based on the user's attention for the character and the estimated software keyboard input from a keyboard, predicts a character string as a candidate,
A program for causing a computer to execute a series of processes of outputting a character string as the predicted candidate.
JP2013161617A 2013-08-02 2013-08-02 Input support apparatus, input support method, and program Expired - Fee Related JP6179036B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013161617A JP6179036B2 (en) 2013-08-02 2013-08-02 Input support apparatus, input support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013161617A JP6179036B2 (en) 2013-08-02 2013-08-02 Input support apparatus, input support method, and program

Publications (2)

Publication Number Publication Date
JP2015033011A JP2015033011A (en) 2015-02-16
JP6179036B2 true JP6179036B2 (en) 2017-08-16

Family

ID=52517988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013161617A Expired - Fee Related JP6179036B2 (en) 2013-08-02 2013-08-02 Input support apparatus, input support method, and program

Country Status (1)

Country Link
JP (1) JP6179036B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04289910A (en) * 1991-03-19 1992-10-14 Kobe Nippon Denki Software Kk Information input system
JPH1078955A (en) * 1996-09-04 1998-03-24 Nec Corp Kana-to-kanji conversion system
US7013258B1 (en) * 2001-03-07 2006-03-14 Lenovo (Singapore) Pte. Ltd. System and method for accelerating Chinese text input
JP2009266010A (en) * 2008-04-25 2009-11-12 Sharp Corp Character conversion system

Also Published As

Publication number Publication date
JP2015033011A (en) 2015-02-16

Similar Documents

Publication Publication Date Title
JP5731281B2 (en) Character input device and program
US9471220B2 (en) Posture-adaptive selection
US9021380B2 (en) Incremental multi-touch gesture recognition
US9798718B2 (en) Incremental multi-word recognition
US10977440B2 (en) Multi-gesture text input prediction
EP2618248B1 (en) Virtual keyboard providing an indication of received input
JP5852930B2 (en) Input character estimation apparatus and program
US9552080B2 (en) Incremental feature-based gesture-keyboard decoding
US20120069027A1 (en) Input device
EP2703955B1 (en) Scoring predictions based on prediction length and typing speed
EP2703956B1 (en) Ranking predictions based on typing speed and typing confidence
JP5521028B2 (en) Input method editor
EP2946280A1 (en) Touch keyboard using language and spatial models
CN107085471B (en) Input method error correction method and device based on user input speed
JP6179036B2 (en) Input support apparatus, input support method, and program
JP6226472B2 (en) Input support device, input support system, and program
JP6593992B2 (en) Input support device, input support system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170628

R150 Certificate of patent or registration of utility model

Ref document number: 6179036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees