JP6179036B2 - Input support apparatus, input support method, and program - Google Patents
Input support apparatus, input support method, and program Download PDFInfo
- Publication number
- JP6179036B2 JP6179036B2 JP2013161617A JP2013161617A JP6179036B2 JP 6179036 B2 JP6179036 B2 JP 6179036B2 JP 2013161617 A JP2013161617 A JP 2013161617A JP 2013161617 A JP2013161617 A JP 2013161617A JP 6179036 B2 JP6179036 B2 JP 6179036B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- input
- character
- attention
- character string
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Input From Keyboards Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、ユーザが入力しようとしている文字列を予測する技術に関する。 The present invention relates to a technique for predicting a character string that a user intends to input.
従来から、タッチパネルを備えた携帯電話機やPDA(Personal Digital Assistants)では、文字入力はソフトウェアキーボードで行なわれる。文字入力においては、確定的な正しい入力文字について、前方一致、部分一致などの予測を行なって、その仮名漢字文を提示したり、それに続く文字を補った形で提示したりすることが多い。 Conventionally, in a mobile phone equipped with a touch panel and PDA (Personal Digital Assistants), character input is performed with a software keyboard. In character input, for a definite and correct input character, prediction such as forward match or partial match is often performed, and the kana / kanji sentence is presented, or the subsequent characters are presented in a supplemented form.
一方、ユーザがタッチパネルを操作する際、ソフトウェアキーボード上の特定のボタンを押したつもりが、意図しないボタンが反応してしまうことがある。このため、従来から、ユーザが間違えて入力した文字に対して、確率やスコアに基づいて訂正した文字を提示する技術が提案されている。 On the other hand, when the user operates the touch panel, a user may press a specific button on the software keyboard, but an unintended button may react. For this reason, conventionally, there has been proposed a technique for presenting a corrected character based on a probability and a score with respect to a character input by the user by mistake.
特許文献1および特許文献2には、タッチパネルにおけるユーザの入力座標と、ソフトウェアキーボード上の各文字に対応するボタンの位置関係から、ユーザが入力した単語の優先度を推定する装置が開示されている。特許文献1に記載されている技術では、図5に示すように、入力座標と各文字に対応するボタンの領域の位置関係から、押された候補となる文字を抽出し、得点を付ける。次に、図6Aおよび図6Bに示すように、連続する座標入力に伴って抽出される各文字群から、1文字ずつ取り出して文字列を全ての組み合わせについて作成し、その文字列の中から単語となり得るものを抽出する。最後に、その単語を構成する各文字の得点と、単語の使用頻度から算出された得点から各単語の優先度を算出し、その優先度順に提示するというものである。
特許文献2に記載されている技術は、文字毎にタッチ座標の確率密度関数から算出される確率と、“n-gram”を用いた言語モデルによる言語確率の積により、入力開始から何文字目であるかに応じた文字毎の生起確率値を求め、生起確率の高い順に候補単語を提示する。この方法により、タッチ入力に誤りがあっても、候補単語の中にユーザ所望の単語を表示することが可能となる。
The technique described in
特許文献3に記載されている技術は、イメージセンサおよびデプスセンサから得られる情報から、視線情報を取得し、キャリブレーションを行ない、2次元上に表示される画面のポインタを操作する。 The technique described in Patent Document 3 acquires line-of-sight information from information obtained from an image sensor and a depth sensor, performs calibration, and operates a pointer on a screen displayed two-dimensionally.
しかしながら、特許文献1および特許文献2に記載されている技術は、入力座標や言語モデルを用いて、ユーザ所望の単語候補を複数予測し表示するものであるが、予測の結果、「実際に入力されている文字列と同じ文字列が表示され、その文字列から変換される単語(漢字仮名交じり文)」と、「異なる文字列が表示され、その文字列から変換される単語」が混在して表示される可能性がある。
However, the techniques described in
ここで、ユーザが端末の画面を確認しながら文字の入力を行なっている場合は、入力誤りが少なく、実際に入力されている文字列から変換される単語を提示したり、前方一致を用いて補完したりすることによって、ユーザの所望する文字列が表示される可能性が高くなると考えられる。 Here, when the user is inputting characters while checking the terminal screen, there are few input errors, and words that are converted from the actually input character string are presented or forward matching is used. By complementing, it is considered that the possibility that the character string desired by the user is displayed is increased.
逆に、ユーザがブラインドタッチで文字の入力を行なっている場合は、入力誤りが多く、タッチ誤りを考慮した変換候補を多く表示することによって、ユーザの所望する文字列が表示される可能性が高くなると考えられる。 Conversely, when the user is inputting characters by blind touch, there are many input errors, and by displaying a large number of conversion candidates in consideration of touch errors, the user's desired character string may be displayed. It is thought to be higher.
特許文献3に記載されている技術は、視線情報により視線が示す位置を判別し、ポインタとして操作するものであるが、文字を入力する際は、画面に表示されているソフトウェアキーボードを見る必要がある。また、ディスプレイにタッチパネルを搭載していれば、タッチでの入力も可能であるが、ユーザが画面を見ているかどうかの情報については考慮されていない。従って、特許文献3では、ユーザがブラインドタッチをしているかどうかによって変換候補を変えることは想定されていないと言える。 The technique described in Patent Document 3 determines the position indicated by the line of sight based on the line-of-sight information and operates as a pointer. However, when inputting characters, it is necessary to look at the software keyboard displayed on the screen. is there. Further, if a touch panel is mounted on the display, touch input is possible, but information on whether or not the user is looking at the screen is not taken into consideration. Therefore, in patent document 3, it can be said that it is not assumed that a conversion candidate is changed depending on whether the user is performing a blind touch.
本発明は、このような事情に鑑みてなされたものであり、ユーザの端末操作中の画面への注目度に基づいて、表示される文字候補を変更することによって、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことができる入力支援装置、入力支援方法およびプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and improves the operability during character input by changing the displayed character candidates based on the degree of attention to the screen while the user is operating the terminal. It is an object to provide an input support apparatus, an input support method, and a program capable of presenting a highly accurate word or word string.
(1)上記の目的を達成するために、本発明は、以下のような手段を講じた。すなわち、本発明の入力支援装置は、ユーザが入力しようとしている文字列を予測する入力支援装置であって、少なくとも文字を表示するディスプレイと、ユーザによる文字の入力を受け付けるキーボードと、装置本体に対するユーザの操作状況を検出するセンシングデバイスと、前記検出されたユーザの操作状況に基づいて、前記ディスプレイに対するユーザの注目度を推定する注目度推定部と、前記キーボードから入力された文字および前記推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測する予測部と、前記予測した候補とする文字列を出力する出力部と、を備えることを特徴とする。 (1) In order to achieve the above object, the present invention takes the following measures. That is, the input support device according to the present invention is an input support device that predicts a character string that a user intends to input, and includes a display that displays at least a character, a keyboard that receives character input by the user, and a user for the device body A sensing device that detects the operation status of the user, an attention level estimation unit that estimates a user's level of attention to the display based on the detected user operation status, characters input from the keyboard, and the estimated A prediction unit that predicts a character string as a candidate based on the degree of attention of the user with respect to the display, and an output unit that outputs the character string as the predicted candidate are provided.
このように、検出されたユーザの操作状況に基づいて、ディスプレイに対するユーザの注目度を推定し、キーボードから入力された文字および推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測するので、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。 As described above, the user's attention level with respect to the display is estimated based on the detected user operation state, and the character string to be a candidate is determined based on the characters input from the keyboard and the estimated user's attention level with respect to the display. Therefore, it is possible to improve the operability at the time of character input and to present a highly accurate word or word string.
(2)また、本発明の入力支援装置において、前記予測部は、前記注目度が高い場合は、ユーザによって入力された文字を含む文字列の生起確率を高くする一方、前記注目度が低い場合は、ユーザによって入力された文字を含む文字列の生起確率を低くすることを特徴とする。 (2) In the input support device of the present invention, when the degree of attention is high, the prediction unit increases the probability of occurrence of a character string including a character input by the user while the degree of attention is low. Is characterized in that the occurrence probability of a character string including a character input by a user is lowered.
このように、ユーザのディスプレイに対する注目度が高い場合は、入力誤りは少ないと考えられるため、ユーザによって入力された文字を含む文字列の生起確率を高くする。一方、ユーザのディスプレイに対する注目度が低い場合は、ブラインドタッチ入力をしている可能性があり、入力誤りが多いと考えられるため、ユーザによって入力された文字を含む文字列の生起確率を低くする。これにより、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。 In this way, when the degree of attention of the user's display is high, it is considered that there are few input errors, so the occurrence probability of the character string including the character input by the user is increased. On the other hand, when the degree of attention to the user's display is low, there is a possibility that blind touch input is being performed, and it is considered that there are many input errors, so the occurrence probability of a character string including characters input by the user is lowered. . As a result, it is possible to improve the operability at the time of character input and to present a highly accurate word or word string.
(3)また、本発明の入力支援装置において、前記注目度推定部は、一文字毎の注目度を推定し、前記予測部は、前記一文字毎の注目度が高い場合は、注目度が高い文字の生起確率を高くする一方、前記一文字毎の注目度が低い場合は、注目度が低い文字の生起確率を低くすることを特徴とする。 (3) Further, in the input support device of the present invention, the attention level estimation unit estimates the attention level for each character, and the prediction unit determines that the character having a high attention level when the attention level for each character is high. The occurrence probability of a character with a low degree of attention is lowered when the attention degree for each character is low.
このように、ユーザの一文字毎の注目度が高い場合は、入力誤りは少ないと考えられるため、注目度が高い文字の生起確率を高くする。一方、ユーザの一文字毎の注目度が低い場合は、ブラインドタッチ入力をしている可能性があり、入力誤りが多いと考えられるため、注目度が低い文字の生起確率を低くする。これにより、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。 In this way, when the attention level for each character of the user is high, it is considered that there are few input errors, so the occurrence probability of a character with high attention level is increased. On the other hand, when the attention level for each character of the user is low, there is a possibility that a blind touch input is being performed, and it is considered that there are many input errors, so the occurrence probability of a character with low attention level is reduced. As a result, it is possible to improve the operability at the time of character input and to present a highly accurate word or word string.
(4)また、本発明の入力支援装置において、前記キーボードは、タッチパネルに表示されたソフトウェアキーボードであって、前記タッチパネルに接触したユーザの指の座標情報を検出し、前記予測部は、前記検出された座標情報、単語間の関係性を定式化した言語モデルおよび前記注目度に基づいて、候補となる文字列を予測することを特徴とする。 (4) In the input support device of the present invention, the keyboard is a software keyboard displayed on a touch panel, and detects coordinate information of a user's finger that touches the touch panel, and the prediction unit detects the detection A candidate character string is predicted based on the coordinate information, a language model that formulates the relationship between words, and the degree of attention.
このように、検出された座標情報、単語間の関係性を定式化した言語モデルおよび注目度に基づいて、候補となる文字列を予測するので、タッチパネルによる文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。 Thus, based on the detected coordinate information, the language model that formulates the relationship between words and the attention level, the candidate character strings are predicted, so that the operability at the time of character input by the touch panel is improved, It becomes possible to present highly accurate words or word strings.
(5)また、本発明の入力支援装置において、前記注目度推定部は、前記検出されたユーザの操作状況に基づいて、ユーザが前記ディスプレイを目視する時間、頻度、ユーザの操作の特徴量または前記キーボードに対するユーザの入力座標情報の少なくとも一つに基づいて、前記注目度を推定することを特徴とする。 (5) In the input support device according to the present invention, the attention level estimation unit may determine a time, frequency, a user operation feature amount, or a user operation amount based on the detected user operation state. The degree of attention is estimated based on at least one of user input coordinate information for the keyboard.
このように、検出されたユーザの操作状況に基づいて、ユーザがディスプレイを目視する時間、頻度、ユーザの操作の特徴量またはキーボードに対するユーザの入力座標情報の少なくとも一つに基づいて、注目度を推定するので、ユーザがディスプレイを見ながら文字入力をしているのか、またはブラインドタッチによる文字入力をしているのかに応じて、候補となる文字列を予測することが可能となる。その結果、タッチパネルによる文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。 As described above, based on the detected user operation state, the degree of attention is determined based on at least one of the time and frequency with which the user views the display, the feature amount of the user operation, or the user input coordinate information with respect to the keyboard. Since the estimation is performed, it becomes possible to predict a candidate character string depending on whether the user is inputting characters while looking at the display or is inputting characters by blind touch. As a result, it is possible to improve the operability when inputting characters using the touch panel and present a highly accurate word or word string.
(6)また、本発明の入力支援装置において、前記出力部は、前記予測した文字列を、前記ディスプレイに文字情報として出力し、またはスピーカに音声情報として出力することを特徴とする。 (6) Further, in the input support device according to the present invention, the output unit outputs the predicted character string as character information to the display or as voice information to a speaker.
このように、予測した文字列を、ディスプレイに文字情報として出力し、またはスピーカに音声情報として出力するので、ユーザは予測された文字列を認識し、確定するかどうかを判断することができる。特に、音声情報として出力する場合は、いわゆるトークバックを実施することができるため、ユーザは聴覚により予測された文字列を認識することが可能となる。これにより、高精度な単語または単語列提示を行なうことが可能となる。 In this way, the predicted character string is output as character information to the display or output as voice information to the speaker, so that the user can recognize the predicted character string and determine whether to confirm it. In particular, when outputting as voice information, since so-called talkback can be performed, the user can recognize a character string predicted by hearing. This makes it possible to present a highly accurate word or word string.
(7)また、本発明の入力支援方法は、ユーザが入力しようとしている文字列を予測する入力支援方法であって、少なくとも文字をディスプレイに表示するステップと、キーボードからユーザによる文字の入力を受け付けるステップと、センシングデバイスで装置本体に対するユーザの操作状況を検出するステップと、前記検出されたユーザの操作状況に基づいて、前記ディスプレイに対するユーザの注目度を推定するステップと、前記キーボードから入力された文字および前記推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測するステップと、前記予測した候補とする文字列を出力するステップと、を少なくとも含むことを特徴とする。 (7) Further, the input support method of the present invention is an input support method for predicting a character string that the user intends to input, and at least the step of displaying characters on the display and the input of characters by the user from the keyboard are accepted. A step of detecting an operation state of the user with respect to the apparatus main body by the sensing device, a step of estimating a degree of attention of the user with respect to the display based on the detected operation state of the user, and an input from the keyboard The method includes at least a step of predicting a character string to be a candidate based on a character and a degree of attention of the user with respect to the estimated display, and a step of outputting the character string to be the predicted candidate.
このように、検出されたユーザの操作状況に基づいて、ディスプレイに対するユーザの注目度を推定し、キーボードから入力された文字および推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測するので、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。 As described above, the user's attention level with respect to the display is estimated based on the detected user operation state, and the character string to be a candidate is determined based on the characters input from the keyboard and the estimated user's attention level with respect to the display. Therefore, it is possible to improve the operability at the time of character input and to present a highly accurate word or word string.
(8)また、本発明のプログラムは、ユーザが入力しようとしている文字列を予測する入力支援装置のプログラムであって、少なくとも文字をディスプレイに表示する処理と、キーボードからユーザによる文字の入力を受け付ける処理と、センシングデバイスで装置本体に対するユーザの操作状況を検出する処理と、前記検出されたユーザの操作状況に基づいて、前記ディスプレイに対するユーザの注目度を推定する処理と、前記キーボードから入力された文字および前記推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測する処理と、前記予測した候補とする文字列を出力する処理と、の一連の処理をコンピュータに実行させることを特徴とする。 (8) The program of the present invention is a program for an input support apparatus that predicts a character string that the user is going to input, and accepts at least character display processing and character input by the user from the keyboard. Processing, processing for detecting a user's operation status with respect to the apparatus main body with a sensing device, processing for estimating a user's attention level with respect to the display based on the detected user's operation status, and input from the keyboard A computer executes a series of processes including a process for predicting a character string as a candidate and a process for outputting the character string as a predicted candidate based on the user's degree of attention to the character and the estimated display. It is characterized by that.
このように、検出されたユーザの操作状況に基づいて、ディスプレイに対するユーザの注目度を推定し、キーボードから入力された文字および推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測するので、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。 As described above, the user's attention level with respect to the display is estimated based on the detected user operation state, and the character string to be a candidate is determined based on the characters input from the keyboard and the estimated user's attention level with respect to the display. Therefore, it is possible to improve the operability at the time of character input and to present a highly accurate word or word string.
本発明によれば、検出されたユーザの操作状況に基づいて、ディスプレイに対するユーザの注目度を推定し、キーボードから入力された文字および推定されたディスプレイに対するユーザの注目度に基づいて、候補とする文字列を予測するので、文字入力時の操作性向上を図り、高精度な単語または単語列提示を行なうことが可能となる。 According to the present invention, the user's attention level to the display is estimated based on the detected user operation status, and the candidate is based on the characters input from the keyboard and the estimated user's attention level to the display. Since the character string is predicted, it is possible to improve the operability at the time of character input and to present a highly accurate word or word string.
本発明の実施形態に係る入力支援装置は、タッチパネルによる文章入力の操作性向上のために、センシングデバイスでユーザの操作状況を把握し、センシングデバイスから取得したデータに基づいて、ユーザのディスプレイに対する注目度を推定する。そして、この注目度に応じて、表示する文字候補・領域を変更する。 An input support apparatus according to an embodiment of the present invention recognizes a user's operation status with a sensing device and improves the operability of text input using a touch panel, and pays attention to a user's display based on data acquired from the sensing device. Estimate the degree. Then, the character candidates / areas to be displayed are changed according to the degree of attention.
図1は、本実施形態に係る入力支援装置の概略構成を示すブロック図である。図1において、入力部1は、ユーザがデータを入力するためのインタフェースである。例えば、タッチパネルディスプレイと、そのタッチパネルディスプレイに表示したキーボードから構成される。タッチパネルディスプレイから得られる二次元情報は、座標Xt=(xt,yt)として把握される。また、三次元情報の場合は、座標Xt=(xt,yt,zt)として把握される。入力文字表示部3は、ユーザが入力中の文字およびユーザの操作により確定した文字を表示する。辞書格納部5は、単語と、それを構成する文字列の組み合わせを格納する。
FIG. 1 is a block diagram illustrating a schematic configuration of the input support apparatus according to the present embodiment. In FIG. 1, an
文字列予測部7は、入力部1から得られる座標情報と、単語間の関係性を定式化した言語モデルに基づいて、辞書格納部5の単語辞書中に登録されている単語のスコア値を算出し、上位N個の文字列を予測する。代表的な言語モデルとしては、Nグラムモデル、隠れマルコフモデル、最大エントロピーモデル、などがある。
The character
仮名漢字変換部9は、入力されてディスプレイに表示された文字列から、候補単語(単語・文節・文)を前方一致、部分一致または後方一致により予測変換・補完する。この候補単語は、単語、文節または文のいずれであってもよい。文字列補完部11は、仮名漢字変換部9から取得した文字列に基づいて、前方一致、部分一致または後方一致などにより、文字列を補完する処理を行なう。候補仮名漢字表示部13は、文字列補完部11から出力された単語を表示する。
The kana-
センシングデバイス15は、イメージセンサとデプスセンサから構成され、視線認識を行なう。ディスプレイ注目度推定部17は、センシングデバイス15から入力されたデータに基づいて、ユーザのディスプレイ注目度を推定する。候補仮名漢字表示変更部19は、ディスプレイ注目度推定部17から入力されたディスプレイ注目度に応じて、候補となる文字列の割合を変更する。音声出力部21は、候補となる文字列を音声として出力する。主制御部22は、各構成要素の動作を制御する。
The
(第1の実施形態)
本実施形態では、情報携帯端末として、タッチパネルを搭載した情報携帯端末を例にとって説明する。また、本実施形態では、ディスプレイ注目度Oを求める例として、イメージセンサとデプスセンサからなる視線認識を採用する。本実施形態における視線認識は、ディスプレイ上のXt=(xt,yt)を示すポインタとして取得できるものとする。
(First embodiment)
In the present embodiment, an information portable terminal equipped with a touch panel will be described as an example of the information portable terminal. In the present embodiment, as an example of obtaining the display attention degree O, line-of-sight recognition including an image sensor and a depth sensor is employed. The line-of-sight recognition in the present embodiment can be acquired as a pointer indicating X t = (x t , y t ) on the display.
ディスプレイ注目度推定部17による処理は、以下の通りである。すなわち、ディスプレイ注目度Oは、ユーザが文字入力の際に、ディスプレイの文字入力領域をどれだけ注目しているかの指標を意味する。ある文字Wt_1を入力してから、n文字目を入力するまでの時間をTnとすると、ディスプレイ注目度Lは、Tn中に、ディスプレイの文字入力領域と、それ以外の領域(ディスプレイ外も含む)を行き来した回数num、ディスプレイを見た時間time、視線が示すポインタXt時系列の関数で以下のように表すことができる。これらの値のみならず、Xtの平均、分散、その他算出できる値を用いる。
O=α(time/ Tn)*β(1-exp(-a・num))*γ(exp(-b・RMS(σx,σy))) (0≦O≦1)
ただし、a,b,α,β,γは係数(0<a,b,0<α,β,γ<1 )、RMSは二乗平均を示す。
The processing by the display attention
O = α (time / T n ) * β (1-exp (-a · num)) * γ (exp (-b · RMS (σx, σy))) (0 ≦ O ≦ 1)
However, a, b, α, β, γ are coefficients (0 <a, b, 0 <α, β, γ <1), and RMS represents a mean square.
ディスプレイ注目度Oは、候補単語表示変更部に送信される。ここでは、複数の文字入力に対して、ディスプレイ注目度を算出したが、一文字毎のディスプレイ注目度を算出してもよい。 The display attention degree O is transmitted to the candidate word display changing unit. Although the display attention level is calculated for a plurality of character inputs here, the display attention level for each character may be calculated.
文字列予測部7による処理は、以下の通りである。すなわち、文字列予測部7は、入力された実際の文字列と、それ以外の類似した文字列を予測する。この手法としては、特許文献1に記載されているように、タッチ位置に近い文字に対してスコアをつけて、スコアを比較する手法や、特許文献2に記載されているように、確率を用いる手法を採ることが可能である。本実施形態では、タッチモデルとn-gram文字連鎖確率を用いる手法を採用する。
Processing by the character
タッチモデルは、まず、予め文字毎に2次元座標を変数とした確率分布関数Pwi(x,y)を定義しておく。Pwi(x,y)は、座標(x,y)に対する、文字wiが生起する確率を示す関数である。この関数の例としては、混合ガウス分布などが挙げられる。 In the touch model, first, a probability distribution function Pw i (x, y) with a two-dimensional coordinate as a variable is defined in advance for each character. Pw i (x, y) is a function indicating the probability of occurrence of the character w i with respect to the coordinates (x, y). An example of this function is a mixed Gaussian distribution.
n-gram文字連鎖確率は、文字wi-1, …,w1 が入力された後に、文字wi を表示する確率であり、P(wi|wi-1, …,w1)= ΠP (wi|wi-1, …,w1))と表わすことができる。 The n-gram character chain probability is the probability of displaying the character w i after the characters w i-1 ,…, w 1 are input, and P (w i | w i-1 ,…, w 1 ) = ΠP (w i | w i−1 ,…, w 1 )).
P(wi|(x,y))=P wi(x,y)P(wi|wi-1, …,w1)がその文字に対する文字生起確率となり、文字列に対しては、文字生起確率を各々累積したものが文字列の生起確率となる。実際は、全ての文字列について計算すると計算量・使用メモリが膨大になるためViterbi algorithmなどで簡易的に計算する。 P (w i | (x, y)) = P w i (x, y) P (w i | w i-1 ,…, w 1 ) is the character occurrence probability for that character. A character string occurrence probability is obtained by accumulating the character occurrence probabilities. Actually, if all the character strings are calculated, the calculation amount and memory used become enormous.
図2は、情報携帯端末A1の概観を示す図である。情報携帯端末A1は、入力文字表示領域A2、候補単語表示領域A3、およびタッチパネル上にトグルキーボードA4を備える。例えば、図2に示すようなトグルキーボードで「あした」(“あ”、“さ”、“さ”、“た”)と入力されたとき、「あした」以外に、他の候補として「あさは」「あきた」「かした」などが候補として算出され、それぞれに確率が付与されている。これらの情報を、仮名漢字変換部9に送信する。
FIG. 2 is a diagram showing an overview of the portable information terminal A1. The information portable terminal A1 includes an input character display area A2, a candidate word display area A3, and a toggle keyboard A4 on the touch panel. For example, when “Tomorrow” (“Ah”, “Sa”, “Sa”, “Ta”) is entered with a toggle keyboard as shown in FIG. “Akita”, “Kakashi”, etc. are calculated as candidates, and a probability is given to each. These pieces of information are transmitted to the kana-
仮名漢字変換部9の処理は、以下の通りである。すなわち、仮名漢字変換には、ヒューリスティックな仮名漢字変換と、統計的仮名漢字変換とがあるが、本実施形態では、後者の一つである、「統計的最少コスト法」を採用する。これにより、実際に入力された文字列と、文字列予測部から取得した複数の文字列(仮名列)を仮名漢字変換し、その候補を文字列補完部11に送信する。
The process of the kana-
文字列補完部11の処理は、以下の通りである。すなわち、文字列補完部11では、仮名漢字変換部9から取得した文字列を基に、前方一致、部分一致、後方一致などにより文字列を補完する処理を行なう。例えば、入力が「明日」であった場合、出力を「明日は」とする。
The processing of the character
次に、ディスプレイ注目度に基づく候補仮名漢字表示変更部19の処理について説明する。ここでは、実際に入力された文字列に関する文字列が、例えば、上述したように、「あした」であった場合、文字列予測部7で予測されたそれ以外の文字列に関して、仮名漢字変換・文字列補完をした結果を表示する割合、領域サイズ、配色などを変更する処理を行なう。候補仮名漢字表示変更部19で処理されるパラメタの例として、各々の文字列予測部7から予測される単語表示の数(領域)・位置が挙げられる。
Next, the process of the candidate kana / kanji
ディスプレイ注目度Oが高い場合は、実際に入力された文字列に関する仮名漢字変換結果(これを「結果1」とする)の割合および表示領域を増加させる。一方、ディスプレイ注目度Oが低い場合は、文字列予測部から取得した文字列(仮名列)に関する仮名漢字変換結果(これを「結果2」とする)の割合を減少させる。候補表示数の割合の関数は、例えば、(結果1の候補表示数の割合r1)=1-μO、とすることができる。これを候補仮名漢字表示部13に表示する。
When the display attention degree O is high, the ratio and display area of the kana-kanji conversion result (this is referred to as “
図3は、第1の実施形態に係る入力支援装置の動作を示すフローチャートである。まず、ユーザからの入力を待機している状態で、入力があったかどうかを判断する(ステップS1)。入力が無い場合は、ステップS1の判断を繰り返し、入力があった場合は、入力座標(x1,y1)を検知する(ステップS2)。次に、初期化を行ない、「k=1, Pwi 0=1」とする(ステップS3)。次に、全文字wiにおいて、文字生起確率を計算し(ステップS4)、累積確率「Pwi k=Pwi k-1×Pwi((xk,yk))」を算出する(ステップS5)。次に、単語候補をn個抽出し(ステップS6)、仮名漢字変換・文字列補完を行なう(ステップS7)。 FIG. 3 is a flowchart showing the operation of the input support apparatus according to the first embodiment. First, it is determined whether there is an input while waiting for an input from the user (step S1). If there is no input, the determination in step S1 is repeated. If there is an input, the input coordinates (x1, y1) are detected (step S2). Next, initialization is performed to set “k = 1, Pw i 0 = 1” (step S3). Next, the character occurrence probability is calculated for all the characters w i (step S4), and the cumulative probability “Pw i k = Pw i k−1 × Pw i ((x k , y k ))” is calculated (step S5). Next, n word candidates are extracted (step S6), and kana-kanji conversion and character string interpolation are performed (step S7).
一方、ステップS1において、ユーザからの入力があった場合、センシングデバイスから情報を取得し(ステップS10)、ディスプレイ注目度を推定する(ステップS11)。このディスプレイ注目度に基づいて、文字列候補の変更を行なう(ステップS8)。次に、変更された文字列候補を単語候補として表示する(ステップS9)。 On the other hand, if there is an input from the user in step S1, information is acquired from the sensing device (step S10), and the display attention level is estimated (step S11). Based on the display attention degree, the character string candidate is changed (step S8). Next, the changed character string candidate is displayed as a word candidate (step S9).
次に、入力があったかどうかを判断する(ステップS12)。入力が無い場合は、ステップS12の判断を繰り返し、入力があった場合は、入力座標(xk+1,yk+1)を検知する(ステップS13)。次に、(xk+1,yk+1)は、単語候補表示領域であるか、キーボード領域であるかを判断し(ステップS14)、キーボード領域であった場合は、「k++」として(ステップS16)、ステップS4に遷移する。一方、ステップS14において、単語表示領域であった場合は、文字列を入力文字表示部3に表示して(ステップS15)、ステップS1に遷移する。 Next, it is determined whether or not there is an input (step S12). If there is no input, the determination in step S12 is repeated. If there is an input, the input coordinates (x k + 1 , y k + 1 ) are detected (step S13). Next, it is determined whether (x k + 1 , y k + 1 ) is a word candidate display area or a keyboard area (step S14). Step S16) and the process proceeds to Step S4. On the other hand, when it is a word display area in step S14, a character string is displayed on the input character display part 3 (step S15), and it transfers to step S1.
(第2の実施形態)
上述したように、第1の実施形態では、ディスプレイ注目度を、文字列候補の変更のみに反映させたが、第2の実施形態では、一文字毎にディスプレイ注目度Oiを算出する。算出したディスプレイ注目度Oiを用いて、文字列予測部7で算出される文字毎の確率に対し、以下の式に示すように、重みづけを行なう。
(Second Embodiment)
As described above, in the first embodiment, the display attention level is reflected only on the change of the character string candidate. However, in the second embodiment, the display attention level O i is calculated for each character. Using the calculated display attention degree O i , the probability for each character calculated by the character
P(wi |(x,y))= ξOi* P wi(x,y) P(wi|wi-1, …,w1)
これにより、ディスプレイ注目度が高い時の文字の生起確率を増加させる。
P (w i | (x, y)) = ξO i * P w i (x, y) P (w i | w i-1 ,…, w 1 )
Thereby, the occurrence probability of the character when the display attention degree is high is increased.
図4は、第2の実施形態に係る入力支援装置の動作を示すフローチャートである。ステップT5において、ディスプレイ注目度oiを用いて(ステップT11)、重み付けを行なう。その他のステップは、第1の実施形態と同様である。 FIG. 4 is a flowchart showing the operation of the input support apparatus according to the second embodiment. In step T5, weighting is performed using the display attention degree o i (step T11). Other steps are the same as those in the first embodiment.
(第3の実施形態)
第2の実施形態では、一文字毎にディスプレイ注目度oiを算出し、これを文字の重みづけに用いたが、第3の実施形態では、OiおよびP wi(x,y) P(wi|wi-1, …,w1)がある一定の閾値を超えている場合、その時点で入力された文字wi を確定させる。これにより、演算量、メモリ使用量を減少させることが可能となる。
(Third embodiment)
In the second embodiment, the display attention degree o i is calculated for each character and used for character weighting. In the third embodiment, O i and P w i (x, y) P ( If w i | w i−1 ,..., w 1 ) exceeds a certain threshold, the character w i input at that time is determined. Thereby, it is possible to reduce the calculation amount and the memory usage.
なお、第1〜第3の実施形態において、ディスプレイ注目度に基づく入力文字表示領域・候補文字領域の表示方法として、文字の色、ハイライトを変えることも可能である。 In the first to third embodiments, the character color and highlight can be changed as the display method of the input character display area / candidate character area based on the display attention level.
(第4の実施形態)
第4の実施形態では、音声合成によるトークバックを行なう。第1〜第3の実施形態では、候補仮名漢字表示変更部19で候補仮名漢字表示を変更した後、候補仮名漢字表示部13に出力した。これに対し、第4の実施形態では、文字列予測部7で算出される文字列の確率から、確率の高い順に、音声出力部21において、トークバックを行なう。トークバックの内容は、確率の高い順の読み(仮名)または、仮名漢字変換結果または、補完結果のいずれかとする。
(Fourth embodiment)
In the fourth embodiment, talkback is performed by speech synthesis. In the first to third embodiments, the candidate kana / kanji
(センシングデバイスについて)
第1〜第4の実施形態では、センシングデバイスを視線認識としたが、近接センサ、加速度、ジャイロ、角速度等のセンサなどを用いて、ディスプレイ注目度を算出してもよい。ディスプレイ注目度の算出としては、見ている状況とそうでない状況のデータを収集して、当データを用いた機械学習・パターン認識を行ない、その信頼度・スコア値を用いる手法などがある。パターン認識としては、SVMやベイズ、HMMなど一般的な手法でもよい。
(About sensing devices)
In the first to fourth embodiments, the line-of-sight recognition is used as the sensing device, but the display attention degree may be calculated using a sensor such as a proximity sensor, acceleration, gyroscope, and angular velocity. As the calculation of the display attention level, there is a method of collecting data of a situation that is being viewed and a situation that is not, performing machine learning / pattern recognition using the data, and using the reliability / score value. The pattern recognition may be a general method such as SVM, Bayes, or HMM.
以上説明したように、本実施形態によれば、ユーザの端末操作中の画面への注目度に基づいて、表示される文字候補を変更するので、高精度な単語または単語列提示を行なうことが可能となる。 As described above, according to the present embodiment, the displayed character candidates are changed based on the degree of attention to the screen during the user's terminal operation, so that highly accurate words or word strings can be presented. It becomes possible.
1 入力部
3 入力文字表示部
5 辞書格納部
7 文字列予測部
9 仮名漢字変換部
11 文字列補完部
13 候補仮名漢字表示部
15 センシングデバイス
17 ディスプレイ注目度推定部
19 候補仮名漢字表示変更部
21 音声出力部
23 主制御部
A1 情報携帯端末
A2 入力文字表示領域
A3 候補単語表示領域
A4 トグルキーボード
DESCRIPTION OF
Claims (7)
少なくとも文字を表示するタッチパネルディスプレイと、
前記タッチパネルディスプレイに表示され、ユーザによる文字の入力を受け付けるソフトウェアキーボードと、
装置本体に対するユーザの操作状況を検出するセンシングデバイスと、
前記検出されたユーザの操作状況に基づいて、前記ソフトウェアキーボードに対するユーザの注目度を推定する注目度推定部と、
前記ソフトウェアキーボードから入力された文字および前記推定されたソフトウェアキーボードに対するユーザの注目度に基づいて、候補とする文字列を予測する予測部と、
前記予測した候補とする文字列を出力する出力部と、を備えることを特徴とする入力支援装置。 An input support device that predicts a character string that a user is about to input,
A touch panel display that displays at least characters,
A software keyboard that is displayed on the touch panel display and accepts input of characters by a user;
A sensing device for detecting a user's operation status on the apparatus main body;
A degree-of-interest estimation unit that estimates the degree of attention of the user with respect to the software keyboard based on the detected user operation state;
A prediction unit based on the user's attention, predicts a character string as a candidate for the software keyboard that is character and the estimated input from the software keyboard,
And an output unit that outputs a character string as the predicted candidate.
前記予測部は、前記一文字毎の注目度が高い場合は、注目度が高い文字の生起確率を高くする一方、前記一文字毎の注目度が低い場合は、注目度が低い文字の生起確率を低くすることを特徴とする請求項1記載の入力支援装置。 The attention level estimation unit estimates the attention level for each character,
The predicting unit increases the probability of occurrence of a character with a high degree of attention when the degree of attention for each character is high, while decreasing the probability of occurrence of a character with a low degree of attention when the degree of attention for each character is low. The input support apparatus according to claim 1, wherein:
前記予測部は、前記検出された座標情報、単語間の関係性を定式化した言語モデルおよび前記注目度に基づいて、候補となる文字列を予測することを特徴とする請求項1から請求項3のいずれかに記載の入力支援装置。 The software keyboard detects coordinate information of a user's finger that has touched the touch panel display ,
The prediction unit predicts a candidate character string based on the detected coordinate information, a language model that formulates a relationship between words, and the degree of attention. 4. The input support device according to any one of 3.
少なくとも文字をタッチパネルディスプレイに表示するステップと、
前記タッチパネルディスプレイに表示されたソフトウェアキーボードからユーザによる文字の入力を受け付けるステップと、
センシングデバイスで装置本体に対するユーザの操作状況を検出するステップと、
前記検出されたユーザの操作状況に基づいて、前記ソフトウェアキーボードに対するユーザの注目度を推定するステップと、
前記ソフトウェアキーボードから入力された文字および前記推定されたソフトウェアキーボードに対するユーザの注目度に基づいて、候補とする文字列を予測するステップと、
前記予測した候補とする文字列を出力するステップと、を少なくとも含むことを特徴とする入力支援方法。 An input support method for predicting a character string that a user is about to input,
Displaying at least characters on the touch panel display; and
Receiving a character input by a user from a software keyboard displayed on the touch panel display ;
Detecting a user's operation status on the apparatus main body with a sensing device;
Estimating a user's attention to the software keyboard based on the detected user operation status;
A step of based on the user's attention, predicts a character string as a candidate for the software keyboard that is character and the estimated input from the software keyboard,
Outputting at least the character string as the predicted candidate.
少なくとも文字をタッチパネルディスプレイに表示する処理と、
前記タッチパネルディスプレイに表示されたソフトウェアキーボードからユーザによる文字の入力を受け付ける処理と、
センシングデバイスで装置本体に対するユーザの操作状況を検出する処理と、
前記検出されたユーザの操作状況に基づいて、前記ソフトウェアキーボードに対するユーザの注目度を推定する処理と、
前記ソフトウェアキーボードから入力された文字および前記推定されたソフトウェアキーボードに対するユーザの注目度に基づいて、候補とする文字列を予測する処理と、
前記予測した候補とする文字列を出力する処理と、の一連の処理をコンピュータに実行させることを特徴とするプログラム。 A program of an input support device that predicts a character string that a user is going to input,
Processing to display at least characters on the touch panel display;
A process of accepting a character input by a user from a software keyboard displayed on the touch panel display ;
A process for detecting a user's operation status with respect to the apparatus main body with a sensing device;
A process of estimating the degree of attention of the user with respect to the software keyboard based on the detected operation status of the user;
A process of the software based on the user's attention for the character and the estimated software keyboard input from a keyboard, predicts a character string as a candidate,
A program for causing a computer to execute a series of processes of outputting a character string as the predicted candidate.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013161617A JP6179036B2 (en) | 2013-08-02 | 2013-08-02 | Input support apparatus, input support method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013161617A JP6179036B2 (en) | 2013-08-02 | 2013-08-02 | Input support apparatus, input support method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2015033011A JP2015033011A (en) | 2015-02-16 |
| JP6179036B2 true JP6179036B2 (en) | 2017-08-16 |
Family
ID=52517988
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013161617A Expired - Fee Related JP6179036B2 (en) | 2013-08-02 | 2013-08-02 | Input support apparatus, input support method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6179036B2 (en) |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04289910A (en) * | 1991-03-19 | 1992-10-14 | Kobe Nippon Denki Software Kk | Information input system |
| JPH1078955A (en) * | 1996-09-04 | 1998-03-24 | Nec Corp | Kana-to-kanji conversion system |
| US7013258B1 (en) * | 2001-03-07 | 2006-03-14 | Lenovo (Singapore) Pte. Ltd. | System and method for accelerating Chinese text input |
| JP2009266010A (en) * | 2008-04-25 | 2009-11-12 | Sharp Corp | Character conversion system |
-
2013
- 2013-08-02 JP JP2013161617A patent/JP6179036B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2015033011A (en) | 2015-02-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5731281B2 (en) | Character input device and program | |
| US9471220B2 (en) | Posture-adaptive selection | |
| US9021380B2 (en) | Incremental multi-touch gesture recognition | |
| US9798718B2 (en) | Incremental multi-word recognition | |
| US10977440B2 (en) | Multi-gesture text input prediction | |
| EP2618248B1 (en) | Virtual keyboard providing an indication of received input | |
| JP5852930B2 (en) | Input character estimation apparatus and program | |
| US9552080B2 (en) | Incremental feature-based gesture-keyboard decoding | |
| US20120069027A1 (en) | Input device | |
| EP2703955B1 (en) | Scoring predictions based on prediction length and typing speed | |
| EP2703956B1 (en) | Ranking predictions based on typing speed and typing confidence | |
| JP5521028B2 (en) | Input method editor | |
| EP2946280A1 (en) | Touch keyboard using language and spatial models | |
| CN107085471B (en) | Input method error correction method and device based on user input speed | |
| JP6179036B2 (en) | Input support apparatus, input support method, and program | |
| JP6226472B2 (en) | Input support device, input support system, and program | |
| JP6593992B2 (en) | Input support device, input support system, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160203 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161124 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161206 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170203 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170328 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170418 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170628 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6179036 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |