JP2019204214A - Learning device, learning method, program and estimation device - Google Patents
Learning device, learning method, program and estimation device Download PDFInfo
- Publication number
- JP2019204214A JP2019204214A JP2018097926A JP2018097926A JP2019204214A JP 2019204214 A JP2019204214 A JP 2019204214A JP 2018097926 A JP2018097926 A JP 2018097926A JP 2018097926 A JP2018097926 A JP 2018097926A JP 2019204214 A JP2019204214 A JP 2019204214A
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- learning
- unit
- order
- elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
【課題】文章中の位置に関わらず適切な語であるか否かを識別することができる学習装置、学習方法、プログラム及び推定装置を提供する。【解決手段】学習装置1は、文章を取得する取得部151と、取得した前記文章を、所定単位の文字又は文字列である複数の要素に分割する分割部152と、各要素の次に出現する前記要素を、取得した前記文章の順に学習する第1学習部153と、前記複数の要素の並び順を、前記文章の先頭から末尾までを逆順序に並び替える順序変換部154と、並び替えた前記文章の順に、前記各要素の次に出現する前記要素を学習する第2学習部155とを備えることを特徴とする。【選択図】図15PROBLEM TO BE SOLVED: To provide a learning device, a learning method, a program, and an estimation device capable of identifying whether or not a word is appropriate regardless of the position in a sentence. SOLUTION: A learning device 1 includes an acquisition unit 151 that acquires a sentence, a division unit 152 that divides the acquired sentence into a plurality of elements that are characters or character strings in a predetermined unit, and appears next to each element. A first learning unit 153 that learns the elements in the order of the acquired sentences; an order conversion unit 154 that rearranges the arrangement order of the plurality of elements in reverse order from the beginning to the end of the sentence; And a second learning unit 155 that learns the element that appears next to each element in the order of the sentences. [Selection diagram] Fig. 15
Description
本発明は、学習装置、学習方法、プログラム及び推定装置に関する。 The present invention relates to a learning device, a learning method, a program, and an estimation device.
文章内に出現する語句の共起関係を学習することで、入力されたテキストに続くテキストの推定、テキスト内の誤りの推定等を行う技術がある。例えば特許文献1では、文章中に各単語が出現する順序と、各単語の係り受け等の関係とを学習した再帰型ニューラルネットワーク(Recurrent Neural Network、以下では「RNN」と記載)を構築し、構築したRNNを用いて、入力されたテキストに続くテキストを推定し、適切な構造の文章を出力する学習装置等が開示されている。
There is a technique for estimating a text following an input text, estimating an error in the text, and the like by learning a co-occurrence relationship of words appearing in a sentence. For example, in
しかしながら、特許文献1に係る発明では、文章中に出現する単語の順序を、文章の先頭から順に学習しているため、例えば文章の先頭に位置する単語、読点に続く単語等を適切に推定することが難しい。
However, in the invention according to
一つの側面では、文章中の位置に関わらず適切な語であるか否かを識別することができる学習装置等を提供することを目的とする。 In one aspect, an object of the present invention is to provide a learning device or the like that can identify whether a word is an appropriate word regardless of the position in the sentence.
一つの側面では、学習装置は、文章を取得する取得部と、取得した前記文章を、所定単位の文字又は文字列である複数の要素に分割する分割部と、各要素の次に出現する前記要素を、取得した前記文章の順に学習する第1学習部と、前記複数の要素の並び順を、前記文章の先頭から末尾までを逆順序に並び替える順序変換部と、並び替えた前記文章の順に、前記各要素の次に出現する前記要素を学習する第2学習部とを備えることを特徴とする。 In one aspect, the learning device includes an acquisition unit that acquires a sentence, a division unit that divides the acquired sentence into a plurality of elements that are characters or character strings of a predetermined unit, and the element that appears next to each element A first learning unit that learns elements in the order of the acquired sentences; an order conversion unit that rearranges the arrangement order of the plurality of elements from the beginning to the end of the sentences; and A second learning unit that learns the element that appears next to each element in order.
一つの側面では、文章中の位置に関わらず適切な語であるか否かを識別することができる。 In one aspect, it is possible to identify whether or not the word is appropriate regardless of the position in the sentence.
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、学習装置1の構成例を示すブロック図である。本実施の形態では、文章内に出現する各語句を、その文章の並び順に従って学習した言語モデル141を生成し、生成した言語モデル141を用いて、文章内の誤り箇所を推定する学習装置1について説明する。
Hereinafter, the present invention will be described in detail with reference to the drawings illustrating embodiments thereof.
(Embodiment 1)
FIG. 1 is a block diagram illustrating a configuration example of the
学習装置1は、種々の情報処理が可能な情報処理装置であり、例えばサーバ装置、パーソナルコンピュータ、多機能端末等である。学習装置1は、学習用の文章を所定単位の語句(要素)毎に分割し、分割した各語句を、当該文章の並び順に従って学習する。これにより学習装置1は、直前までの語句から次の語句の出現確率(生起確率)を予測する言語モデル141を生成する。
The
図2は、言語モデル141について説明するための説明図である。言語モデル141は、自然言語の文章が生成される確率をモデル化したものである。一般的な言語モデル141では、文章内で先頭から順に出現する一又は複数の語句から、当該一又は複数の語句に続いて出現する語句の生起確率を算出し、次の語句を推定する。図2の例では、文章の先頭から順次出現する語句「私」、「は」、「学校」、「に」に基づき、次に出現する語句の生起確率を算出する様子を図示している。図2に示すように、一般的な言語モデル141では「私」等の語句を入力して次の語句の候補「行く」、「いる」等の生起確率を算出し、生起確率が最も高い候補「行く」を次の語句として予測する。このように、一般的な言語モデル141では、直前までの語句から次の語句を予測する。
FIG. 2 is an explanatory diagram for explaining the
本実施の形態ではさらに、学習装置1は文章の先頭及び末尾を入れ替え、文章内の語句を逆順序にした場合の語句の順序を学習し、文章の末尾から順に出現する一又は複数の語句から、直前の語句を予測する言語モデル141を生成する。すなわち学習装置1は、文章内の順方向における語句の並び順と、逆方向における並び順とを学習して2つの言語モデル141を生成する。学習装置1は当該2つの言語モデル141を用いて、誤り推定対象である文章から、誤字等と推定される誤り箇所を推定する。
In the present embodiment, the
図1に戻って説明を続ける。学習装置1は、制御部11、主記憶部12、通信部13、補助記憶部14を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラムPを読み出して実行することにより、学習装置1に係る種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための処理回路等を含み、外部と情報の送受信を行う。
Returning to FIG. 1, the description will be continued. The
The
補助記憶部14は大容量メモリ、ハードディスク等であり、制御部11が処理を実行するために必要なプログラムP、その他のデータを記憶している。また、補助記憶部14は、上述の如く学習用の文章から生成された言語モデル141を記憶している。
The
なお、補助記憶部14は学習装置1に接続された外部記憶装置であってもよい。また、学習装置1は複数のコンピュータからなるマルチコンピュータであってもよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。
Note that the
また、本実施の形態において学習装置1は上記の構成に限られず、例えば可搬型記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、画像を表示する表示部等を含んでもよい。
Further, in the present embodiment, the
図3は、テキスト学習処理について説明するための説明図である。図3では、学習装置1が学習用の文章において順方向に並んだ各語句を学習して、RNNの一種であるLSTM(Long Short-Term Memory)による言語モデル141を構築する様子を図示している。以下では学習装置1が実行する処理の概要について説明する。
FIG. 3 is an explanatory diagram for explaining the text learning process. FIG. 3 illustrates a state in which the
学習装置1は、例えば通信部13を介して外部から複数の学習用の文章を取得する。そして学習装置1はまず、取得した学習用の文章に対して形態素解析等の自然言語処理を行い、所定単位の文字又は文字列である語句(要素)毎に分割する。この分割単位は、例えば単語、文節等の単位であるが、特に限定されない。例えば学習装置1は、複数の語句を格納した辞書(不図示)を予め記憶しておき、当該辞書に格納された語句に従って文章を分割すればよい。
The
なお、後述する実施の形態3のように、学習装置1は単語、文節等の単位ではなく、その他の単位で文章を分割してもよい。つまり学習装置1は、所定単位の文字又は文字列である要素毎に学習用文章を分割可能であればよく、分割単位とする要素は単語、文節等の単位に限定されない。
Note that the
学習装置1は、分割した各語句をRNNに係る入力層に入力し、機械学習を行う。図3に、RNNの構成を概念的に図示する。図3に示すように、RNNは、入力層、中間層(隠れ層)、及び出力層を有する。入力層は、文章の先頭から順に出現する各語句の入力をそれぞれ受け付ける複数のニューロンを有する。出力層は、入力層の各ニューロンに対応して、各ニューロンに入力される語句に続く語句をそれぞれ推定して出力する複数のニューロンを有する。そして中間層は、入力層の各ニューロンへの入力値(語句)に対して出力層の各ニューロンにおける出力値(語句)を演算するための複数のニューロンを有する。中間層の各ニューロンは、過去の入力値に関する中間層での演算結果を用いて(図3では右向きの矢印で図示)次の入力値に関する演算を行うことで、直前までの語句から次の語句を推定する。
The
なお、図3に示すRNNの構成は一例であって、本実施の形態はこれに限定されるものではない。例えば中間層は一層に限定されず、二層以上であってもよい。また、入力層及び出力層のニューロンの数は同数に限定されず、例えば入力に対して出力の数は少なくともよい。 The configuration of the RNN illustrated in FIG. 3 is an example, and the present embodiment is not limited to this. For example, the intermediate layer is not limited to one layer, and may be two or more layers. Further, the number of neurons in the input layer and the output layer is not limited to the same number. For example, the number of outputs is at least as good as the input.
また、本実施の形態で学習装置1はRNNのアルゴリズムに従って学習を行うが、例えばその他の深層学習、N−gramモデル、SVM(Support Vector Machine)、ベイジアンネットワーク、決定木など、他のアルゴリズムに従って学習を行い、言語モデル141を生成してもよい。
In the present embodiment, the
学習装置1は、学習用文章の各語句を、当該文章内での並び順に従って入力層の各ニューロンに入力し、出力層の各ニューロンから出力値を得る。図3の例では、学習装置1は学習用文章の各語句「昨日」、「は」、「電車」、「に」…を、文章内での順番に従い、対応する入力層の各ニューロンに入力する。学習装置1は、中間層を経て出力層の各ニューロンでの演算を行い、文章内の任意の位置(順番)に出現する語句の生起確率を、直前までに出現する語句に基づいて算出し、次に出現する語句を推定する。図3の例では、学習装置1は1番目の語句「昨日」に基づき、2番目に出現する語句の生起確率を算出して推定を行う。また、学習装置1は1番目及び2番目の語句「昨日」及び「は」に基づき、3番目の語句の生起確率を算出して推定を行う。以下同様にして、学習装置1は各語句を推定する。
The
学習装置1は、推定した語句を実際の語句(正解値)と比較し、出力層の各ニューロンからの出力値が正解値に近似するよう各ニューロンのパラメータを調整し、RNNを構築する。例えば学習装置1は、「昨日」に続く語句として推定した語句が、実際の語句「は」となるように、各ネットワーク層のニューロンの重み等を調整する。これにより学習装置1は、学習用文章の順方向において、直前までに出現した語句から、当該語句の次に出現する語句を学習した言語モデル141を生成する。
The
図4は、順方向のみでのテキストの並び順に基づく誤り推定処理の説明図である。図4では、文章内の誤り箇所を検出するため、順方向の言語モデル141のみに基づいて各語句の生起確率を算出した場合を概念的に図示している。
FIG. 4 is an explanatory diagram of an error estimation process based on the text arrangement order only in the forward direction. FIG. 4 conceptually illustrates a case in which the occurrence probability of each word / phrase is calculated based only on the
学習装置1は、例えば通信部13を介して、誤り箇所の検出(推定)対象である対象文を取得する。学習装置1は学習時と同様に、対象文を所定単位の語句に分割する。そして学習装置1は、生成済みの言語モデル141を参照して、各語句の生起確率を、直前までに出現する語句に基づいて算出する。図4に示す例では、学習装置1は、3番目に出現する語句「昨日」の生起確率を算出する場合、上述のRNNを用いて、1番目及び2番目の語句「私」及び「は」から「昨日」の生起確率を算出する。そして学習装置1は、算出した生起確率に基づき、当該語句が誤り箇所であるか否かを判定する。例えば学習装置1は、生起確率を所定の閾値と比較し、閾値以下である場合、つまり生起確率が低い場合に誤り箇所であるものと判定する。
The
しかしながら、順方向のみの学習結果から誤り箇所を推定した場合、文章内における該当語句の位置によっては、適切に誤り箇所と推定できない虞がある。例えば日本語の文章の場合、文章の先頭、読点の直後、あるいは助詞の直後などには様々な語句が出現し得るため、多くの語句の生起確率が低くなる。例えば図4に示す文章は正しい文章であるにも関わらず、先頭に位置する語句「私」、及び読点の直後に位置する「学校」は、生起確率が低くなっている。この場合、学習装置1は正しい語句「私」及び「学校」を誤り箇所と推定する虞がある。
However, when an error part is estimated from the learning result only in the forward direction, there is a possibility that the error part cannot be appropriately estimated depending on the position of the corresponding phrase in the sentence. For example, in the case of a Japanese sentence, various words can appear at the beginning of a sentence, immediately after a punctuation mark, or immediately after a particle, so that the occurrence probability of many words is low. For example, although the sentence shown in FIG. 4 is a correct sentence, the word “I” located at the head and “School” located immediately after the reading point have low occurrence probabilities. In this case, the
そこで本実施の形態では、学習装置1はさらに各語句を逆順序に並び替えた場合の文章を学習して言語モデル141を生成し、順方向及び逆方向それぞれの学習結果を組み合わせて誤り箇所を推定することで、上記の問題を解決する。
Therefore, in the present embodiment, the
図5は、逆順序のテキスト学習処理について説明するための説明図である。図5では、学習用文章の各語句を逆順序に並び替え、文章の末尾からの順に各語句を学習していく様子を図示している。 FIG. 5 is an explanatory diagram for explaining a reverse-order text learning process. FIG. 5 illustrates a state in which the words in the learning sentence are rearranged in the reverse order and the words are learned in order from the end of the sentence.
例えば学習装置1は、順方向について学習処理を完了後、学習用文章の先頭から末尾までを入れ替え、末尾の語句を先頭にした逆順序に並び替える。すなわち、図5に示すように、学習装置1は「昨日」、「は」、「電車」、「に」、…「行っ」、「た」と続く語句を、「た」、「行っ」、「に」、「京都」、…「は」、「昨日」という順序に並び替える。学習装置1は、図3で示したRNNと同様の構成を有する逆順序学習用のRNNの入力層に、並び替えた各語句を入力する。そして学習装置1は、文章の末尾から逆順序で出現する一又は複数の語句に基づき、当該一又は複数の語句の直前に出現する語句を推定するRNNを構築する。つまり学習装置1は、文章内の任意の位置の語句を、当該語句に続く後続の語句から推定するRNNを構築する。
For example, after completing the learning process in the forward direction, the
図6は、誤り推定処理の説明図である。図6では、順方向及び逆方向それぞれの言語モデル141に基づいて各語句の生起確率を算出する様子を図示している。
学習装置1は、図4でも説明したように、誤り推定対象の対象文を所定単位の語句に分割する。そして学習装置1は、対象文の各語句を順方向及び逆方向それぞれに係るRNNの入力層に入力し、順方向及び逆方向それぞれについて生起確率を算出する。
FIG. 6 is an explanatory diagram of the error estimation process. FIG. 6 illustrates how the occurrence probability of each word is calculated based on the forward and
As described with reference to FIG. 4, the
順方向について計算を行う場合、学習装置1は、順方向について学習したRNNの入力層に対して各語句を入力し、先頭から順に出現する一又は複数の語句から、当該一又は複数の語句に続く語句の生起確率を算出する。つまり学習装置1は、直前までの語句から次に出現する語句の生起確率を算出する。
When performing calculation for the forward direction, the
逆方向について計算を行う場合、学習装置1はまず、対象文の各語句を逆順序に並び替える。そして学習装置1は、逆順序について学習したRNNに対し、並び替えた各語句をその逆順序で入力し、末尾から順に出現する一又は複数の語句、つまり後続の語句から、当該一又は複数の語句の直前に出現する語句の生起確率を算出する。これにより、図6に示すように、順方向の場合に生起確率が低くなっていた語句「私」及び「学校」は、逆方向の場合には生起確率が高くなっている。
When performing calculation in the reverse direction, the
学習装置1は、順方向及び逆方向それぞれについて算出した各語句の生起確率に基づき、各語句が誤りであるか否かを判定する。例えば学習装置1は、順方向及び逆方向それぞれの生起確率が共に所定の閾値以下である場合、誤り箇所と推定する。学習装置1は、例えば誤り箇所と推定した語句を色分け表示するなどして、誤り箇所の表示態様をその他の箇所の表示態様と異ならせた対象文を出力することで、推定結果を出力する。
The
さらに学習装置1は、誤り箇所を検知した場合、誤りと推定した語句に代わる正しい語句を推定して提示(出力)してもよい。すなわち学習装置1は、誤り箇所と推定された語句に対し、修正候補とする語句を出力する。図2で説明したように、学習装置1は、言語モデル141を用いることで、生起確率が高い語句を前後の語句から予測可能である。例えば学習装置1は、誤り推定のために用いた言語モデル141(学習結果)を参照して、誤り箇所と推定された語句の位置(順序)において、生起確率が最も高い語句を修正候補として出力すればよい。この場合、学習装置1は順方向及び逆方向の2つの言語モデル141を用いて双方向から修正候補を推定してもよく、順方向又は逆方向のいずれかの言語モデル141のみから修正候補を推定してもよい。
Further, when the
以上より、学習装置1は、順方向及び逆方向それぞれの並び順で各語句を学習した言語モデル141を用いることで、文章内の誤り箇所を適切に推定することができる。
As described above, the
なお、学習装置1は言語モデル141をBi‐directional RNNとして、順方向及び逆方向の並び順を同時に学習し、上記の2つのRNNを1つに統合してもよい。ただし、単方向のRNNの方がチューニングを容易に行えるため、上記のように2つのRNNを生成した方が好適である。
Note that the
図7は、テキスト学習処理の処理手順の一例を示すフローチャートである。図7に基づき、学習装置1が実行するテキスト学習処理の処理内容について説明する。
学習装置1の制御部11は、例えば通信部13を介して学習用の複数の文章を取得する(ステップS11)。制御部11は、取得した文章を、所定単位の文字又は文字列である複数の語句(要素)に分割する(ステップS12)。例えば制御部11は、単語、文節等の単位で文章を分割するが、分割する語句(要素)の単位は特に限定されない。
FIG. 7 is a flowchart illustrating an example of a processing procedure of the text learning process. Based on FIG. 7, the processing content of the text learning process which the
For example, the
制御部11は、文章の先頭から末尾に亘る順に、各語句の次に出現する語句を学習し、順方向の言語モデル141を生成する(ステップS13)。例えば制御部11は、上述の如く、文章の先頭から順に出現する一又は複数の語句を入力として、当該一又は複数の語句に続く語句の生起確率を出力するRNNを構築する。
The
制御部11は、各語句の並び順を、文章の先頭から末尾までを入れ替えた逆順序に並び替える(ステップS14)。制御部11は、並び替えた文章の順に、各語句の次に出現する語句を学習して、逆方向の言語モデル141を生成する(ステップS15)。例えば制御部11は、文章の末尾から順に出現する一又は複数の語句を入力として、当該一又は複数の語句の直前に位置する語句の生起確率を出力するRNNを構築する。制御部11は、一連の処理を終了する。
The
図8は、誤り推定処理の処理手順の一例を示すフローチャートである。図8に基づき、学習装置1が実行する誤り推定処理の処理内容について説明する。
学習装置1の制御部11は、例えば通信部13を介して、誤り推定対象である対象文を取得する(ステップS31)。制御部11は、取得した対象文を、所定単位の文字又は文字列である複数の語句(要素)に分割する(ステップS32)。
FIG. 8 is a flowchart illustrating an example of a processing procedure of error estimation processing. Based on FIG. 8, the processing content of the error estimation processing which the
The
制御部11は、順方向について生成した言語モデル141を参照して、対象文に出現する各語句の生起確率を算出する(ステップS33)。すなわち制御部11は、言語モデル141として構築済みのRNNの入力層に対し、対象文の先頭から順に出現する一又は複数の語句を入力して、当該一又は複数の語句に続く語句の生起確率を算出する。
The
制御部11は、対象文の各語句の並び順を逆順序に並び替える(ステップS34)。そして制御部11は、逆方向について生成した言語モデル141を参照して、対象文に出現する各語句の生起確率を算出する(ステップS35)。すなわち制御部11は、逆方向について構築したRNNの入力層に対し、対象文の末尾から順に出現する一又は複数の語句を入力して、当該一又は複数の語句の直前に出現する語句の生起確率を算出する。
The
制御部11は、順方向及び逆方向それぞれについて算出した各語句の生起確率に基づき、対象文における誤り箇所を推定する(ステップS36)。例えば制御部11は、順方向及び逆方向それぞれの生起確率が共に閾値以下である語句を誤り箇所と推定する。制御部11は推定結果を出力する(ステップS37)。例えば制御部11は、色分け表示等により、誤り箇所と推定された語句の表示態様をその他の語句の表示態様とは異ならせた対象文を出力する。また、制御部11はステップS37と併せて、誤り箇所と推定された語句に対し、修正候補を推定して出力するようにしてもよい。例えば制御部11は、順方向及び/又は逆方向の言語モデル141を参照して、誤り箇所と推定された語句の位置(順序)において、生起確率が最も高い語句を修正候補として出力する。制御部11は、一連の処理を終了する。
The
なお、上記では同一の学習装置1がテキストの学習及び誤り推定を行うものとして説明したが、本実施の形態はこれに限定するものではない。学習装置1は文章の学習のみを行い、他の装置に学習結果(言語モデル141)をインストールして推定装置として構成し、当該推定装置が誤り推定を行うものとしてもよい。
In the above description, it is assumed that the
以上より、本実施の形態1によれば、文章中の各語句の並び順について、順方向だけでなく逆方向の順序も学習する。これにより、学習装置1は、文章中の位置に関わらず適切な語であるか否かを識別することができる言語モデル141を生成する。
As described above, according to the first embodiment, not only the forward direction but also the reverse order is learned with respect to the arrangement order of the words in the sentence. Thereby, the
また、本実施の形態1によれば、言語モデル141としてRNNを生成することで、N−gramモデル等の他の学習アルゴリズムと比較して、より精度の高い言語モデル141を生成することができる。
Further, according to the first embodiment, by generating an RNN as the
また、本実施の形態1によれば、順方向及び逆方向それぞれの言語モデル141を用いて対象文の各語句の生起確率を算出することで、対象文における誤り箇所を適切に指摘することができる。
Further, according to the first embodiment, by calculating the occurrence probability of each word / phrase in the target sentence using the forward and
また、本実施の形態1によれば、言語モデル141を用いて、誤り箇所と推定された語句の修正候補を出力することもできる。これにより、利便性を向上させることができる。
Further, according to the first embodiment, it is also possible to output a correction candidate for a word / phrase estimated to be an error part using the
(実施の形態2)
本実施の形態では、各語句の生起確率に加えて、各語句の文字種及び/又は文字数を誤り推定の判定基準に用いる形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
図9は、実施の形態2に係る誤り推定処理の説明図である。図9では、誤り推定対象の対象文に含まれる各語句について、順方向及び逆方向それぞれの言語モデル141から算出した生起確率のほか、各語句の文字種及び文字数を図示している。
(Embodiment 2)
In the present embodiment, a mode in which the character type and / or the number of characters of each word is used as a criterion for error estimation in addition to the occurrence probability of each word. In addition, about the content which overlaps with
FIG. 9 is an explanatory diagram of error estimation processing according to the second embodiment. FIG. 9 illustrates the occurrence probability calculated from the forward and
本実施の形態で学習装置1は、該当語句の順方向及び逆方向それぞれに係る生起確率が閾値以下であり、かつ、該当語句の文字種及び/又は文字数が特定の条件を満たす場合、該当語句が誤り箇所であるものと推定する。例えば学習装置1は、文字種に関する条件として、該当語句が平仮名のみの文字又は文字列である場合、未変換の可能性が高いことから、誤り箇所と判定する。また、例えば学習装置1は、文字数に関する条件として、該当語句が所定の文字数以下である場合、誤入力の可能性が高いことから、誤り箇所と判定する。
In the present embodiment, the
また、学習装置1は文字種及び文字数のほかに、他の条件を誤り推定の判定条件に加えてもよい。例えば学習装置1は、生起確率が閾値以下の語句が所定回数連続する箇所を誤りと推定してもよい。これにより、例えば漢字に変換すべき文字列を誤って未変換とした場合など、生起確率が閾値以下になる語句が連続して出現する箇所を適切に誤り箇所と推定することができる。
In addition to the character type and the number of characters, the
図10は、実施の形態2に係る誤り推定処理の処理手順の一例を示すフローチャートである。図10に基づき、本実施の形態に係る誤り推定処理の処理内容について説明する。
ステップS35の処理を実行後、学習装置1の制御部11は、順方向及び逆方向それぞれについて算出した各語句の生起確率に加え、各語句の文字種及び/又は文字数に基づいて誤り箇所を推定する(ステップS201)。例えば制御部11は、順方向及び逆方向ともに生起確率が閾値以下であり、かつ、該当語句が特定の文字種又は文字数であるか否かを判定する。例えば制御部11は、文字種に関する条件として、該当語句が平仮名であるか否かを判定する。また、例えば制御部11は、文字数に関する条件として、該当語句が所定の文字数以下であるか否かを判定する。なお、制御部11は上記の条件に加えて、さらに順方向及び逆方向それぞれに係る生起確率が閾値以下の語句が所定数以上連続する箇所を誤り箇所と推定してもよい。制御部11は、処理をステップS37に移行する。
FIG. 10 is a flowchart illustrating an example of a processing procedure of error estimation processing according to the second embodiment. Based on FIG. 10, the processing content of the error estimation processing according to the present embodiment will be described.
After executing the process of step S35, the
以上より、本実施の形態2によれば、言語モデル141を用いて算出された生起確率だけでなく、該当語句の文字種及び/又は文字数を判定基準とすることで、誤り箇所をより適切に推定することができる。
As described above, according to the second embodiment, not only the occurrence probability calculated using the
また、本実施の形態2によれば、生起確率が閾値以下の語句が連続する箇所を誤り箇所と推定することで、さらに適切に誤りを推定することができる。 Further, according to the second embodiment, it is possible to estimate an error more appropriately by estimating a place where words having an occurrence probability equal to or less than a threshold value continue as an error place.
(実施の形態3)
本実施の形態では、文章を分割する単位として、サブワードと呼ばれる単位を用いることで、例えば専門書のように、一般的な辞書に収録されていない未知語が多い文章を扱う場合でも適切に対応することができる形態について述べる。
図11は、実施の形態3に係る学習装置1の構成例を示すブロック図である。本実施の形態に係る学習装置1の補助記憶部14は、語句リスト142を記憶している。語句リスト142は、所定のサンプル文書から抽出した、サブワードと呼ばれる語句を記憶するデータベースである。本実施の形態では、学習装置1が取り扱う文書(文章)として医療診断書を想定し、診断書をサブワード単位で分割して誤り推定を行う形態について述べる。
(Embodiment 3)
In the present embodiment, by using a unit called a subword as a unit for dividing a sentence, even when dealing with a sentence having many unknown words that are not recorded in a general dictionary, such as a technical book, it is appropriately handled. The form which can be done is described.
FIG. 11 is a block diagram illustrating a configuration example of the
図12は、語句リスト142のレコードレイアウトの一例を示す説明図である。語句リスト142は、語句列、スコア列を有する。語句列は、サンプル文書から抽出(分割)したサブワードである語句(文字又は文字列)を記憶している。スコア列は、サブワードと対応付けて、サンプル文書において各サブワードが出現した頻度を元に計算したスコア(パラメータ)を記憶している。
FIG. 12 is an explanatory diagram illustrating an example of a record layout of the
図13は、サブワード学習処理を説明するための説明図である。学習装置1は、所定のサンプル文書を多数取得し、各サンプル文書からサブワードを抽出して語句リスト142を生成する。図13では、サンプル文書からサブワードを抽出し、語句リスト142に登録していく過程を図示している。
FIG. 13 is an explanatory diagram for explaining the subword learning process. The
サブワード(部分語)は、通常の分かち書きとは異なり、文章中に出現する頻度に応じて文章を区分した語句(文字又は文字列)の単位である。一般的に文章の最小構成単位として用いられる「単語」は、文章中の文字又は文字列を意味、文法等の観点から最小化した単位であるが、サブワードは意味、文法等による単位ではなく、文章中で用いられる頻度に応じて最小化した単位である。サブワードの概念によれば、低頻度の語句(文字列)は、語句を構成する文字や部分文字列といった、語句そのものよりも短い単位でまとめられる。 A subword (partial word) is a unit of a word (character or character string) in which a sentence is divided according to the frequency of appearance in the sentence, unlike normal segmentation. Generally, `` word '' used as the minimum constituent unit of a sentence is a unit that is minimized from the viewpoint of grammar, etc. meaning a character or character string in a sentence, but a subword is not a unit based on meaning, grammar, etc. It is a unit that is minimized according to the frequency used in the text. According to the concept of subwords, low-frequency words (character strings) are grouped in units shorter than the words themselves, such as characters and partial character strings that constitute the words.
以下、サンプル文書からサブワードを学習する処理について説明する。本実施の形態で学習装置1は、BPE(Byte Pair Encoding)の手法を用いてサンプル文書からサブワードを抽出する。
Hereinafter, processing for learning subwords from a sample document will be described. In the present embodiment, the
学習装置1はまず、サンプル文書を文字単位で分割する。図4の最上段に示す例では、学習装置1は、「腫大したリンパ節を認めない」という文章を、「腫」、「大」、「し」、「た」…の各文字に分割している。
First, the
学習装置1は、図13の二段目に示すように、分割した全ての文字をサブワードとして語句リスト142に登録する。この場合に学習装置1は、サンプル文書における各サブワード(文字)の出現頻度を元にサブワードのスコア(パラメータ)を計算し、計算したスコアを語句リスト142のスコア列に登録しておく。スコアは、例えば出現頻度を正規化することによって計算される。図4の例では、「腫」よりも「大」の方が文章中で出現する頻度が高いため、「大」のスコアは「腫」のスコア0.01よりも大きい0.05となっている。
As shown in the second row of FIG. 13, the
なお、正規化する際に用いる重みなどの値は、場合によって適宜変更される。また、以下の説明では出現頻度を正規化したスコア(パラメータ)に基づき一連の処理を行うものとするが、例えば学習装置1は正規化していない出現頻度そのものをスコアとして用いても良く、出現頻度に応じたパラメータに基づいて一連の処理を行うことができれば良い。
Note that values such as weights used for normalization are appropriately changed depending on circumstances. In the following description, a series of processing is performed based on a score (parameter) whose appearance frequency is normalized. For example, the
次に学習装置1は、サンプル文書において隣り合う文字を連結した二文字の文字列を、当該文字列の出現頻度に応じて語句リスト142に登録する。具体的には、学習装置1は、文章中で最もスコアが高い二文字を語句リスト142に登録する。
Next, the
例えば学習装置1は、文章の先頭から末尾に至るまで二文字ずつ文字列を取り出し、各文字列のスコアを計算していく。図13の例では、学習装置1はまず「腫大」のスコアを計算し、続いて「大し」のスコアを、「した」のスコアを…というように計算を行う。そして学習装置1は、二文字から成る各文字列のうち、スコアが最も高い文字列を語句リスト142に登録する。図13の三段目に示す例では、「転移」の文字列のスコアが最も高かったため、学習装置1は「転移」をサブワードとして語句リスト142に登録する。なお、学習装置1は併せて、当該文字列の出現頻度を元に計算したスコアを語句リスト142に登録する。
For example, the
続いて学習装置1は、再度サンプル文書を探索し、スコアが最も高い二文字を語句リスト142に登録する。この場合に学習装置1は、サブワードとして語句リスト142に登録済みの文字列は一文字とみなし、新たなサブワードを探索する。上記の例では、語句リスト142に「転移」を登録済みであるため、この「転移」の文字列が一つの文字とみなされる。このように、学習装置1はBPEの手法を用いて、隣り合う文字同士を一つの情報(文字列)に圧縮する。学習装置1は、「転移」に跨る部分についてスコアを計算する場合、「転移」の前に位置する「骨」と「転移」とを連結した「骨転移」と、「転移」の後に位置する「が」と「転移」とを連結した「転移が」とを二文字の文字列とみなし、スコアを計算する。
Subsequently, the
このように、学習装置1は、語句リスト142に登録済みの二つのサブワード(文字又は文字列)を連結して新たなサブワード(文字列)を特定し、当該新たなサブワードを出現頻度に応じて語句リスト142に追加する。図13の四段目に示す例では、一文字のサブワード「骨」と二文字のサブワード「転移」とを連結した文字列「骨転移」のスコアが最も高かったため、学習装置1は、文字列「骨転移」をサブワードとして新たに語句リスト142に追加する。
As described above, the
以下同様にして、学習装置1は、サンプル文書内で隣り合う二つのサブワード(文字又は文字列)を連結し、二つのサブワードから成る文字列を、その出現頻度に応じて語句リスト142に登録する処理を順に行っていく。学習装置1は、複数のサンプル文書に対して当該処理を行い、語句リスト142に登録されたサブワードが予め定められた最大数(例えば8000語)に達するまで処理を繰り返す。これにより学習装置1は、図12で例示した語句リスト142を生成する。このようにして学習装置1は、文章内で現れやすい文字列のパターン(サブワード)を学習する。
Similarly, the
なお、上記で学習装置1は、文章内で出現頻度に応じたスコアが最も高い文字列を語句リスト142に登録することとしているが、例えばスコアの閾値を定め、閾値以上のスコアを有する文字列を全てサブワードとして登録するようにしてもよい。つまり、学習装置1は出現頻度に応じてサブワードを登録可能であればよく、出現頻度に係る判定基準は特に限定されない。
In the above description, the
学習装置1は、上記の語句リスト142を参照して学習用の文章(上述の例では既存の診断書)をサブワード単位で分割し、言語モデル141を生成する。例えば学習装置1は、分割後の全てのサブワードのスコアの合計値が最大化するように文章を分割する。同様に、学習装置1は誤り推定対象の対象文(診断書)をサブワード単位で分割し、言語モデル141を用いて誤り箇所を推定する。
The
上記のように、学習装置1は意味、文法等のような一般的な基準ではなく、出現頻度に応じて区分されるサブワードによって対象文を分割し、誤り部分を検出(推定)する。これにより、人手で作成された辞書を用いる必要がなく、未知語の多い文章であっても対応することができる。
As described above, the
図14は、サブワード学習処理の処理手順の一例を示すフローチャートである。図14に基づき、学習装置1が実行する誤り推定処理の処理内容について説明する。
学習装置1の制御部11は、学習用の複数のサンプル文書を取得する(ステップS301)。制御部11は、取得したサンプル文書を文字単位に分割する(ステップS302)。制御部11は、分割した全ての文字をサブワードとして語句リスト142に登録する(ステップS303)。
FIG. 14 is a flowchart illustrating an example of a processing procedure of subword learning processing. Based on FIG. 14, the processing content of the error estimation processing which the
The
制御部11は、語句リスト142に登録済みのサブワード(文字又は文字列)のうち、サンプル文書において隣り合う二つのサブワードを連結した文字列の、サンプル文書内での出現頻度に応じたスコア(パラメータ)を算出する(ステップS304)。例えば制御部11は、文章の先頭から末尾に至るまで二つずつサブワードを取り出して一つの文字列とし、各文字列の出現頻度に基づくスコアを順に計算する。
The
制御部11は、ステップS304で算出したスコアに応じて、二つのサブワードを連結した文字列を新たなサブワードとして語句リスト142に登録する(ステップS305)。具体的には、制御部11は、ステップS304においてスコアを計算した全ての文字列のうち、スコアが最も高い文字列を語句リスト142に登録する。この場合に制御部11は、ステップS304で算出された出現頻度を元にしたスコアを併せて語句リスト142に登録する。
The
制御部11は、予め定められた最大数のサブワードが語句リスト142に登録されたか否かを判定する(ステップS306)。最大数のサブワードが登録されていないと判定した場合(S306:NO)、制御部11は処理をステップS304に戻す。最大数のサブワードが登録されたと判定した場合(S306:YES)、制御部11は一連の処理を終了する。
The
以上より、本実施の形態3によれば、文章を分割する要素(語句)として、意味、文法等を基準とした単語、文節等ではなく、出現頻度に応じて区分されるサブワードを分割単位として用いる。これにより、人手で作成された辞書を用いる必要がなく、未知語の多い文章であっても対応することができる。特にサブワード単位で分割することで、低頻度の語句は短い文字数で分割されるため、実施の形態2(文字種及び/又は文字数に基づく誤り推定、生起確率が閾値以下の語句の連続性に基づく誤り推定)と本実施の形態を組み合わせることで、一層の精度向上を期待することができる。 As described above, according to the third embodiment, as an element (phrase) that divides a sentence, not a word or phrase based on meaning, grammar, or the like, but a subword that is classified according to the appearance frequency is used as a division unit. Use. As a result, it is not necessary to use a manually created dictionary, and even a sentence with many unknown words can be handled. In particular, by dividing in units of subwords, low-frequency words are divided by a short number of characters, so the second embodiment (error estimation based on character type and / or number of characters, error based on continuity of words whose occurrence probability is below a threshold value) A further improvement in accuracy can be expected by combining the estimation) and this embodiment.
(実施の形態4)
図15は、上述した形態の学習装置1の動作を示す機能ブロック図である。制御部11がプログラムPを実行することにより、学習装置1は以下のように動作する。
取得部151は、複数の文章を取得する。分割部152は、取得した前記文章夫々を、所定単位の文字又は文字列である複数の要素に分割する。第1学習部153は、各要素の次に出現する前記要素を、取得した前記文章の順に学習する。順序変換部154は、前記複数の要素の並び順を、前記文章の先頭から末尾までを逆順序に並び替える。第2学習部155は、並び替えた前記文章の順に、前記各要素の次に出現する前記要素を学習する。
(Embodiment 4)
FIG. 15 is a functional block diagram illustrating the operation of the
The
本実施の形態4は以上の如きであり、その他は実施の形態1から3と同様であるので、対応する部分には同一の符号を付してその詳細な説明を省略する。 The fourth embodiment is as described above, and the other parts are the same as those of the first to third embodiments. Therefore, the corresponding parts are denoted by the same reference numerals, and detailed description thereof is omitted.
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time is to be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1 学習装置
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P プログラム
141 言語モデル
142 語句リスト
DESCRIPTION OF
Claims (9)
取得した前記文章を、所定単位の文字又は文字列である複数の要素に分割する分割部と、
各要素の次に出現する前記要素を、取得した前記文章の順に学習する第1学習部と、
前記複数の要素の並び順を、前記文章の先頭から末尾までを逆順序に並び替える順序変換部と、
並び替えた前記文章の順に、前記各要素の次に出現する前記要素を学習する第2学習部と
を備えることを特徴とする学習装置。 An acquisition unit for acquiring sentences;
A dividing unit that divides the acquired sentence into a plurality of elements that are characters or character strings of a predetermined unit;
A first learning unit that learns the elements that appear next to each element in the order of the acquired sentences;
An order conversion unit that rearranges the order of the plurality of elements in reverse order from the beginning to the end of the sentence;
A learning device comprising: a second learning unit that learns the element that appears next to each element in the order of the rearranged sentences.
ことを特徴とする請求項1に記載の学習装置。 The learning device according to claim 1, wherein the first and second learning units generate a recursive neural network.
前記文書における前記文字又は文字列の出現頻度に応じて、該文字又は文字列を語句リストに登録する登録部と
を備え、
前記分割部は、前記語句リストに登録されている前記文字又は文字列毎に分割する
ことを特徴とする請求項1又は2に記載の学習装置。 A document dividing unit that divides each of a plurality of documents into predetermined units of characters or character strings;
A registration unit that registers the character or character string in a phrase list according to the appearance frequency of the character or character string in the document,
The learning device according to claim 1, wherein the dividing unit divides each character or character string registered in the word list.
取得した前記文章を、所定単位の文字又は文字列である複数の要素に分割し、
各要素の次に出現する前記要素を、取得した前記文章の順に学習し、
前記複数の要素の並び順を、前記文章の先頭から末尾までを逆順序に並び替え、
並び替えた前記文章の順に、前記各要素の次に出現する前記要素を学習する
処理をコンピュータに実行させることを特徴とする学習方法。 Get multiple sentences,
The acquired sentence is divided into a plurality of elements that are characters or character strings of a predetermined unit,
Learn the elements that appear next to each element in the order of the acquired sentences,
Rearranging the order of the plurality of elements from the beginning to the end of the sentence in reverse order,
A learning method, comprising: causing a computer to execute a process of learning the elements that appear next to the elements in the order of the rearranged sentences.
取得した前記文章を、所定単位の文字又は文字列である複数の要素に分割し、
各要素の次に出現する前記要素を、取得した前記文章の順に学習し、
前記複数の要素の並び順を、前記文章の先頭から末尾までを逆順序に並び替え、
並び替えた前記文章の順に、前記各要素の次に出現する前記要素を学習する
処理をコンピュータに実行させることを特徴とするプログラム。 Get multiple sentences,
The acquired sentence is divided into a plurality of elements that are characters or character strings of a predetermined unit,
Learn the elements that appear next to each element in the order of the acquired sentences,
Rearranging the order of the plurality of elements from the beginning to the end of the sentence in reverse order,
A program for causing a computer to execute a process of learning the element that appears next to each element in the order of the rearranged sentences.
取得した前記対象文を、所定単位の文字又は文字列である複数の要素に分割する分割部と、
学習用の文章を元に、該文章に含まれる各要素の次の前記要素を前記文章の順に学習済みの第1の言語モデルを参照して、前記対象文に含まれる前記要素夫々の生起確率を算出する第1算出部と、
前記対象文における前記複数の要素の並び順を、前記対象文の先頭から末尾までを逆順序に並び替える順序変換部と、
前記学習用の文章を元に、逆順序で前記各要素の次の前記要素を学習済みの第2の言語モデルを参照して、並び替えた前記対象文の前記要素夫々の生起確率を算出する第2算出部と、
前記第1及び第2算出部が夫々算出した前記要素の生起確率に基づき、該要素を誤り箇所と推定する推定部と
を備えることを特徴とする推定装置。 An acquisition unit for acquiring a target sentence that is an error estimation target;
A dividing unit that divides the acquired target sentence into a plurality of elements that are characters or character strings of a predetermined unit;
Based on the learning sentence, the occurrence probability of each of the elements included in the target sentence by referring to the first language model that has learned the elements next to the elements included in the sentence in the order of the sentences A first calculation unit for calculating
An order conversion unit that rearranges the order of the plurality of elements in the target sentence from the beginning to the end of the target sentence in reverse order;
Based on the learning sentence, the occurrence probability of each element of the rearranged target sentence is calculated by referring to the second language model that has learned the element next to each element in reverse order. A second calculation unit;
An estimation apparatus comprising: an estimation unit that estimates an element as an error location based on occurrence probabilities of the element calculated by the first and second calculation units, respectively.
ことを特徴とする請求項6に記載の推定装置。 The estimation device according to claim 6, wherein the estimation unit estimates the element as an error location based on the occurrence probability of the element and the character type and / or the number of characters of the element.
ことを特徴とする請求項6又は7に記載の推定装置。 The estimation apparatus according to claim 6 or 7, wherein the estimation unit estimates a plurality of continuous elements as error locations when a predetermined number or more of the elements whose occurrence probabilities are equal to or less than a threshold value continue.
ことを特徴とする請求項6〜8のいずれか1項に記載の推定装置。 An output unit that outputs, as a correction candidate, an element having the highest occurrence probability with respect to the element estimated as an error location with reference to the first or second language model. The estimation apparatus of any one of -8.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018097926A JP7163618B2 (en) | 2018-05-22 | 2018-05-22 | LEARNING DEVICE, LEARNING METHOD, PROGRAM AND ESTIMATION DEVICE |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018097926A JP7163618B2 (en) | 2018-05-22 | 2018-05-22 | LEARNING DEVICE, LEARNING METHOD, PROGRAM AND ESTIMATION DEVICE |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019204214A true JP2019204214A (en) | 2019-11-28 |
| JP7163618B2 JP7163618B2 (en) | 2022-11-01 |
Family
ID=68726962
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018097926A Active JP7163618B2 (en) | 2018-05-22 | 2018-05-22 | LEARNING DEVICE, LEARNING METHOD, PROGRAM AND ESTIMATION DEVICE |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7163618B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102265946B1 (en) * | 2020-11-23 | 2021-06-17 | 주식회사 엠로 | Method and apparatus for providing information about similar items based on machine learning |
| KR102265945B1 (en) * | 2020-11-23 | 2021-06-17 | 주식회사 엠로 | Method and apparatus for classifying item based on machine learning |
| WO2022130093A1 (en) * | 2020-12-14 | 2022-06-23 | 株式会社半導体エネルギー研究所 | Review system and review method |
| CN115130472A (en) * | 2022-08-31 | 2022-09-30 | 北京澜舟科技有限公司 | Method, system and readable storage medium for segmenting subwords based on BPE |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016134169A (en) * | 2015-01-19 | 2016-07-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Language model learning method and apparatus, language recognition method and apparatus |
-
2018
- 2018-05-22 JP JP2018097926A patent/JP7163618B2/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016134169A (en) * | 2015-01-19 | 2016-07-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Language model learning method and apparatus, language recognition method and apparatus |
Non-Patent Citations (1)
| Title |
|---|
| 河田 岳大 他3名: "両方向N−gram確率を用いた誤り文字検出法", 電子情報通信学会論文誌, vol. 第J88-D-II巻, JPN6022014536, 1 March 2005 (2005-03-01), JP, pages 629 - 635, ISSN: 0004752884 * |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102265946B1 (en) * | 2020-11-23 | 2021-06-17 | 주식회사 엠로 | Method and apparatus for providing information about similar items based on machine learning |
| KR102265945B1 (en) * | 2020-11-23 | 2021-06-17 | 주식회사 엠로 | Method and apparatus for classifying item based on machine learning |
| WO2022130093A1 (en) * | 2020-12-14 | 2022-06-23 | 株式会社半導体エネルギー研究所 | Review system and review method |
| CN115130472A (en) * | 2022-08-31 | 2022-09-30 | 北京澜舟科技有限公司 | Method, system and readable storage medium for segmenting subwords based on BPE |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7163618B2 (en) | 2022-11-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111444320B (en) | Text retrieval method and device, computer equipment and storage medium | |
| US11636264B2 (en) | Stylistic text rewriting for a target author | |
| US11604956B2 (en) | Sequence-to-sequence prediction using a neural network model | |
| JP5377889B2 (en) | Language processing apparatus and program | |
| JP6514305B1 (en) | Recognition dictionary maintenance device, pattern recognition system, recognition dictionary maintenance method and program | |
| JP6231944B2 (en) | Learning model creation device, determination system, and learning model creation method | |
| US12437214B2 (en) | Machine-learning system and method for identifying same person in genealogical databases | |
| JP7116309B2 (en) | Context information generation method, context information generation device and context information generation program | |
| JP6828335B2 (en) | Search program, search device and search method | |
| CN113128203A (en) | Attention mechanism-based relationship extraction method, system, equipment and storage medium | |
| JP7163618B2 (en) | LEARNING DEVICE, LEARNING METHOD, PROGRAM AND ESTIMATION DEVICE | |
| WO2014073206A1 (en) | Information-processing device and information-processing method | |
| JP2023056798A (en) | Machine learning program, search program, machine learning device, and method | |
| US20220101162A1 (en) | Systems and methods for enforcing constraints to predictions | |
| JPWO2015166606A1 (en) | Natural language processing system, natural language processing method, and natural language processing program | |
| JP7669810B2 (en) | Information processing program, information processing method, and information processing device | |
| US12536375B2 (en) | Computer-readable recording medium storing computer program, machine learning method, and natural language processing apparatus | |
| CN114676684B (en) | A text error correction method, device, computer equipment and storage medium | |
| JP6605997B2 (en) | Learning device, learning method and program | |
| JP5175585B2 (en) | Document processing apparatus, electronic medical chart apparatus, and document processing program | |
| JP4405542B2 (en) | Apparatus, method and program for clustering phoneme models | |
| JP2019159814A (en) | Information processing device, information processing method, and program | |
| WO2022070422A1 (en) | Computer system and character recognition method | |
| JP6545633B2 (en) | Word score calculation device, word score calculation method and program | |
| JP2020140674A (en) | Answer selection device and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210323 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220311 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220526 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220920 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221003 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7163618 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |