[go: up one dir, main page]

JP2019200554A - Generation method, generation program, and generation device - Google Patents

Generation method, generation program, and generation device Download PDF

Info

Publication number
JP2019200554A
JP2019200554A JP2018094189A JP2018094189A JP2019200554A JP 2019200554 A JP2019200554 A JP 2019200554A JP 2018094189 A JP2018094189 A JP 2018094189A JP 2018094189 A JP2018094189 A JP 2018094189A JP 2019200554 A JP2019200554 A JP 2019200554A
Authority
JP
Japan
Prior art keywords
information
input
sentence
word
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018094189A
Other languages
Japanese (ja)
Other versions
JP7133351B2 (en
Inventor
直紀 高橋
Naoki Takahashi
直紀 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018094189A priority Critical patent/JP7133351B2/en
Publication of JP2019200554A publication Critical patent/JP2019200554A/en
Application granted granted Critical
Publication of JP7133351B2 publication Critical patent/JP7133351B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】文章が入力されないことが出力に与える影響を抑制することを目的とする。【解決手段】生成方法は、コンピュータが、学習情報に基づき、第1の単語、及び第1の文章に応じた第1の文章とは異なる形式の第1の中間情報の組みを、第1の情報に応じた情報に変換する第1の変換パラメータと、第1の単語を、第1の中間情報に変換する第2の変換パラメータとを生成し、第2の入力項目に対応付けられた文章の入力を受け付けずに、第1の入力項目に対応付けられた第2の単語の入力を受け付けると、第2の変換パラメータにより第2の単語を変換して、形式の第2の中間情報を生成するとともに、第1の変換パラメータにより第2の単語及び第2の中間情報の組みを変換して、第2の情報を生成する。【選択図】図11PROBLEM TO BE SOLVED: To suppress the influence of no input of a sentence on output. According to a generation method, a computer determines a first word and a first set of intermediate information in a format different from the first sentence according to the first sentence based on learning information as a first set. A sentence generated by generating a first conversion parameter for converting into information according to the information and a second conversion parameter for converting the first word into the first intermediate information, and correlating with the second input item. When the input of the second word associated with the first input item is accepted without accepting the input of, the second word is converted by the second conversion parameter to obtain the second intermediate information of the format. Along with the generation, the second word and the second intermediate information set are converted by the first conversion parameter to generate the second information. [Selection diagram] Fig. 11

Description

本発明は、生成方法、生成プログラムおよび生成装置に関する。   The present invention relates to a generation method, a generation program, and a generation apparatus.

機械学習を用いて、入力情報に基づいて出力情報を生成する分類器等のシステムを生成する技術が用いられている。しかし、入力情報に欠損がある場合、出力情報の精度が低下する可能性があるため、欠損した情報を予測する技術が用いられる。   A technique for generating a system such as a classifier that generates output information based on input information using machine learning is used. However, when the input information is missing, the accuracy of the output information may be reduced, so a technique for predicting the missing information is used.

関連する技術として、トレーニングデータをデータ学習プログラムに入力して分類器を作成し、欠損値を含むデータから生成した入力データを分類器に入力して、欠損値を予測する技術が提案されている(例えば、特許文献1を参照)。   As a related technique, a technique has been proposed in which training data is input to a data learning program to create a classifier, and input data generated from data containing missing values is input to the classifier to predict missing values. (For example, see Patent Document 1).

また、関連する技術として、欠損値を含むフィールドが複数ある場合に欠損値を含むフィールド以外のフィールドのデータから欠損値を予測し、補間する技術が提案されている(例えば、特許文献2を参照)。   Further, as a related technique, a technique has been proposed in which when there are a plurality of fields containing missing values, the missing values are predicted from the data of fields other than the fields containing missing values and interpolated (see, for example, Patent Document 2). ).

また、関連する技術として、iterative inversion法と誤差逆伝搬により、不完全なセンサ情報の欠損値を推定しモデル獲得を行う技術が提案されている(例えば、特許文献3を参照)。   Further, as a related technique, a technique for estimating a missing value of incomplete sensor information and acquiring a model by using an iterative inversion method and error back propagation has been proposed (see, for example, Patent Document 3).

また、関連する技術として、欠損値のうちの予測したい目的変数を受け付け、重回帰分析の結果をもとに、目的変数を含むレコードの各説明変数の値及び係数から目的変数の値を計算する技術が提案されている(例えば、特許文献4を参照)。   Also, as a related technique, accept the objective variable that you want to predict among the missing values, and calculate the value of the objective variable from the value and coefficient of each explanatory variable of the record including the objective variable based on the result of multiple regression analysis Techniques have been proposed (see, for example, Patent Document 4).

特開2007−334719号公報JP 2007-334719 A 特開2000−40079号公報JP 2000-40079 特開平8−212184号公報JP-A-8-212184 特開2014−63432号公報JP 2014-63432 A

例えば、入力情報のうち文章が欠損している場合、入力情報内の他の情報を用いて文章を予測することが考えられる。しかし、文章内の単語の数が可変であり、単語の順番を考慮することになるため、欠損している文章を直接予測することは困難である。そして、欠損した文章の予測精度が低下すると、出力情報の精度も低下する。   For example, when a sentence is missing in the input information, it is conceivable to predict the sentence using other information in the input information. However, since the number of words in the sentence is variable and the order of the words is taken into account, it is difficult to directly predict the missing sentence. And if the prediction precision of the missing sentence falls, the precision of output information will also fall.

1つの側面として、本発明は、文章が入力されないことが出力に与える影響を抑制することを目的とする。   As one aspect, an object of the present invention is to suppress the influence on the output that a sentence is not input.

1つの態様では、生成方法は、コンピュータが、第1の入力項目に対応付けて入力された第1の単語と、第2の入力項目に対応付けて入力された第1の文章と、前記第1の単語及び前記第1の文章の組みに応じた第1の情報と、を含む学習情報を取得し、前記学習情報に基づき、前記第1の単語、及び前記第1の文章に応じた前記第1の文章とは異なる形式の第1の中間情報の組みを、前記第1の情報に応じた情報に変換する第1の変換パラメータと、前記第1の単語を、前記第1の中間情報に変換する第2の変換パラメータとを生成し、前記第2の入力項目に対応付けられた文章の入力を受け付けずに、前記第1の入力項目に対応付けられた第2の単語の入力を受け付けると、前記第2の変換パラメータにより前記第2の単語を変換して、前記形式の第2の中間情報を生成するとともに、前記第1の変換パラメータにより前記第2の単語及び前記第2の中間情報の組みを変換して、第2の情報を生成する、処理を実行する。   In one aspect, the generation method includes: a first word input in association with a first input item; a first sentence input in association with a second input item; Learning information including one word and first information corresponding to the first sentence set, and based on the learning information, the first word and the first sentence according to the first sentence A first conversion parameter for converting a set of first intermediate information in a format different from that of the first sentence into information corresponding to the first information; and the first word is converted into the first intermediate information. The second conversion parameter to be converted into the second input parameter is generated, and the second word associated with the first input item is input without accepting the input of the sentence associated with the second input item. If accepted, the second word is converted by the second conversion parameter, Generating the second intermediate information in the format, and generating the second information by converting the combination of the second word and the second intermediate information by the first conversion parameter To do.

1つの側面によれば、文章が入力されないことが出力に与える影響を抑制することができる。   According to one aspect, it is possible to suppress the influence on the output that a sentence is not input.

生成装置の一例を示す図である。It is a figure which shows an example of a production | generation apparatus. 入力情報および出力情報の一例を示す図である。It is a figure which shows an example of input information and output information. 各情報およびパラメータの例を示す図である。It is a figure which shows the example of each information and a parameter. パラメータ生成方法の一例を示す図である。It is a figure which shows an example of the parameter production | generation method. 中間情報の例を示す図である。It is a figure which shows the example of intermediate information. 中間情報に変換するパラメータの生成方法の例を示す図である。It is a figure which shows the example of the production | generation method of the parameter converted into intermediate information. 入力情報から中間情報への変換方法の例を示す図である。It is a figure which shows the example of the conversion method from input information to intermediate information. 他の入力情報に変換するパラメータの生成方法の第1の例を示す図である。It is a figure which shows the 1st example of the production | generation method of the parameter converted into other input information. 他の入力情報に変換するパラメータの生成方法の第2の例を示す図である。It is a figure which shows the 2nd example of the production | generation method of the parameter converted into other input information. 入力情報から他の入力情報への変換方法の例を示す図である。It is a figure which shows the example of the conversion method from input information to other input information. 学習時における処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process at the time of learning. 運用時における処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process at the time of operation. 入力情報を示す行列式の例を示す図である。It is a figure which shows the example of the determinant which shows input information. 実施例における各情報およびパラメータを示す図である。It is a figure which shows each information and parameter in an Example. 欠損および外れ値を含む情報の例を示す図である。It is a figure which shows the example of the information containing a defect | deletion and an outlier. 生成装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a production | generation apparatus.

以下、図面を参照して、実施形態について説明する。図1は、生成装置1の一例を示す図である。生成装置1は、コンピュータの一例である。生成装置1は、例えば、サーバ、パーソナルコンピュータ、またはタブレット端末等である。   Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of the generation device 1. The generation device 1 is an example of a computer. The generation device 1 is, for example, a server, a personal computer, a tablet terminal, or the like.

生成装置1は、取得部11と第1生成部12と第2生成部13と判定部14と変換部15と第3生成部16と記憶部17とを含む。   The generation device 1 includes an acquisition unit 11, a first generation unit 12, a second generation unit 13, a determination unit 14, a conversion unit 15, a third generation unit 16, and a storage unit 17.

取得部11は、第1の入力項目に対応付けて入力された第1の単語と、第2の入力項目に対応付けて入力された第1の文章と、第1の単語及び第1の文章の組みに応じた第1の情報と、を含む学習情報を取得する。   The acquisition unit 11 includes a first word input in association with the first input item, a first sentence input in association with the second input item, the first word, and the first sentence. The learning information including the first information corresponding to the set of is acquired.

第1生成部12は、学習情報に基づき、第1の単語、及び第1の文章に応じた第1の文章とは異なる形式の第1の中間情報の組みを、第1の情報に応じた情報に変換する第1の変換パラメータを生成する。   The first generation unit 12 sets, based on the learning information, a set of first intermediate information in a format different from the first word and the first sentence corresponding to the first sentence according to the first information. A first conversion parameter to be converted into information is generated.

第2生成部13は、第1の単語を、第1の中間情報に変換する第2の変換パラメータを生成する。第1生成部12および第2生成部13は、パラメータ生成部の一例である。   The second generation unit 13 generates a second conversion parameter for converting the first word into the first intermediate information. The first generation unit 12 and the second generation unit 13 are an example of a parameter generation unit.

判定部14は、入力情報に欠損があるか判定する。なお、生成装置1は、入力情報が学習情報に存在しない情報を含む場合等に、すなわち、入力情報に外れ値がある場合にも、欠損がある場合と同様の処理を行うこととする。   The determination unit 14 determines whether there is a defect in the input information. Note that the generation device 1 performs the same processing as when there is a defect even when the input information includes information that does not exist in the learning information, that is, when there is an outlier in the input information.

変換部15は、第2の入力項目に対応付けられた文章の入力を受け付けずに、第1の入力項目に対応付けられた第2の単語の入力を受け付けると、第2の変換パラメータにより第2の単語を変換して、第2の中間情報を生成する。   When the conversion unit 15 receives the input of the second word associated with the first input item without receiving the input of the sentence associated with the second input item, the conversion unit 15 receives the input of the second word associated with the first input item. The second word is converted to generate second intermediate information.

第3生成部16は、第1の変換パラメータにより第2の単語及び第2の中間情報の組みを変換して、第2の情報を生成する。変換部15および第3生成部16は、情報生成部の一例である。   The third generation unit 16 converts the combination of the second word and the second intermediate information using the first conversion parameter to generate the second information. The conversion unit 15 and the third generation unit 16 are an example of an information generation unit.

記憶部17は、生成された各種パラメータ、中間情報等を記憶する。   The storage unit 17 stores various generated parameters, intermediate information, and the like.

図2は、入力情報および出力情報の一例を示す図である。図2に示す入力情報および出力情報は、映画に関する情報である。図2に示す入力情報の入力項目は、映画のジャンル(x)、製作会社(x)、映画の概要(x)を含む。映画のジャンル(x)、製作会社(x)、は、単語で表現され、映画の概要(x)は、文章で表現される。出力情報の項目は、面白さ(y)を含む。なお、以下の説明において、各項目を、記号(x、x、x、y)を用いて表現することがある。 FIG. 2 is a diagram illustrating an example of input information and output information. The input information and output information shown in FIG. 2 are information regarding movies. The input items of the input information shown in FIG. 2 include a movie genre (x 1 ), a production company (x 2 ), and a movie overview (x 3 ). The movie genre (x 1 ) and the production company (x 2 ) are expressed by words, and the movie overview (x 3 ) is expressed by sentences. The item of output information includes interest (y). In the following description, each item may be expressed using symbols (x 1 , x 2 , x 3 , y).

図3は、各情報およびパラメータの例を示す図である。図3に示すように、入力情報xは、パラメータwを用いた分類器により中間情報x’に変換される。同様に、入力情報xは、パラメータwを用いた分類器により中間情報x’に変換される。また、入力情報xは、パラメータwを用いた分類器により中間情報x’に変換される。また、中間情報x’、x’、x’は、パラメータwを用いた分類器によりyに変換される。 FIG. 3 is a diagram illustrating examples of information and parameters. As shown in FIG. 3, the input information x 1 is converted into intermediate information x 1 ′ by a classifier using the parameter w 1 . Similarly, the input information x 2 is converted into intermediate information x 2 ′ by a classifier using the parameter w 2 . Further, the input information x 3 is converted into intermediate information x 3 ′ by a classifier using the parameter w 3 . The intermediate information x 1 ', x 2', x 3 ' is converted into y by classifier with parameters w h.

生成装置1は、学習情報としてx〜x、yを取得した場合、学習情報に基づいて各パラメータ(w〜w、w)を生成する。また、生成装置1は、未知の出力情報を生成するために入力情報x〜xを取得した場合、入力情報x〜xと生成した各パラメータ(w〜w、w)とを用いてyを生成する。 When the generation apparatus 1 acquires x 1 to x 3 and y as learning information, the generation apparatus 1 generates each parameter (w 1 to w 3 , w h ) based on the learning information. Moreover, when the generation apparatus 1 acquires the input information x 1 to x 3 to generate unknown output information, the generation information 1 includes the input information x 1 to x 3 and the generated parameters (w 1 to w 3 , w h ). To generate y.

図4は、パラメータ生成方法の一例を示す図である。図4に示す例では、学習情報として、x〜x、yが与えられているとする。そして、第1生成部12は、x〜x、yに基づいて、各パラメータ(w〜w、w)を生成する。第1生成部12は、x〜x、yと初期パラメータに基づいて、yの予測値pred_yを生成し、pred_yがyに近づくように、パラメータを調整する。そして、第1生成部12は、あるパラメータを用いて生成した予測値pred_yがyに最も近い場合、そのパラメータ(w〜w、w)を記憶部17に記憶する。記憶部17に記憶されたパラメータ(w〜w、w)は、運用時において、入力情報から未知の出力情報を生成するために用いられる。 FIG. 4 is a diagram illustrating an example of a parameter generation method. In the example illustrated in FIG. 4, it is assumed that x 1 to x 3 and y are given as learning information. The first generator 12, based on x 1 ~x 3, y, generates the parameters (w 1 ~w 3, w h ). The first generation unit 12 generates a predicted value pred_y of y based on x 1 to x 3 , y and the initial parameter, and adjusts the parameter so that pred_y approaches y. When the predicted value pred_y generated using a certain parameter is closest to y, the first generation unit 12 stores the parameter (w 1 to w 3 , w h ) in the storage unit 17. The parameters (w 1 to w 3 , w h ) stored in the storage unit 17 are used for generating unknown output information from input information during operation.

図5は、中間情報の例を示す図である。図5に示す例では、中間情報x’は、行列で表される。xが文章である場合、中間情報x’は、例えば、文章の意味を示す。中間情報x’は、入力情報xより少ない次元数の行列であるとする。よって、生成装置1は、入力情報xが欠損している場合に、入力情報xを予測するよりも容易に中間情報x’を予測することができる。 FIG. 5 is a diagram illustrating an example of intermediate information. In the example illustrated in FIG. 5, the intermediate information x 3 ′ is represented by a matrix. If x 3 is the sentence, intermediate information x 3 ', for example, indicating the meaning of a sentence. It is assumed that the intermediate information x 3 ′ is a matrix having a smaller number of dimensions than the input information x 3 . Therefore, the generation device 1 can predict the intermediate information x 3 ′ more easily than when the input information x 3 is predicted when the input information x 3 is missing.

図6は、中間情報に変換するパラメータの生成方法の例を示す図である。図6に示す例では、第2生成部13は、xを取得し、xから中間情報x’を生成するためのパラメータw’31を生成する。第2生成部13は、例えば、xと初期のパラメータw’31に基づいて、中間情報x’の予測値であるpred1_x’を生成する。そして、第2生成部13は、pred1_x’とx’との差が最も小さくなるようにw’31を生成する。x’は、第1生成部12が学習情報に基づいて生成したパラメータwと入力情報とxを用いて、第2生成部13が予め生成した値である。 FIG. 6 is a diagram illustrating an example of a method for generating a parameter to be converted into intermediate information. In the example shown in FIG. 6, the second generation unit 13 obtains the x 1, to produce a 31 'parameter w for generating' intermediate information x 3 from x 1. For example, the second generation unit 13 generates pred1_x 3 ′ that is a predicted value of the intermediate information x 3 ′ based on x 1 and the initial parameter w ′ 31 . Then, the second generation unit 13 generates w ′ 31 so that the difference between pred1_x 3 ′ and x 3 ′ is the smallest. x 3 ′ is a value generated in advance by the second generation unit 13 using the parameter w 3 generated by the first generation unit 12 based on the learning information, the input information, and x 3 .

第2生成部13は、同様に、xを取得し、xから中間情報x’を生成するためのパラメータw’32を生成する。 Second generating unit 13 similarly acquires x 2, to produce a 32 'parameter w for generating' intermediate information x 3 from x 2.

変換部15は、入力情報xが欠損している場合、w’31を用いて、xからx’を生成する。または、変換部15は、入力情報xが欠損している場合、w’32を用いて、xからx’を生成する。 When the input information x 3 is missing, the conversion unit 15 generates x 3 ′ from x 1 using w ′ 31 . Or, converter 15, when the input information x 3 is deficient, 'with 32, x 3 from x 2' w generates a.

図6におけるxまたはxは、第1の単語の一例である。xは、第1の文章の一例である。w’31またはw’32は、第2の変換パラメータの一例である。 X 1 or x 2 in FIG. 6 is an example of the first word. x 3 is an example of the first sentence. w ′ 31 or w ′ 32 is an example of a second conversion parameter.

図7は、入力情報から中間情報への変換方法の例を示す図である。運用時の入力情報にxが欠損している場合、変換部15は、第2生成部13が生成したw’31を用いて、xからx’_1を生成する。さらに、変換部15は、第2生成部13が生成したw’32を用いて、xからx’_2を生成する。 FIG. 7 is a diagram illustrating an example of a method for converting input information into intermediate information. If the x 3 input information during operation are deficient, converting unit 15, 'with 31, x 3 from x 1' w the second generator 13 has generated to produce a _1. Furthermore, the conversion unit 15 generates x 3 ′ _2 from x 2 using w ′ 32 generated by the second generation unit 13.

変換部15は、xから生成したx’_1とxから生成したx’_2とに基づいて、x’を生成する。変換部15は、例えば、x’_1とx’_2との平均値を、x’とする。変換部15は、x’_1とx’_2とのいずれかをx’としてもよい。 Converting unit 15, based on the _2 'x 3 is generated from _1 and x 2' of x 3 generated from x 1, to generate the x 3 '. Conversion unit 15, for example, the average value of the x 3 '_1 and x 3' _2, and x 3 '. The conversion unit 15 may set x 3 ′ _1 and x 3 ′ _2 as x 3 ′.

図7におけるx、xは、第2の単語の一例であり、x’は、第2の中間情報の一例である。x、x、x’から生成されるyは、第2の情報の一例である。 In FIG. 7, x 1 and x 2 are examples of second words, and x 3 ′ is an example of second intermediate information. y generated from x 1, x 2, x 3 ' is an example of the second information.

図8は、他の入力情報に変換するパラメータの生成方法の第1の例を示す図である。図8に示す例では、第2生成部13は、xを取得し、xからxを生成するためのパラメータw21を生成する。第2生成部13は、例えば、xと初期のパラメータw21に基づいて、xの予測値であるpred1_xを生成する。そして、第2生成部13は、pred1_xとxとの差が最も小さくなるようにw21を生成する。 FIG. 8 is a diagram illustrating a first example of a method for generating a parameter to be converted into other input information. In the example shown in FIG. 8, the second generation unit 13 obtains the x 1, generates parameters w 21 for generating x 2 from x 1. Second generating unit 13, for example, based on x 1 and the initial parameter w 21, to produce a Pred1_x 2 is the predicted value of x 2. Then, the second generation unit 13 generates w 21 so that the difference between pred1_x 2 and x 2 is minimized.

第2生成部13は、同様に、xを取得し、xからxを生成するためのパラメータw23を生成する。 Second generating unit 13 similarly acquires x 3, it generates parameters w 23 for generating x 2 from x 3.

図9は、他の入力情報に変換するパラメータの生成方法の第2の例を示す図である。第2生成部13は、図8に示した方法と同様の方法により、各入力情報を他の入力情報に変換するためのパラメータを生成する。   FIG. 9 is a diagram illustrating a second example of a method for generating a parameter to be converted into other input information. The second generation unit 13 generates parameters for converting each input information into other input information by a method similar to the method shown in FIG.

例えば、第2生成部13は、xをxに変換するためのパラメータw21、およびxをxに変換するためのパラメータw31を生成する。また、第2生成部13は、xをxに変換するためのパラメータw12、およびxをxに変換するためのパラメータw32を生成する。また、第2生成部13は、xをxに変換するためのパラメータw13、およびxをxに変換するためのパラメータw23を生成する。 For example, the second generation unit 13 generates a parameter w 21 for converting x 1 into x 2 and a parameter w 31 for converting x 1 into x 3 . The second generation unit 13 generates a parameter w 12 for converting x 2 to x 1 and a parameter w 32 for converting x 2 to x 3 . The second generation unit 13 generates a parameter w 13 for converting x 3 to x 1 and a parameter w 23 for converting x 3 to x 2 .

図10は、入力情報から他の入力情報への変換方法の例を示す図である。運用時の入力情報にxが欠損している場合、変換部15は、第1生成部12が生成したw21を用いて、xからx_1を生成する。さらに、変換部15は、第1生成部12が生成したw23を用いて、xからx_3を生成する。 FIG. 10 is a diagram illustrating an example of a conversion method from input information to other input information. If x 2 input information during operation is defective, the converting unit 15 uses the w 21 of the first generator 12 has generated, to produce an x 2 _1 from x 1. Furthermore, the conversion unit 15 generates x 2 _ 3 from x 2 using w 23 generated by the first generation unit 12.

変換部15は、xから生成したx_1とxから生成したx_3とに基づいて、xを生成する。変換部15は、例えば、x_1とx_3との平均値を、xとする。変換部15は、例えば、x_1とx_3とのいずれかをxとしてもよい。 Converting unit 15, based on the x 2 _3 generated from x 2 _1 and x 3 generated from x 1, to generate the x 2. Conversion unit 15, for example, the average value of the x 2 _1 and x 2 _3, and x 2. For example, the conversion unit 15 may set x 2 _ 1 and x 2 _ 3 as x 2 .

図11は、学習時における処理の一例を示すフローチャートである。取得部11は、分類器のパラメータを生成するための学習情報を取得する(ステップS101)。学習情報は、例えば、第1の入力項目(例えば、ジャンル、製作会社等)に対応付けて入力された第1の単語と、第2の入力項目(例えば、概要を示す文章)に対応付けて入力された第1の文章を含む。また、学習情報は、第1の単語及び第1の文章の組みに応じた第1の情報(例えば、面白さ)を含む。   FIG. 11 is a flowchart illustrating an example of processing during learning. The acquisition unit 11 acquires learning information for generating a classifier parameter (step S101). The learning information is associated with, for example, a first word input in association with a first input item (for example, genre, production company, etc.) and a second input item (for example, a sentence indicating an outline). Contains the input first sentence. The learning information includes first information (for example, fun) according to the combination of the first word and the first sentence.

第1生成部12は、第1の単語及び第1の中間情報の組みを、第1の情報に応じた情報に変換するパラメータを生成する(ステップS102)。ステップS102で生成されるパラメータは、第1の変換パラメータの一例である。ステップS102で生成されるパラメータは、例えば、図3に示すW、W、およびWの組である。 The 1st production | generation part 12 produces | generates the parameter which converts the combination of a 1st word and 1st intermediate information into the information according to 1st information (step S102). The parameter generated in step S102 is an example of a first conversion parameter. The parameter generated in step S102 is, for example, a set of W 1 , W 2 , and W h shown in FIG.

第2生成部13は、取得部11が取得した入力情報の入力項目毎に繰り返し処理を開始する(ステップS103)。第2生成部13は、処理対象の項目の入力情報が文章であるか判定する(ステップS104)。   The 2nd generation part 13 starts a repetition process for every input item of input information which acquisition part 11 acquired (Step S103). The second generation unit 13 determines whether the input information of the processing target item is a sentence (step S104).

入力情報が文章である場合(ステップS104でYES)、第2生成部13は、入力情報を他の入力情報に応じた中間情報に変換するためのパラメータを生成する(ステップS105)。第2生成部13は、例えば、xを、xの中間情報であるx’に変換するためのパラメータW’31を生成する(図6参照)。ステップS105で生成されるパラメータは第2のパラメータの一例である。 When the input information is a sentence (YES in step S104), the second generation unit 13 generates a parameter for converting the input information into intermediate information according to other input information (step S105). Second generating unit 13, for example, the x 1, generates the 31 'parameters W for converting the' x 3 is the intermediate information of x 3 (see FIG. 6). The parameter generated in step S105 is an example of a second parameter.

入力情報が文章でない場合(ステップS104でNO)、第2生成部13は、入力情報を他の入力情報に変換するためのパラメータを生成する(ステップS106)。第2生成部13は、例えば、xを、xに変換するためのパラメータW21を生成する(図8参照)。 If the input information is not a sentence (NO in step S104), the second generation unit 13 generates a parameter for converting the input information into other input information (step S106). For example, the second generation unit 13 generates a parameter W 21 for converting x 1 into x 2 (see FIG. 8).

第2生成部13は、取得部11が取得した入力情報の全項目についてステップS104〜S106の処理を実行した場合、繰り返し処理を終了する(ステップS107)。   The 2nd production | generation part 13 complete | finishes a repetition process, when the process of step S104-S106 is performed about all the items of the input information which the acquisition part 11 acquired (step S107).

図12は、運用時における処理の一例を示すフローチャートである。取得部11は、入力情報を受け付ける(ステップS201)。入力情報は、例えば、単語および文章である。   FIG. 12 is a flowchart illustrating an example of processing during operation. The acquisition unit 11 receives input information (step S201). The input information is, for example, words and sentences.

判定部14は、入力情報に欠損があるか判定する(ステップS202)。判定部14は入力情報のうちの一部または全部が不足している場合、入力情報が欠損していると判定する。   The determination unit 14 determines whether there is a defect in the input information (step S202). The determination unit 14 determines that the input information is missing when some or all of the input information is insufficient.

入力情報に欠損があると判定された場合(ステップS202でYES)、変換部15は、欠損した入力情報毎の繰り返し処理を開始する(ステップS203)。   When it is determined that the input information is missing (YES in step S202), the conversion unit 15 starts a repetition process for each missing input information (step S203).

変換部15は、欠損している情報が文章であるか判定する(ステップS204)。欠損している情報が文章である場合(ステップS204でYES)、変換部15は、第2生成部13が生成した第2のパラメータを用いて入力情報を変換して、欠損した入力情報の中間情報を生成する(ステップS205)。中間情報は、入力情報とは異なる形式であるとする。変換部15は、例えば、図7の例に示すように、w’31を用いて、xからx’_1を生成する。 The conversion unit 15 determines whether the missing information is a sentence (step S204). When the missing information is a sentence (YES in step S204), the conversion unit 15 converts the input information using the second parameter generated by the second generation unit 13, and intermediate the missing input information. Information is generated (step S205). It is assumed that the intermediate information has a format different from that of the input information. For example, as illustrated in the example of FIG. 7, the conversion unit 15 generates x 3 ′ _1 from x 1 using w ′ 31 .

欠損している情報が文章でない場合(ステップS204でNO)、変換部15は、第1生成部12が生成したパラメータを用いて、入力情報を欠損した入力情報に変換する(ステップS206)。変換部15は、繰り返し処理を終了する(ステップS207)。変換部15は、例えば、第1生成部12が生成したw21を用いて、xからx_1を生成する。 When the missing information is not a sentence (NO in step S204), the conversion unit 15 converts the input information into the missing input information using the parameter generated by the first generation unit 12 (step S206). The conversion unit 15 ends the repetition process (step S207). For example, the conversion unit 15 generates x 2 _ 1 from x 1 using w 21 generated by the first generation unit 12.

第3生成部16は、欠損していた情報が文章であるか判定する(ステップS208)。文章が欠損していた場合、ステップS205の処理で中間情報が生成されている。よって、ステップS208でYESの場合、第3生成部16は、第1のパラメータを用いて、入力情報および中間情報の組に応じた出力情報を生成する(ステップS209)。第3生成部16は、例えば、入力情報(x、x)と、中間情報x’と、学習時に得られたW、W、W、とに基づいて出力情報yを生成する。 The third generation unit 16 determines whether the missing information is a sentence (step S208). If the sentence is missing, intermediate information is generated in the process of step S205. Therefore, in the case of YES in step S208, the third generation unit 16 generates output information corresponding to the set of input information and intermediate information using the first parameter (step S209). For example, the third generation unit 16 generates the output information y based on the input information (x 1 , x 2 ), the intermediate information x 3 ′, and W h , W 1 , W 2 obtained at the time of learning. To do.

ステップS202、またはステップS208でNOの場合、第3生成部16は、第1のパラメータを用いて入力情報に応じた出力情報を生成する(ステップS210)。第3生成部16は、例えば、入力情報(x、x、x)と、学習時に得られたW、W、W、Wとに基づいて出力情報yを生成する。 In the case of NO in step S202 or step S208, the third generation unit 16 generates output information corresponding to the input information using the first parameter (step S210). For example, the third generation unit 16 generates output information y based on input information (x 1 , x 2 , x 3 ) and W h , W 1 , W 2 , W 3 obtained at the time of learning.

なお、生成装置1は、学習時に学習情報が欠損を含む場合、欠損を除く学習情報に対して、図11に示す処理を実行し、パラメータを生成する。これにより、生成装置1は、欠損がノイズとなり、学習精度が低下することを防ぐことができる。また、生成装置1は、学習情報の欠損について、図12のステップS203〜S207と同様の処理を実行し、入力情報または中間情報を生成する。これにより、生成装置1は、学習情報の欠損を補うことができるので、学習情報の量を増やし、出力情報の精度を向上させることができる。   In addition, when learning information contains a defect at the time of learning, the production | generation apparatus 1 performs the process shown in FIG. 11 with respect to the learning information except a defect, and produces | generates a parameter. Thereby, the generation device 1 can prevent the loss from becoming noise and reducing the learning accuracy. Further, the generation device 1 performs the same processing as steps S203 to S207 in FIG. 12 for learning information loss, and generates input information or intermediate information. Thereby, since the production | generation apparatus 1 can compensate the defect | deletion of learning information, it can increase the quantity of learning information and can improve the precision of output information.

以上のように本実施形態の生成装置1は、学習時に、単語から文章に応じた中間情報を生成するためのパラメータを生成する。そして、生成装置1は、運用時に、文章が入力されない(欠損している)場合に、生成したパラメータを用いて中間情報を生成し、その中間情報を用いて出力情報を生成する。そのため、生成装置1は、文章のように予測が困難な情報が欠損していたとしても、中間情報を用いて出力情報を生成することができる。   As described above, the generation apparatus 1 of the present embodiment generates parameters for generating intermediate information corresponding to sentences from words during learning. And the production | generation apparatus 1 produces | generates intermediate information using the produced | generated parameter, and produces | generates output information using the intermediate information, when a sentence is not input at the time of an operation | movement (it is missing). Therefore, the generation device 1 can generate output information using intermediate information even if information that is difficult to predict, such as a sentence, is missing.

また、中間情報は、入力情報より次元が少ない情報であるため、生成装置1は、他の情報を用いて容易に中間情報を予測することできる。   Further, since the intermediate information is information having a smaller dimension than the input information, the generation device 1 can easily predict the intermediate information using other information.

<実施例>
図13は、入力情報を示す行列式の例を示す図である。図13に示す入力情報は、図2に示す入力情報に対応している。図13(a)は、”action”を示す入力情報xを示す行列式である。図13(a)の行数は、映画ジャンルの数に対応している。また、2行目が”action”を示すとする。よって、入力情報xが”action”である場合、行列式の2行目の値が1となる。
<Example>
FIG. 13 is a diagram illustrating an example of a determinant indicating input information. The input information shown in FIG. 13 corresponds to the input information shown in FIG. Figure 13 (a) is a determinant indicating the input information x 1 showing the "action". The number of rows in FIG. 13A corresponds to the number of movie genres. The second line indicates “action”. Therefore, when the input information x 1 is “action”, the value in the second row of the determinant is 1.

図13(b)は、”Disney”を示す入力情報xを示す行列式である。図13(b)の行数は、製作会社の数に対応している。また、1行目が”Disney”を示すとする。よって、入力情報xが”Disney”である場合、行列式の1行目の値が1となる。 Figure 13 (b) is a matrix equation representing the input information x 2 indicating the "Disney". The number of rows in FIG. 13B corresponds to the number of production companies. Also, assume that the first line indicates “Disney”. Therefore, when the input information x 2 is "Disney", the value of the first row of the determinant is 1.

図13(c)は、”ダイナミックな映画”を示す入力情報xを示す行列式である。図13(c)の行数は、登録単語数に対応し、列数(次元数)は、入力情報内の単語数に対応している。また、2行目が”ダイナミック”を示し、4行目が”な”を示し、5行目が”映画”を示す。 FIG. 13C is a determinant indicating the input information x 3 indicating “dynamic movie”. The number of rows in FIG. 13C corresponds to the number of registered words, and the number of columns (number of dimensions) corresponds to the number of words in the input information. The second line indicates “dynamic”, the fourth line indicates “na”, and the fifth line indicates “movie”.

なお、実際の運用において登録単語数は、例えば、約10万語であり、入力情報内の単語数は約10語であるとする。その場合、パターン数は、10万×10=100万パターンとなる。このパターン数は、入力情報が単語である場合のパターン数と比べると大きく異なるため、単語から文章を直接予測することは困難である。   In actual operation, the number of registered words is, for example, about 100,000 words, and the number of words in the input information is about 10. In that case, the number of patterns is 100,000 × 10 = 1 million patterns. Since the number of patterns is greatly different from the number of patterns when the input information is a word, it is difficult to predict a sentence directly from the word.

しかし、中間情報x’は、図5に示すように1次元の情報である。すなわち、入力情報から中間情報x’に変換すると含まれる単語の順序は失われるが、単語の意味は失われない。 However, the intermediate information x 3 ′ is one-dimensional information as shown in FIG. That is, when the input information is converted to the intermediate information x 3 ′, the order of the included words is lost, but the meaning of the words is not lost.

(1)学習時における第1のパラメータ生成処理の例
以下、学習時における第1生成部12によるパラメータ生成の例について説明する。図14は、実施例における各情報およびパラメータを示す図である。hは、中間情報x’、x’、x’の組を示す。h以外の各情報、パラメータは図3に示す例と同様である。
(1) Example of First Parameter Generation Processing During Learning Hereinafter, an example of parameter generation by the first generation unit 12 during learning will be described. FIG. 14 is a diagram illustrating information and parameters in the embodiment. h represents a set of intermediate information x 1 ′, x 2 ′, x 3 ′. Each information and parameter other than h is the same as the example shown in FIG.

中間情報x’、x’、x’は、下記の式(1)〜(3)のように表される。 The intermediate information x 1 ′, x 2 ′, x 3 ′ is expressed as the following formulas (1) to (3).

Figure 2019200554
Figure 2019200554

Figure 2019200554
Figure 2019200554

Figure 2019200554
Figure 2019200554

また、中間情報x’、x’、x’の組を示すhは、下記の式(4)のように表される。 Further, h indicating a set of the intermediate information x 1 ′, x 2 ′, and x 3 ′ is expressed as the following formula (4).

Figure 2019200554
Figure 2019200554

また、出力情報yの予測値であるpred_yは、下記の式(5)のように表される。   Also, pred_y, which is the predicted value of the output information y, is expressed as in the following equation (5).

Figure 2019200554
Figure 2019200554

なお、式(5)のsoftmax関数は、以下のように定義される。
softmax(x)=exp(x)/sum(exp(x))
Note that the softmax function of Equation (5) is defined as follows.
softmax (x) = exp (x) / sum (exp (x))

第1生成部12は、pred_yとyとが近づくように、各パラメータ(w〜w、w)を調整する。第1生成部12は、例えば、バックプロパゲーションを用いて学習する。pred_yとyとの差(loss)としては、SoftMaxCrossEntropy、またはMean Squared Error(MSE)等が用いられる。 The first generator 12, so as to approach and the pred_y and y, adjusting each parameter (w 1 ~w 3, w h ). The 1st production | generation part 12 learns using back propagation, for example. As the difference (loss) between pred_y and y, SoftMaxCrossEntropy, Mean Squared Error (MSE), or the like is used.

運用時において、第3生成部16は、第1生成部12が生成した各パラメータ(w〜w、w)を用いてpred_yを算出し、算出されたpred_yから予測した値を出力情報yとして出力する。例えば、式(5)のpred_yでは、1行目の0.9が最も大きく、1行目が”very good”を示す場合、第3生成部16は、yが”very good”であると予測する。 During operation, the third generation unit 16 calculates pred_y using each parameter (w 1 to w 3 , w h ) generated by the first generation unit 12 and outputs a value predicted from the calculated pred_y as output information. Output as y. For example, in pred_y of Expression (5), when 0.9 in the first line is the largest and the first line indicates “very good”, the third generation unit 16 predicts that y is “very good”. To do.

(2)学習時における第2のパラメータ生成処理の例
次に、学習時において、第2生成部13が中間情報x’を生成するためのパラメータを生成する方法の例を示す。以下の説明は、図6に示す処理の実施例に相当する。xに基づく中間情報x’の予測値であるpred1_x’は、下記の式(6)のように表される。
(2) Example of Second Parameter Generation Processing During Learning Next, an example of a method in which the second generation unit 13 generates a parameter for generating the intermediate information x 3 ′ during learning will be described. The following description corresponds to the embodiment of the process shown in FIG. pred1_x 3 ′, which is a predicted value of the intermediate information x 3 ′ based on x 1 , is expressed as the following Expression (6).

Figure 2019200554
Figure 2019200554

また、pred1_x’とx’との差は、MSEを用いた場合、下記の式(7)のように表される。 Further, the difference between pred1_x 3 ′ and x 3 ′ is expressed as in the following formula (7) when MSE is used.

Figure 2019200554
Figure 2019200554

第2生成部13は、式(7)に示すlossが最も小さくなるようにパラメータw’31を生成する。同様に、第2生成部13は、xから中間情報x’を生成するためのパラメータw’32を生成する。 The second generation unit 13 generates the parameter w ′ 31 so that the loss shown in Expression (7) is minimized. Similarly, the second generation unit 13 generates a parameter w ′ 32 for generating intermediate information x 3 ′ from x 2 .

(3)運用時に文章(x)が欠損していた場合の出力情報生成処理の例
次に運用時において、文章(x)が欠損していた場合の出力情報生成処理を説明する。第3生成部16は、入力情報xと学習時に生成されたwとに基づいて、下記の式(8)のように中間情報x’を生成する。
(3) in the example then during operation of the output information generation process when the sentence (x 3) were missing at the time of operation, illustrating the output information generation process when the sentence (x 3) was missing. The third generation unit 16 generates intermediate information x 1 ′ based on the input information x 1 and w 1 generated at the time of learning as shown in the following formula (8).

Figure 2019200554
Figure 2019200554

また、第3生成部16は、入力情報xと学習時に生成されたwとに基づいて、下記の式(9)のように中間情報x’を生成する。 The third generator 16, based on the input information x 2 and w 2 that is generated at the time of learning, to generate intermediate information x 2 'as in the following formula (9).

Figure 2019200554
Figure 2019200554

そして、変換部15は、学習時に第2生成部13が生成したw’31に基づいて、下記の式(10)のように、入力情報xをx’_1に変換する。 Then, the conversion unit 15 'based on the 31, as in the following equation (10), the input information x 1 x 3' w the second generator 13 has generated at the time of learning to convert _1.

Figure 2019200554
Figure 2019200554

そして、変換部15は、学習時に第2生成部13が生成したw’32に基づいて、下記の式の式(11)のように、入力情報xをx’_2に変換する。 Then, the conversion unit 15 'based on the 32, as shown in equation (11) in the following equation, the input information x 2 x 3' w the second generator 13 has generated at the time of learning to convert _2.

Figure 2019200554
Figure 2019200554

そして、変換部15は、下記の式(12)のように、xから生成したx’_1とxから生成したx’_2との平均値を、x’とする。 Then, the conversion unit 15, as in the following equation (12), the average value of the _2 'x 3 is generated from _1 and x 2' of x 3 generated from x 1, and x 3 '.

Figure 2019200554
Figure 2019200554

中間情報の組hは、上記の式(10)〜(12)のように生成されたx’、x’、x’を用いると、下記の式(13)のように表される。 The set h of intermediate information is represented by the following equation (13) when x 1 ′, x 2 ′, and x 3 ′ generated as in the above equations (10) to (12) are used. .

Figure 2019200554
Figure 2019200554

第3生成部16は、学習時に生成されたWと上記のように算出されたhとに基づいて下記の式(14)のように出力情報yを生成する。この出力情報yは、第2の情報の一例である。 The third generation unit 16 generates output information y based on W h generated at the time of learning and h calculated as described above, as in Expression (14) below. This output information y is an example of second information.

Figure 2019200554
Figure 2019200554

(4)運用時に単語(x)が欠損していた場合の出力情報生成処理の例
次に運用時において、単語(x)が欠損していた場合の出力情報生成処理を説明する。変換部15は、学習時に生成されたw21に基づいて、下記の式(15)のように入力情報xを入力情報xの予測値であるpred1_xに変換する。
(4) at the time of output information generating process instances then operation when a word (x 2) were missing at the time of operation, illustrating the output information generation process in the case where the word (x 2) was missing. Converting unit 15, based on the w 21 generated at the time of learning, into a Pred1_x 2 is the predicted value of the input information x 2 input information x 1 as the following equation (15).

Figure 2019200554
Figure 2019200554

Figure 2019200554
Figure 2019200554

また、変換部15は、学習時に生成されたw23に基づいて、下記の式(16)のように入力情報xを入力情報xの予測値であるpred3_xに変換する。 The conversion unit 15, based on the w 23 generated at the time of learning, into a Pred3_x 2 is the predicted value of the input information x 2 input information x 3 as in the following formula (16).

式(16)におけるW23sum(x)は、下記の式(17)のように計算される。 W 23 sum (x 3 ) in equation (16) is calculated as in equation (17) below.

Figure 2019200554
Figure 2019200554

変換部15は、上記のように生成されたpred1_x、およびpred3_xの平均値を計算することにより、下記の式(18)のようにxを生成する。 Converting unit 15, by calculating the Pred1_x 2, and pred3_x average value of 2 is generated as described above, to generate a x 2 as in the following formula (18).

Figure 2019200554
Figure 2019200554

上記xのうち、3行目の0.42が最も大きい値であるため、変換部15は、0.42を1に変換し、他の数字を0に変換する。変換部15は、下記の式(19)のようなxを得る。 Of the above x 2, for 0.42 in the third row it is the largest value, the converting unit 15 converts 0.42 to 1, to convert the other numbers 0. Conversion unit 15 obtains the x 2 as the following equation (19).

Figure 2019200554
Figure 2019200554

第3生成部16は、上記の計算で得られたxを含む入力情報(x、x、x)と、学習時に得られたW、W、W、Wとに基づいて出力情報yを生成する。 The third generation unit 16 uses the input information (x 1 , x 2 , x 3 ) including x 2 obtained by the above calculation and the W h , W 1 , W 2 , W 3 obtained at the time of learning. Based on this, output information y is generated.

図15は、欠損および外れ値を含む情報の例を示す図である。図15(a)は、欠損を含む入力情報の例である。図15(a)のxは、全ての要素が0であるため、判定部14は、欠損があると判定する。 FIG. 15 is a diagram illustrating an example of information including missing and outliers. FIG. 15A shows an example of input information including a defect. Figure 15 x 1 in (a) determines that since all elements are 0, the determination unit 14 is defective.

図15(b)は、外れ値を含む入力情報の例である。図15(b)のxおよびxの組は、学習時の入力情報に存在しなかった組み合わせであるとする。判定部14は、このような入力情報に含まれる値を、外れ値であるとみなしてもよい。 FIG. 15B is an example of input information including outliers. The set of x 1 and x 2 in FIG. 15 (b), and a combination that did not exist in the input information at the time of learning. The determination unit 14 may regard a value included in such input information as an outlier.

図15(c)は、外れ値を含む入力情報の例である。図15(c)のxは、学習時の入力情報に存在しなかった情報であるとする。判定部14は、このような入力情報に含まれる値を、外れ値であるとみなしてもよい。 FIG. 15C is an example of input information including an outlier. Figure 15 x 3 in (c) is assumed to be information that did not exist in the input information at the time of learning. The determination unit 14 may regard a value included in such input information as an outlier.

次に、生成装置1のハードウェア構成の一例を説明する。図16は、生成装置1のハードウェア構成の一例を示す図である。図16の例に示すように、生成装置1において、バス100に、プロセッサ111とメモリ112と補助記憶装置113と通信インタフェース114と媒体接続部115と入力装置116と出力装置117とが接続される。   Next, an example of the hardware configuration of the generation apparatus 1 will be described. FIG. 16 is a diagram illustrating an example of a hardware configuration of the generation apparatus 1. As shown in the example of FIG. 16, in the generation device 1, a processor 111, a memory 112, an auxiliary storage device 113, a communication interface 114, a medium connection unit 115, an input device 116, and an output device 117 are connected to the bus 100. .

プロセッサ111は、メモリ112に展開されたプログラムを実行する。実行されるプログラムには、実施形態における処理を行う生成プログラムが適用されてもよい。   The processor 111 executes the program expanded in the memory 112. A generation program that performs the processing in the embodiment may be applied to the program to be executed.

メモリ112は、例えば、Random Access Memory(RAM)である。補助記憶装置113は、種々の情報を記憶する記憶装置であり、例えばハードディスクドライブや半導体メモリ等が適用されてもよい。補助記憶装置113に実施形態の処理を行う生成プログラムが記憶されていてもよい。   The memory 112 is, for example, a random access memory (RAM). The auxiliary storage device 113 is a storage device that stores various information, and for example, a hard disk drive, a semiconductor memory, or the like may be applied. The auxiliary storage device 113 may store a generation program that performs the processing of the embodiment.

通信インタフェース114は、Local Area Network(LAN)、Wide Area Network(WAN)等の通信ネットワークに接続され、通信に伴うデータ変換等を行う。   The communication interface 114 is connected to a communication network such as a local area network (LAN) or a wide area network (WAN), and performs data conversion associated with communication.

媒体接続部115は、可搬型記録媒体118が接続可能なインタフェースである。可搬型記録媒体118には、光学式ディスク(例えば、Compact Disc(CD)やDigital Versatile Disc(DVD))、半導体メモリ等が適用されてもよい。可搬型記録媒体118に実施形態の処理を行う生成プログラムが記録されていてもよい。   The medium connection unit 115 is an interface to which a portable recording medium 118 can be connected. As the portable recording medium 118, an optical disc (for example, Compact Disc (CD) or Digital Versatile Disc (DVD)), a semiconductor memory, or the like may be applied. A generation program for performing the processing of the embodiment may be recorded on the portable recording medium 118.

入力装置116は、例えば、キーボード、ポインティングデバイス等であり、ユーザからの指示及び情報等の入力を受け付ける。   The input device 116 is, for example, a keyboard, a pointing device, and the like, and receives input from the user such as instructions and information.

出力装置117は、例えば、表示装置、プリンタ、スピーカ等であり、ユーザへの問い合わせ又は指示、及び処理結果等を出力する。生成装置1は、出力装置117を用いて、生成したパラメータ、および出力情報等を出力(表示または印刷等)してもよい。   The output device 117 is, for example, a display device, a printer, a speaker, or the like, and outputs an inquiry or instruction to the user, a processing result, and the like. The generation apparatus 1 may output (display or print) the generated parameters, output information, and the like using the output apparatus 117.

図1に示す記憶部17は、メモリ112、補助記憶装置113または可搬型記録媒体118等により実現されてもよい。図1に示す取得部11、第1生成部12、第2生成部13、判定部14、変換部15、および第3生成部16は、メモリ112に展開された生成プログラムをプロセッサ111が実行することにより実現されてもよい。   The storage unit 17 illustrated in FIG. 1 may be realized by the memory 112, the auxiliary storage device 113, the portable recording medium 118, or the like. In the acquisition unit 11, the first generation unit 12, the second generation unit 13, the determination unit 14, the conversion unit 15, and the third generation unit 16 illustrated in FIG. 1, the processor 111 executes the generation program expanded in the memory 112. May be realized.

メモリ112、補助記憶装置113および可搬型記録媒体118は、コンピュータが読み取り可能であって非一時的な有形の記憶媒体であり、信号搬送波のような一時的な媒体ではない。   The memory 112, the auxiliary storage device 113, and the portable recording medium 118 are computer-readable, non-temporary tangible storage media, and are not temporary media such as signal carriers.

<その他>
本実施形態は、以上に述べた実施の形態に限定されるものではなく、本実施形態の要旨を逸脱しない範囲内で様々な変更、追加、省略が適用可能である。
<Others>
The present embodiment is not limited to the embodiment described above, and various modifications, additions, and omissions can be applied without departing from the gist of the present embodiment.

1 生成装置
11 取得部
12 第1生成部
13 第2生成部
14 判定部
15 変換部
16 第3生成部
17 記憶部
100 バス
111 プロセッサ
112 メモリ
113 補助記憶装置
114 通信インタフェース
115 媒体接続部
116 入力装置
117 出力装置
118 可搬型記録媒体
DESCRIPTION OF SYMBOLS 1 Generation apparatus 11 Acquisition part 12 1st generation part 13 2nd generation part 14 Judgment part 15 Conversion part 16 3rd generation part 17 Memory | storage part 100 Bus 111 Processor 112 Memory 113 Auxiliary storage device 114 Communication interface 115 Medium connection part 116 Input device 117 output device 118 portable recording medium

Claims (5)

コンピュータが、
第1の入力項目に対応付けて入力された第1の単語と、第2の入力項目に対応付けて入力された第1の文章と、前記第1の単語及び前記第1の文章の組みに応じた第1の情報と、を含む学習情報を取得し、
前記学習情報に基づき、前記第1の単語、及び前記第1の文章に応じた前記第1の文章とは異なる形式の第1の中間情報の組みを、前記第1の情報に応じた情報に変換する第1の変換パラメータと、前記第1の単語を、前記第1の中間情報に変換する第2の変換パラメータとを生成し、
前記第2の入力項目に対応付けられた文章の入力を受け付けずに、前記第1の入力項目に対応付けられた第2の単語の入力を受け付けると、前記第2の変換パラメータにより前記第2の単語を変換して、前記形式の第2の中間情報を生成するとともに、前記第1の変換パラメータにより前記第2の単語及び前記第2の中間情報の組みを変換して、第2の情報を生成する、
処理を実行することを特徴とする生成方法。
Computer
A set of a first word input in association with the first input item, a first sentence input in association with the second input item, and the first word and the first sentence. And learning information including the first information in response,
Based on the learning information, a set of first intermediate information in a format different from the first sentence according to the first word and the first sentence is used as information according to the first information. Generating a first conversion parameter for conversion and a second conversion parameter for converting the first word into the first intermediate information;
If an input of a second word associated with the first input item is received without receiving an input of a sentence associated with the second input item, the second conversion parameter causes the second To generate second intermediate information of the format, and to convert a set of the second word and the second intermediate information according to the first conversion parameter, thereby generating second information Generate
A generation method characterized by executing processing.
前記第1の中間情報は、前記第1の文章の意味を示す、前記第1の文章とは異なる形式の情報である
ことを特徴とする請求項1記載の生成方法。
The generation method according to claim 1, wherein the first intermediate information is information having a format different from that of the first sentence, which indicates a meaning of the first sentence.
前記第1の中間情報を示す行列の次元数は、前記第1の文章を示す行列の次元数より少ない
ことを特徴とする請求項1または2記載の生成方法。
3. The generation method according to claim 1, wherein the number of dimensions of the matrix indicating the first intermediate information is smaller than the number of dimensions of the matrix indicating the first sentence.
第1の入力項目に対応付けて入力された第1の単語と、第2の入力項目に対応付けて入力された第1の文章と、前記第1の単語及び前記第1の文章の組みに応じた第1の情報と、を含む学習情報を取得し、
前記学習情報に基づき、前記第1の単語、及び前記第1の文章に応じた前記第1の文章とは異なる形式の第1の中間情報の組みを、前記第1の情報に応じた情報に変換する第1の変換パラメータと、前記第1の単語を、前記第1の中間情報に変換する第2の変換パラメータとを生成し、
前記第2の入力項目に対応付けられた文章の入力を受け付けずに、前記第1の入力項目に対応付けられた第2の単語の入力を受け付けると、前記第2の変換パラメータにより前記第2の単語を変換して、前記形式の第2の中間情報を生成するとともに、前記第1の変換パラメータにより前記第2の単語及び前記第2の中間情報の組みを変換して、第2の情報を生成する、
処理をコンピュータに実行させるための生成プログラム。
A set of a first word input in association with the first input item, a first sentence input in association with the second input item, and the first word and the first sentence. And learning information including the first information in response,
Based on the learning information, a set of first intermediate information in a format different from the first sentence according to the first word and the first sentence is used as information according to the first information. Generating a first conversion parameter for conversion and a second conversion parameter for converting the first word into the first intermediate information;
If an input of a second word associated with the first input item is received without receiving an input of a sentence associated with the second input item, the second conversion parameter causes the second To generate second intermediate information of the format, and to convert a set of the second word and the second intermediate information according to the first conversion parameter, thereby generating second information Generate
A generation program that causes a computer to execute processing.
第1の入力項目に対応付けて入力された第1の単語と、第2の入力項目に対応付けて入力された第1の文章と、前記第1の単語及び前記第1の文章の組みに応じた第1の情報と、を含む学習情報を取得する取得部と、
前記学習情報に基づき、前記第1の単語、及び前記第1の文章に応じた前記第1の文章とは異なる形式の第1の中間情報の組みを、前記第1の情報に応じた情報に変換する第1の変換パラメータと、前記第1の単語を、前記第1の中間情報に変換する第2の変換パラメータとを生成するパラメータ生成部と、
前記第2の入力項目に対応付けられた文章の入力を受け付けずに、前記第1の入力項目に対応付けられた第2の単語の入力を受け付けると、前記第2の変換パラメータにより前記第2の単語を変換して、前記形式の第2の中間情報を生成するとともに、前記第1の変換パラメータにより前記第2の単語及び前記第2の中間情報の組みを変換して、第2の情報を生成する情報生成部と、
を備えることを特徴とする生成装置。
A set of a first word input in association with the first input item, a first sentence input in association with the second input item, and the first word and the first sentence. An acquisition unit for acquiring learning information including the first information in response,
Based on the learning information, a set of first intermediate information in a format different from the first sentence according to the first word and the first sentence is used as information according to the first information. A parameter generation unit for generating a first conversion parameter to be converted and a second conversion parameter for converting the first word into the first intermediate information;
If an input of a second word associated with the first input item is received without receiving an input of a sentence associated with the second input item, the second conversion parameter causes the second To generate second intermediate information of the format, and to convert a set of the second word and the second intermediate information according to the first conversion parameter to obtain second information An information generation unit for generating
A generating apparatus comprising:
JP2018094189A 2018-05-16 2018-05-16 Generation method, generation program and generation device Active JP7133351B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018094189A JP7133351B2 (en) 2018-05-16 2018-05-16 Generation method, generation program and generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018094189A JP7133351B2 (en) 2018-05-16 2018-05-16 Generation method, generation program and generation device

Publications (2)

Publication Number Publication Date
JP2019200554A true JP2019200554A (en) 2019-11-21
JP7133351B2 JP7133351B2 (en) 2022-09-08

Family

ID=68613148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018094189A Active JP7133351B2 (en) 2018-05-16 2018-05-16 Generation method, generation program and generation device

Country Status (1)

Country Link
JP (1) JP7133351B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014199920A1 (en) * 2013-06-12 2014-12-18 日本電気株式会社 Prediction function creation device, prediction function creation method, and computer-readable storage medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014199920A1 (en) * 2013-06-12 2014-12-18 日本電気株式会社 Prediction function creation device, prediction function creation method, and computer-readable storage medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
田中 恒平、小林 亜樹: "深層学習を用いた情報推薦のための欠損値補完手法", 第8回データ工学と情報マネジメントに関するフォーラム (第14回日本データベース学会年次大会) [O, JPN6022008798, 2 March 2016 (2016-03-02), JP, pages 1 - 6, ISSN: 0004721038 *

Also Published As

Publication number Publication date
JP7133351B2 (en) 2022-09-08

Similar Documents

Publication Publication Date Title
CN114285728A (en) Prediction model training method, flow prediction method, device and storage medium
JPWO2015151162A1 (en) Similarity calculation system, similarity calculation method, and program
CN114742230A (en) Information processing system, information processing method, and information processing device
JP2013025805A (en) Method and device for extracting analogous sub-time series
CN108604312A (en) Information processing unit, the information processing method of time series data and program
JP2022167093A (en) Information processing device, information processing method and program
CN111373391B (en) Language processing device, language processing system and language processing method
JP2015043146A (en) Prediction device, method, and program
CN111079944A (en) Transfer learning model interpretation implementation method and device, electronic device, storage medium
US20190354533A1 (en) Information processing device, information processing method, and non-transitory computer-readable recording medium
JP2010204784A (en) Disturbance control apparatus, disturbance control method, disturbance control program and recording medium
US20150046377A1 (en) Joint Sound Model Generation Techniques
JP5623369B2 (en) Text summarization apparatus, method and program
JP7133351B2 (en) Generation method, generation program and generation device
JP5432935B2 (en) Predictor selection device, predictor selection method, predictor selection program
JP6518142B2 (en) Language model generation device and program thereof
JP2019021218A (en) Learning device, program parameter, learning method and model
JP3987059B2 (en) Optimal value search support device, optimal value search support method, and recording medium
WO2021111596A1 (en) Information learning system, information learning method, information learning program, and information learning device
JP4398919B2 (en) Image matching apparatus, image matching method, and image matching program
JP2018156619A (en) Global search device and program for consecutive optimization problem
JP4310697B2 (en) Signal processing apparatus and method, recording medium, and program
JP6040138B2 (en) Document classification apparatus, document classification method, and document classification program
JP5244452B2 (en) Document feature expression calculation apparatus and program
JP6604069B2 (en) Semiconductor integrated circuit delay estimation method, program, and circuit design apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220405

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220829

R150 Certificate of patent or registration of utility model

Ref document number: 7133351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150