JP2019091260A - Apparatus, method and program for time-series analysis - Google Patents
Apparatus, method and program for time-series analysis Download PDFInfo
- Publication number
- JP2019091260A JP2019091260A JP2017219805A JP2017219805A JP2019091260A JP 2019091260 A JP2019091260 A JP 2019091260A JP 2017219805 A JP2017219805 A JP 2017219805A JP 2017219805 A JP2017219805 A JP 2017219805A JP 2019091260 A JP2019091260 A JP 2019091260A
- Authority
- JP
- Japan
- Prior art keywords
- time
- user
- feature
- learning
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012731 temporal analysis Methods 0.000 title claims abstract description 79
- 238000000700 time series analysis Methods 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title claims description 62
- 238000004458 analytical method Methods 0.000 claims abstract description 95
- 230000009471 action Effects 0.000 claims abstract description 23
- 238000006243 chemical reaction Methods 0.000 claims description 39
- 230000003993 interaction Effects 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 3
- 238000011002 quantification Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 31
- 238000003860 storage Methods 0.000 description 29
- 230000006399 behavior Effects 0.000 description 25
- 238000012545 processing Methods 0.000 description 23
- 238000003384 imaging method Methods 0.000 description 21
- 238000009826 distribution Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000001755 vocal effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001055 chewing effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Complex Calculations (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、人の時系列の行動を分析する時系列分析装置、時系列分析方法及び時系列分析プログラムに関する。 The present invention relates to a time-series analysis device, a time-series analysis method, and a time-series analysis program for analyzing human time-series behavior.
近年、人の行動を分析することによって、行動の結果の予測を行う研究が行われている。非特許文献1には、店員と顧客との間のコミュニケーションにおいて、顧客の視線、姿勢等の複数の非言語行動を組み合わせた指標を分析することによって、顧客の心的状態を推定する技術が記載されている。
In recent years, research has been conducted to predict the outcome of behavior by analyzing human behavior. Non-Patent
しかしながら、非特許文献1に記載の技術は、顧客である人の行動のみに着目しており、店員である人の行動を考慮していない。また、非特許文献1は、人の手によって分析を行う方法を示しており、装置によって自動的に分析を行う方法を示していない。
However, the technology described in Non-Patent
本発明は上述の点に鑑みてなされたものであり、複数の人の行動の時系列データを用いて、データの特徴に合わせて自動的に分析を行うことができる時系列分析装置、時系列分析方法及び時系列分析プログラムを提供することを目的とする。 The present invention has been made in view of the above-mentioned point, and a time-series analyzer capable of automatically analyzing according to the characteristics of data using time-series data of a plurality of human actions, a time-series analyzer An object of the present invention is to provide an analysis method and a time series analysis program.
本発明の第1の態様の時系列分析装置は、第1ユーザの特徴及び第2ユーザの特徴の時系列情報を取得する取得部と、前記取得部が取得した前記時系列情報において、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生した際の継続時間に基づいて、学習対象の特徴を選択する選択部と、前記選択部が選択した前記学習対象の特徴の時系列情報を用いて学習を行う学習部と、を有する。 In the time-series analysis apparatus according to the first aspect of the present invention, an acquisition unit for acquiring time-series information of a feature of a first user and a characteristic of a second user, and the time-series information acquired by the acquisition unit A selection unit for selecting a feature to be learned based on a duration when the feature of one user and the feature of the second user occur at the same time and different times; and the learning selected by the selection unit And a learning unit that performs learning using time-series information of the target feature.
前記時系列分析装置は、前記学習部が前記学習によって生成したモデルに、前記取得部が取得した前記時系列情報を入力することによって、前記取得部が取得した前記時系列情報による結果を予測する分析部をさらに有してもよい。 The time series analysis device predicts a result based on the time series information acquired by the acquisition unit by inputting the time series information acquired by the acquisition unit to a model generated by the learning unit by the learning. You may further have an analysis part.
前記選択部は、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生している時間範囲の平均値を、前記継続時間として算出してもよい。 The selection unit may calculate, as the duration, an average value of a time range in which the feature of the first user and the feature of the second user occur at the same time and different times.
前記選択部は、クロスリカレンス定量分析(Cross-Recurrence Quantification Analysis)によって、前記継続時間を算出してもよい。 The selection unit may calculate the duration by Cross-Recurrence Quantification Analysis.
前記選択部は、前記継続時間が所定の閾値以上である前記第1ユーザの前記特徴と前記第2ユーザの前記特徴との組み合わせの数に基づいて、前記学習対象の特徴を選択してもよい。 The selection unit may select the feature of the learning target based on the number of combinations of the feature of the first user and the feature of the second user whose duration is equal to or greater than a predetermined threshold. .
前記取得部は、前記第1ユーザ及び前記第2ユーザの身体部位を、前記第1ユーザ及び前記第2ユーザの前記特徴として取得してもよい。 The acquisition unit may acquire body parts of the first user and the second user as the features of the first user and the second user.
前記時系列分析装置は、前記第1ユーザの前記身体部位の位置を前記第1ユーザの身体の中心を基準とした座標に変換し、前記第2ユーザの前記身体部位の位置を前記第2ユーザの身体の中心を基準とした座標に変換する変換部をさらに有してもよい。 The time series analysis apparatus converts the position of the body part of the first user into coordinates based on the center of the body of the first user, and the position of the body part of the second user is the second user The image processing apparatus may further include a conversion unit that converts coordinates of the body center of the image.
前記学習部は、前記第1ユーザと前記第2ユーザとの間のインタラクションの結果が肯定的であるか否かの学習を行ってもよい。 The learning unit may perform learning as to whether the result of the interaction between the first user and the second user is positive.
前記学習部は、前記第1ユーザの行動パターンと前記第2ユーザの行動パターンとが同一であるか否かの学習を行ってもよい。 The learning unit may perform learning as to whether or not the action pattern of the first user and the action pattern of the second user are the same.
前記学習部は、所定の長さの時間窓内の前記学習対象の特徴の時系列情報を用いた学習を、前記時間窓をずらしながら繰り返し行ってもよい。 The learning unit may repeat learning using time-series information of the feature to be learned within a time window of a predetermined length while shifting the time window.
前記取得部は、前記第1ユーザ及び前記第2ユーザの発した言語を、前記第1ユーザ及び前記第2ユーザの前記特徴として取得してもよい。 The acquisition unit may acquire the language spoken by the first user and the second user as the feature of the first user and the second user.
前記取得部は、前記第1ユーザ及び前記第2ユーザの発した言語から単語を抽出し、抽出した前記単語をクラスタリングすることによって生成したクラスタを、前記第1ユーザ及び前記第2ユーザの前記特徴として取得してもよい。 The acquisition unit extracts a word from a language spoken by the first user and the second user, and clusters the generated word by clustering the features of the first user and the second user. It may be acquired as
本発明の第2の態様の時系列分析方法は、コンピュータが実行する、第1ユーザの特徴及び第2ユーザの特徴の時系列情報を取得するステップと、前記取得するステップで取得された前記時系列情報において、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生した際の継続時間に基づいて、学習対象の特徴を選択するステップと、前記選択するステップで選択された前記学習対象の特徴の時系列情報を用いて学習を行うステップと、を有する。 In the time-series analysis method of the second aspect of the present invention, the computer executes the steps of acquiring time-series information of the features of the first user and the features of the second user, and the time acquired in the acquiring step Selecting, on the basis of sequence information, a feature to be learned on the basis of a duration when the feature of the first user and the feature of the second user occur at the same time and at different times; Performing learning using time-series information of the feature to be learned selected in the step.
本発明の第3の態様の時系列分析プログラムは、プロセッサを、第1ユーザの特徴及び第2ユーザの特徴の時系列情報を取得する取得部、前記取得部が取得した前記時系列情報において、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生した際の継続時間に基づいて、学習対象の特徴を選択する選択部、及び前記選択部が選択した前記学習対象の特徴の時系列情報を用いて学習を行う学習部、として機能させる。 The time-series analysis program according to the third aspect of the present invention is an acquisition unit that acquires time-series information of a feature of a first user and a feature of a second user in a processor, and the time-series information acquired by the acquisition unit A selecting unit that selects a feature to be learned based on a duration when the feature of the first user and the feature of the second user occur at the same time and different times; and the selecting unit selects It functions as a learning unit that performs learning using time-series information of the feature to be learned.
本発明によれば、複数の人の行動の時系列データを用いて自動的に分析を行うことができる。 According to the present invention, analysis can be performed automatically using time series data of a plurality of people's actions.
(第1の実施形態)
図1は、本実施形態に係る時系列分析システムSの模式図である。時系列分析システムSは、時系列分析装置1と、表示部14と、撮像部15と、音声入力部16と、を含む。時系列分析システムSは、その他のサーバ、端末等の機器を含んでもよい。
First Embodiment
FIG. 1 is a schematic view of a time-series analysis system S according to the present embodiment. The time series analysis system S includes a time
表示部14は、液晶ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等、時系列分析装置1から受信した情報を表示可能な表示装置である。表示部14は、時系列分析装置1による分析の結果等を表示する。
The
撮像部15は、ユーザを撮像して画像を取得する撮像装置である。撮像部15は、CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子を含む。撮像部15は、時系列で取得した画像を示す情報を時系列分析装置1に送信する。時系列で取得した画像は、動画であってもよく、又は所定の時間間隔で撮像された一群の静止画であってもよい。撮像部15は、分析対象の1人又は複数人のユーザの全身あるいは体の一部を撮像できる位置に設けられる。撮像部15は、複数設けられてもよい。
The
音声入力部16は、ユーザが発した音声を取得するマイクロフォンである。音声入力部16は、時系列で取得した音声を示す情報を時系列分析装置1に送信する。音声入力部16は、分析対象の1人又は複数人のユーザの音声を取得できる位置に設けられる。音声入力部16は、複数設けられてもよい。
The
時系列分析装置1は、単一のコンピュータ、又はコンピュータ資源の集合であるクラウドによって構成される装置である。時系列分析装置1は、撮像部15が取得した時系列の画像及び音声入力部16が取得した時系列の音声の少なくとも一方を用いて学習を行う。さらに時系列分析装置1は、撮像部15が取得した画像及び音声入力部16が取得した音声の少なくとも一方に、学習で得られたモデルを適用することによって、結果の予測等の分析を行う。
The time-
[動きの共起関係の説明]
図2は、ユーザ間の動きの共起関係の模式図である。図2は、販売者U1(第1ユーザ)と購買者U2(第2ユーザ)との間のインタラクション(相互作用)を例示している。販売者U1の目的は、購買者U2を説得して商品を購買してもらうことである。
[Description of co-occurrence relationship of movement]
FIG. 2 is a schematic view of a co-occurrence relation of movement between users. FIG. 2 illustrates the interaction between the seller U1 (first user) and the buyer U2 (second user). The purpose of the seller U1 is to persuade the buyer U2 to purchase a product.
販売者U1の話を聞いた購買者U2の反応は、興味を示すか示さないかで異なる。購買者U2は、販売者U1の説明に対して、興味がある場合には体の動きの反応が大きく、動く時間が長くなる傾向があり、興味がない場合には体の動きの反応が小さく、動く時間が短くなる傾向がある。商品の販売に限られず、打ち合わせや会話等のインタラクションにおいても、興味を示したか否かによって、反応の傾向が変化する。 The reaction of the buyer U2 who has heard the story of the seller U1 differs depending on whether or not it shows interest. The buyer U2 responds to the description of the seller U1 if he is interested, the reaction of the body movement tends to be long and the movement time tends to be long, and if he is not interested, the reaction of the body movement is small. The movement time tends to be short. The tendency of reaction changes depending on whether or not you show interest in interactions such as meetings and conversations as well as sales of products.
例えば図2に示すように、説明を行っている販売者U1の特定の身体部位が動いた後、購買者U2が説明に興味がある場合に購買者U2の特定の身体部位は動き、購買者U2が説明に興味がない場合に購買者U2の特定の身体部位は動かない。このような販売者U1の説明に対する購買者U2の反応は、購買者U2が思考を行ってから発生するため、販売者U1の説明から遅れ(すなわち時間遅延)が発生する。 For example, as shown in FIG. 2, after a particular body part of seller U1 giving an explanation moves, if a buyer U2 is interested in the explanation, a specific body part of buyer U2 will move, the buyer The particular body part of the buyer U2 does not move if U2 is not interested in the explanation. Since the reaction of the buyer U2 to the description of the seller U1 occurs after the buyer U2 thinks, a delay (that is, a time delay) occurs from the description of the seller U1.
2人のユーザの身体部位の組み合わせは大量に存在するが、興味を示したか否かによって反応の傾向が変化するのはそのうち一部の組み合わせである。本実施形態に係る時系列分析装置1は、2人のユーザの動きの時間遅延を考慮した共起関係に基づいて、結果の分析に重要な身体部位(特徴)を選択し、選択した身体部位を用いて学習及び分析を行う。
Although there are a large number of combinations of body parts of two users, it is a combination of some of them that changes the tendency of the reaction depending on whether or not they show interest. The time-
このように時系列分析装置1は、結果の分析に重要な身体部位(特徴)を選択的に学習及び分析に用いるため、学習及び分析の精度を高めることができ、また計算に掛かる時間を短縮できる。
As described above, since the time-
ここでは時系列分析装置1は、例としてユーザ間の商品の販売を分析したが、これに限られず、契約、合意、説得等、結果が肯定的か否かを判定可能な任意のユーザ間のインタラクションを分析することができる。
Here, although the time-
[時系列分析装置1の構成]
図3は、本実施形態に係る時系列分析装置1のブロック図である。図3において、矢印は主なデータの流れを示しており、図3に示したもの以外のデータの流れがあってよい。図3において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図3に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
[Configuration of Time Series Analyzer 1]
FIG. 3 is a block diagram of the time
時系列分析装置1は、制御部11と、インターフェース12と、記憶部13と、を有する。制御部11は、情報取得部111と、情報変換部112と、特徴選択部113と、学習部114と、分析部115と、を有する。
The
インターフェース12は、表示部14、撮像部15及び音声入力部16との間で信号の授受をするためのインターフェースである。インターフェース12は、表示部14、撮像部15及び音声入力部16から受信した信号に所定の処理を行ってデータを取得し、取得したデータを制御部11に入力する。また、インターフェース12は、制御部11から入力されたデータに所定の処理を行って信号を生成し、生成した信号を表示部14、撮像部15及び音声入力部16に送信する。
The
記憶部13は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部13は、制御部11が実行するプログラムを予め記憶している。
The
制御部11は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部13に記憶されたプログラムを実行することにより、情報取得部111、情報変換部112、特徴選択部113、学習部114及び分析部115として機能する。制御部11の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部11の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。
The control unit 11 is a processor such as a central processing unit (CPU), for example, and executes the program stored in the
本実施形態に係る時系列分析装置1は、図3に示す具体的な構成に限定されない。例えば時系列分析装置1は、1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。
The time-
情報取得部111は、撮像部15によって取得された時系列の画像情報を取得する。情報取得部111は、撮像部15から撮像された画像情報を都度取得してもよく、又は撮像部15から所定の時間範囲の画像情報をまとめて取得してもよい。また、情報取得部111は、記憶部13に記憶された画像情報を読み出して取得してもよい。学習及び分析に音声を用いる場合には、情報取得部111は、音声入力部16によって取得された時系列の音声情報を取得してもよい。
The
情報取得部111は、取得した時系列の画像情報に人体検出技術を適用することによって、各ユーザの各身体部位の時系列の位置を算出する。人体検出技術として、公知の技術を用いることができる。
The
図4は、本実施形態に係る情報取得部111が取得するユーザの身体部位Pの位置を示す模式図である。図4には、各身体部位Pの位置及び人体の中心Cの位置が表されている。情報変換部112は、身体部位Pとして人体の主要な関節を用いる。これに限らず、身体部位Pとして、人体を撮像した画像から検出可能な所定の部位を用いることができる。
FIG. 4 is a schematic view showing the position of the body part P of the user acquired by the
情報取得部111は、人体検出技術によってある時点における各身体部位Pの位置を算出する。情報取得部111は、算出した身体部位Pの位置から、人体の中心C(例えば重心)の位置を算出する。情報取得部111は、時系列の画像の各時点について算出した身体部位Pの位置及び中心Cの位置を、時系列の情報として記憶部13に記憶させる。
The
情報変換部112は、情報取得部111が算出した各身体部位Pの位置に対して、特徴空間変換を実行する。人体検出技術においては、データ取得の環境や取得設備の影響で、全ユーザで共通の空間、あるいは異なる空間における座標を身体部位Pの位置として算出する様々な場合がある。特徴空間変換とは、身体部位Pの位置を、共通の空間あるいは異なる空間における座標から、ユーザごとの空間における座標へ変換することをいう。これにより、ユーザ間の身体部位の動きの類似性を判別することができる。
The
具体的には、情報変換部112は、式(1)を用いて身体部位Pの3次元座標の特徴空間変換を行う。
Specifically, the
式(1)のx座標、y座標、z座標のそれぞれについて、付記されているNormは身体部位Pの変換後の座標を示し、付記されているθは身体部位Pの変換前の座標を示し、付記されているBodyCenterは中心Cの座標を示す。式(1)によって、身体部位Pの3次元座標は、各ユーザの中心Cを基準とした座標に変換される。以下では、各身体部位Pの位置として変換後の座標を用いて処理を行う。 For each of the x coordinate, y coordinate, and z coordinate in equation (1), the appended Norm indicates the transformed coordinates of the body part P, and the appended θ indicates the coordinates before conversion of the body part P. , BodyCenter attached indicates the coordinates of the center C. The three-dimensional coordinates of the body part P are converted into coordinates based on the center C of each user according to Equation (1). In the following, processing is performed using the coordinates after conversion as the position of each body part P.
特徴選択部113は、時間遅延を考慮した、ユーザ間の身体部位Pの動きの関係に基づいて、結果の分析に対して重要な身体部位P(特徴)を選択する。ユーザ間の身体部位Pの動きの関係を評価するために、まず特徴選択部113は、ユーザ間の身体部位Pの各組み合わせについて、CRQA(クロスリカレンス定量分析:Cross-Recurrence Quantification Analysis)の反復プロット(Recurrence Plot)を生成する。 The feature selection unit 113 selects a body part P (feature) that is important for the analysis of the result based on the movement relationship of the body part P between the users in consideration of the time delay. In order to evaluate the relationship of movement of body part P between users, first, feature selection unit 113 repeats CRQA (Cross Recurrence Quantification Analysis) for each combination of body parts P between users. Generate a plot (Recurrence Plot).
ここでは、身体部位Pのx座標、y座標及びz座標をそれぞれ独立した特徴として扱う。すなわち特徴選択部113は、販売者U1の右手のx座標と購買者U2の右手のx座標との組み合わせ、販売者U1の右手のx座標と購買者U2の右手のy座標との組み合わせ、販売者U1の右手のx座標と購買者U2の右手のz座標との組み合わせ、販売者U1の右手のx座標と購買者U2の右肘のx座標との組み合わせなどのように、各身体部位Pの各座標の全ての組み合わせの反復プロットを生成する。 Here, the x coordinate, y coordinate and z coordinate of the body part P are treated as independent features. That is, the feature selection unit 113 combines the x-coordinate of the seller U1's right hand with the x-coordinate of the buyer U2's right hand, the combination of the x-coordinate of the seller U1's right hand and the y-coordinate of the buyer U2's right hand, Each body part P, such as the combination of the x coordinate of the right hand of the person U1 and the z coordinate of the right hand of the buyer U2, the combination of the x coordinate of the right hand of the seller U1 and the x coordinate of the right elbow of the buyer U2, etc. Generate repeated plots of all combinations of each coordinate of.
図5は、本実施形態に係る特徴選択部113が1つの身体部位Pの組み合わせについて生成する反復プロットAを示す図である。図5の反復プロットAは、例えば販売者U1の右手のx座標と購買者U2の右手のx座標との組み合わせを対象とする。反復プロットAの横軸は販売者U1についての時間を表し、縦軸は購買者U2についての時間を表す。反復プロットA上には、販売者U1の身体部位Pと購買者U2の身体部位Pとの両方の時系列の位置が変化した(すなわち動いた)ことを示す共起領域A1が生成されている。例えば反復プロットAは、販売者U1の右手のx座標の変化の影響を受けて、購買者U2の右手のx座標が変化したことを表している。反復プロットAを生成するため、公知の最適化手法を利用する。また、関連パラメータを複数回で無作為に選択し、実験により最適なパラメータを利用してもよい。 FIG. 5 is a diagram showing a repeated plot A generated by the feature selection unit 113 according to the present embodiment for a combination of one body part P. As shown in FIG. The repeated plot A in FIG. 5 is, for example, directed to the combination of the x-coordinate of the right hand of the seller U1 and the x-coordinate of the right hand of the buyer U2. The horizontal axis of repeated plot A represents the time for seller U1, and the vertical axis represents the time for buyer U2. On the repeated plot A, a co-occurrence region A1 is generated which indicates that the positions of the time series of both the body part P of the seller U1 and the body part P of the purchaser U2 are changed (that is, moved). . For example, the repeated plot A represents that the x-coordinate of the right hand of the buyer U2 has changed under the influence of the change of the x-coordinate of the right hand of the seller U1. To generate the repeated plot A, use known optimization techniques. In addition, relevant parameters may be randomly selected at a plurality of times, and optimal parameters may be used by experiments.
反復プロットAは、販売者U1の時間と購買者U2の時間とをずらしながら、販売者U1の身体部位Pと購買者U2の身体部位Pとが両方動いている(例えば位置の変化量が所定の閾値以上である)時間をプロットしたものである。例えば販売者U1の身体部位Pがt1秒〜t2秒に動いており、購買者U2の身体部位Pがt3秒〜t4秒及びt5秒〜t6秒に動いているものとする。この場合には、特徴選択部113は、図5に示すように、販売者U1のt1秒〜t2秒と購買者U2のt3秒〜t4秒及びt5秒〜t6秒とが共通する部分を共起領域A1として反復プロットA上に生成する。図5には視認性のために一部の共起領域A1のみが表されているが、より多くの共起領域A1が生成されてもよい。 In the repeated plot A, both the body part P of the seller U1 and the body part P of the buyer U2 are moving while shifting the time of the seller U1 and the time of the buyer U2 (for example, the amount of change in position is predetermined) Time) or more) is plotted. For example, it is assumed that the body part P of the seller U1 moves from t1 seconds to t2 seconds, and the body part P of the buyer U2 moves from t3 seconds to t4 seconds and t5 seconds to t6 seconds. In this case, as shown in FIG. 5, the feature selection unit 113 shares portions where t1 seconds to t2 seconds of the seller U1 and t3 seconds to t4 seconds and t5 seconds to t6 seconds of the buyer U2 are common. It is generated on the repeated plot A as the origin area A1. Although only a part of the co-occurrence area A1 is shown in FIG. 5 for visibility, more co-occurrence areas A1 may be generated.
このような反復プロットAによって、ユーザ間の身体部位Pの組み合わせにおける時間的遅延を考慮した共起関係が抽出される。そのため、特徴選択部113は、反復プロットAに基づいて、販売者U1の特定の身体部位Pの動きと同じ時間及び異なる時間において購買者U2の特定の身体部位Pの動きが発生するという関係の存在を判定することができる。 Such repeated plot A extracts a co-occurrence relation in consideration of temporal delays in combinations of body parts P between users. Therefore, based on the repeated plot A, the feature selection unit 113 generates the relation that the movement of the specific body part P of the buyer U2 occurs at the same time and a different time as the movement of the specific body part P of the seller U1. The presence can be determined.
そして特徴選択部113は、ユーザ間の身体部位Pの各組み合わせについて生成した反復プロットAに対して、式(2)を用いてCRQAのTT(Trapping Time)指標を算出する。 Then, the feature selection unit 113 calculates a TT (Trapping Time) index of CRQA using the equation (2) with respect to the repeated plot A generated for each combination of body parts P between users.
式(2)において、TTはTT指標を示し、vは反復プロットAの共起領域A1の垂直方向の時間長を示し、P(v)はvの頻度分布を示す。TT指標は、反復プロットAの共起領域A1の垂直方向の平均時間長である。すなわちTT指標は、販売者U1の動きに対して購買者U2の動きが発生したこと(共起したこと)の継続時間を示す指標である。 In equation (2), TT represents a TT index, v represents the vertical time length of the co-occurrence region A1 of the repeated plot A, and P (v) represents a frequency distribution of v. The TT index is the average time length in the vertical direction of the co-occurrence area A1 of the repeated plot A. That is, the TT index is an index indicating the duration of the occurrence (co-occurrence) of the movement of the buyer U2 with respect to the movement of the seller U1.
TT指標は、ユーザ間の身体部位Pの動きが同時又は遅延して発生することを示す指標である。あるユーザ間の身体部位Pの組み合わせについて算出されたTT指標が大きいほど、ユーザ間の身体部位Pの動きが同時又は遅延して発生する頻度が高い又は継続時間が長いことを示す。そのためTT指標の大きさは、ユーザ間の身体部位Pの関係の強さに対応する。 The TT index is an index indicating that the movement of the body part P between users occurs simultaneously or delayed. The larger the TT index calculated for the combination of body parts P between certain users, the higher the frequency or the longer the occurrence of simultaneous or delayed movement of the body parts P between users. Therefore, the size of the TT index corresponds to the strength of the relationship of the body part P between the users.
図6は、本実施形態に係る特徴選択部113がユーザ間の身体部位Pの各組み合わせについて算出したTT指標の分布図Bを示す図である。分布図Bは、本明細書においてTT指標の説明のために用いるものであり、特徴選択部113がこれを生成する必要はない。 FIG. 6 is a view showing a distribution map B of the TT index calculated by the feature selection unit 113 according to the present embodiment for each combination of body parts P between users. The distribution diagram B is used herein to explain the TT index, and the feature selection unit 113 does not have to generate it.
分布図Bの横軸は販売者U1の各身体部位Pの各座標を識別する番号を表し、縦軸は購買者U2の各身体部位Pの各座標を識別する番号を表している。図6では視認性のために横軸及び縦軸としてそれぞれ20個の身体部位Pを表しているが、実際には横軸及び縦軸はそれぞれ計算に用いた身体部位Pの数に対応する。分布図Bは、TT指標が所定の閾値以上である身体部位Pの組み合わせを黒いセルB1で、TT指標が所定の閾値未満である身体部位Pの組み合わせを白いセルB2で表している。 The horizontal axis of the distribution diagram B represents the number identifying each coordinate of each body part P of the seller U1, and the vertical axis represents the number identifying each coordinate of each body part P of the buyer U2. Although FIG. 6 shows 20 body parts P as the horizontal axis and the vertical axis for visibility, in fact, the horizontal axis and the vertical axis correspond to the number of body parts P used for the calculation. The distribution diagram B represents a combination of body parts P in which the TT index is equal to or greater than a predetermined threshold with a black cell B1, and a combination of body parts P with a TT index less than the predetermined threshold in a white cell B2.
分布図Bは、販売者U1の各身体部位Pの動きに対する購買者U2の各身体部位Pの動きの反応を表している。例えば販売者U1の番号10の身体部位Pの座標は、購買者U2の番号2、7、10、13、16(合計5個)に対してTT指標が所定の閾値以上になっている。このように相手の多数の身体部位Pの動きと関連する身体部位Pは、結果の分析に重要である。そこで特徴選択部113は、TT指標に基づいて、結果の分析に用いる身体部位P(特徴)を選択する。
The distribution diagram B shows the reaction response of the movement of each body part P of the buyer U2 to the movement of each body part P of the seller U1. For example, with respect to the coordinates of the body part P of the
具体的には、特徴選択部113は、TT指標が所定の閾値以上であるユーザ間の身体部位Pの組み合わせの数に基づいて、結果の分析に用いる身体部位Pを選択する。より具体的には、特徴選択部113は、TT指標が所定の閾値以上であるセルB1が所定の数以上の列に対応している販売者U1の身体部位Pを、結果の分析に用いる身体部位Pとして選択する。あるいは、特徴選択部113は、TT指標が所定の閾値以上であるセルB1の数が多い順に所定の数の販売者U1の身体部位Pを、結果の分析に用いる身体部位Pとして選択する。 Specifically, the feature selection unit 113 selects a body part P to be used for analysis of the result based on the number of combinations of body parts P between users whose TT index is equal to or greater than a predetermined threshold value. More specifically, the feature selection unit 113 uses the body part P of the seller U1 whose cell B1 whose TT index is equal to or more than a predetermined threshold corresponds to a predetermined number or more of columns for analysis of the result. Select as site P. Alternatively, the feature selection unit 113 selects a predetermined number of body parts P of the seller U1 as body parts P to be used for analysis of results in descending order of the number of cells B1 whose TT index is equal to or more than a predetermined threshold.
このような構成により、時系列分析装置1は、相手に対して多くの動きを引き起こす身体部位P(特徴)を選択的に学習及び分析に用いることができる。ここに示したTT指標に基づく身体部位Pの選択条件は一例であり、特徴選択部113は、その他の選択条件を用いてもよい。
With such a configuration, the time-
選択の精度を向上させるために、特徴選択部113は、複数の販売者U1と購買者U2とのペアについて身体部位Pの時系列の位置を収集し、それらの平均をとって反復プロットAを生成し、身体部位Pを選択してもよい。 In order to improve the accuracy of selection, the feature selection unit 113 collects the time-series positions of the body part P for a plurality of seller U1 and buyer U2 pairs, averages them, and obtains an iterative plot A. It may be generated and the body part P may be selected.
選択の精度を向上させるために、特徴選択部113は、複数の販売者U1と購買者U2とのペアについて身体部位Pの時系列の位置を収集し、各ペアにおいて販売者U1に対する購買者U2のTT指標の分布図Bと、購買者U2に対する販売者U1のTT指標の分布図Bを算出する。特徴選択部113は、各分布図Bの横軸における共通の重要な身体部位Pを選択してもよい。 In order to improve selection accuracy, the feature selection unit 113 collects time series positions of the body part P for a plurality of seller U1 and buyer U2 pairs, and in each pair, the buyer U2 for the seller U1 The distribution map B of the TT index of B and the distribution map B of the TT index of the seller U1 for the buyer U2 are calculated. The feature selection unit 113 may select a common important body part P on the horizontal axis of each distribution map B.
選択の精度を向上させるために、特徴選択部113は、複数の販売者U1と購買者U2とのペアについて身体部位Pの時系列の位置を収集し、各ペアにおいて販売者U1に対する購買者U2のTT指標の分布図Bと、購買者U2に対する販売者U1のTT指標の分布図Bを算出する。各TT指標の分布図Bは、ガンマ分布に従うことから、ガンマ分布に従うTT指標において、原点から離れている、所定閾値以上の範囲に分布しているTT指標値が対応している、複数の販売者U1と購買者U2における共通な重要な身体部位Pを選択してもよい。 In order to improve selection accuracy, the feature selection unit 113 collects time series positions of the body part P for a plurality of seller U1 and buyer U2 pairs, and in each pair, the buyer U2 for the seller U1 The distribution map B of the TT index of B and the distribution map B of the TT index of the seller U1 for the buyer U2 are calculated. The distribution map B of each TT index follows the gamma distribution, and therefore, in the TT index according to the gamma distribution, a plurality of sales corresponding to TT index values distributed in a range greater than or equal to a predetermined threshold away from the origin A common important body part P in the person U1 and the buyer U2 may be selected.
時系列情報の学習を行う際に、学習部114は、特徴選択部113が選択した販売者U1及び購買者U2の身体部位P(特徴)の時系列の位置に対して学習技術を適用することによって、学習を実行する。学習部114は、学習の教師データとして、入力データにおいて販売者U1から購買者U2への販売(契約、合意、説得等でもよい)が成功したか否か(すなわち結果が肯定的か否か)の情報を用いる。学習部114は、学習を実行することによって、結果を予測するためのモデルを生成して記憶部13に記憶させる。学習技術として、ニューラルネットワーク、サポートベクトルマシン等の公知の学習技術を用いることができる。
When learning time-series information, the learning unit 114 applies the learning technology to the time-series position of the body part P (feature) of the seller U1 and the buyer U2 selected by the feature selection unit 113. To carry out learning. The learning unit 114 determines whether sales (a contract, an agreement, a persuasion, etc. may be successful) from the seller U1 to the buyer U2 in the input data as teacher data for learning (that is, whether the result is positive or not). Use the information in The learning unit 114 performs learning to generate a model for predicting the result and store the model in the
時系列情報の分析を行う際に、分析部115は、記憶部13から学習部114が生成したモデルを読み出す。そして分析部115は、読み出したモデルに特徴選択部113が選択した販売者U1及び購買者U2の身体部位P(特徴)の時系列の位置を入力することによって、分析を実行する。モデルは、入力された販売者U1及び購買者U2の身体部位Pの時系列の位置から、販売者U1と購買者U2とのインタラクションの結果が肯定的か否かを予測する。そして分析部115は、モデルによって予測された結果を取得し、表示部14に表示させ、又は記憶部13に記憶させる。
When analyzing time series information, the
このように、本実施形態に係る時系列分析装置1は、時間遅延を考慮した、ユーザ間の身体部位Pの動きの関係に基づいて、結果の分析に対して重要な身体部位P(特徴)を選択し、選択した身体部位Pを用いて学習及び分析を行う。そのため、学習及び分析の精度を高めることができ、また計算に掛かる時間を短縮できる。
Thus, the time-
[時系列分析方法のフローチャート]
図7は、本実施形態に係る時系列分析装置1による時系列分析方法のフローチャートを示す図である。図7のフローチャートは、例えばユーザが時系列分析装置1に対して所定の開始操作を行うことによって開始される。
[Flowchart of time series analysis method]
FIG. 7 is a view showing a flowchart of a time series analysis method by the time
時系列分析装置1は、まず図8で後述する学習処理を行う(S1)。次に時系列分析装置1は、ステップS1の学習処理によって生成されたモデルを用いて、図9で後述する分析処理を行う(S2)。
The
時系列分析装置1は、必ずしもステップS1の学習処理に引き続いてステップS2の分析処理を行う必要はなく、時系列分析装置1の管理者による開始指示を受けたことを条件としてステップS2の分析処理を行ってもよい。また、時系列分析装置1は、ステップS1の学習処理の後に、複数回のステップS2の分析処理を行ってもよい。
The time
[学習処理のフローチャート]
図8は、本実施形態に係る学習処理のフローチャートを示す図である。図8のフローチャートは、図7の時系列分析方法のステップS1で実行される。
[Flowchart of learning process]
FIG. 8 is a diagram showing a flowchart of learning processing according to the present embodiment. The flowchart of FIG. 8 is executed in step S1 of the time series analysis method of FIG.
まず情報取得部111は、撮像部15によって撮像された学習対象である2人のユーザの時系列の画像情報を取得する(S101)。そして情報取得部111は、ステップS101で取得した時系列の画像情報から各ユーザの各身体部位の位置を算出する。
First, the
情報変換部112は、情報取得部111が算出した各身体部位の位置に対して上述の式(1)を用いて特徴空間変換を実行する(S102)。以下では、ステップS102で特徴空間変換が行われた座標を各身体部位の位置として用いて処理を行う。
The
特徴選択部113は、ユーザ間の身体部位(特徴)の各組み合わせについて、身体部位の時系列の位置(すなわち動き)の反復プロットを生成し、上述の式(2)を用いてTT指標を算出する(S103)。そして特徴選択部113は、ステップS103で算出したTT指標に基づいて、結果の分析に用いる身体部位(特徴)を選択する(S104)。 The feature selection unit 113 generates a repeated plot of the time-series position (i.e., movement) of the body part for each combination of body parts (features) between users, and calculates the TT index using the above equation (2). (S103). Then, the feature selection unit 113 selects a body part (feature) to be used for analysis of the result based on the TT index calculated in step S103 (S104).
学習部114は、ステップS104で特徴選択部113が選択した身体部位(特徴)の時系列の位置に対して学習技術を適用することによって、学習を実行する(S105)。学習部114は、学習によって生成したモデル(モデルのパラメータ)を記憶部13に記憶させる。
The learning unit 114 executes learning by applying a learning technique to the time-series position of the body part (feature) selected by the feature selection unit 113 in step S104 (S105). The learning unit 114 causes the
[分析処理のフローチャート]
図9は、本実施形態に係る分析処理のフローチャートを示す図である。図9のフローチャートは、図7の時系列分析方法のステップS2で実行される。
Flowchart of Analysis Process
FIG. 9 is a view showing a flowchart of analysis processing according to the present embodiment. The flowchart of FIG. 9 is executed in step S2 of the time series analysis method of FIG.
まず情報取得部111は、撮像部15によって撮像された分析対象である2人のユーザの時系列の画像情報を取得する(S201)。そして情報取得部111は、ステップS201で情報取得部111が取得した時系列の画像情報から各ユーザの各身体部位の位置を算出する。
First, the
情報変換部112は、情報取得部111が算出した各身体部位の位置に対して上述の式(1)を用いて特徴空間変換を実行する(S202)。以下では、ステップS202で特徴空間変換が行われた座標を各身体部位の位置として用いて処理を行う。
The
特徴選択部113は、学習処理のステップS105で学習部114がモデルの生成に用いた身体部位(特徴)を選択する(S203)。 The feature selection unit 113 selects the body part (feature) that the learning unit 114 used to generate the model in step S105 of the learning process (S203).
分析部115は、学習処理のステップS105で学習部114が生成したモデルを記憶部13から読み出す(S204)。そして分析部115は、ステップS204で読み出したモデルに、ステップS203で特徴選択部113が選択した身体部位(特徴)の時系列の位置を入力することによって、分析を実行する(S205)。モデルは、入力された2人のユーザの身体部位の時系列の位置から、結果が肯定的か否かを予測する。そして分析部115は、モデルによって予測された結果を取得し、表示部14に表示させ、又は記憶部13に記憶させる。
The
上述の時系列分析装置1は販売、契約、合意、説得等の結果が肯定的か否かを予測する分析を行っているが、教育やグループ学習の効果を予測する分析を行ってもよい。この場合に、時系列分析装置1は、教師と生徒との間又は生徒間の身体部位の共起関係に基づいて分析に用いる身体部位を選択し、学習及び分析を行う。学習の教師データとして、時系列分析装置1は、生徒からの教師の評価や、生徒の試験の点数等を用いることができる。
Although the above-mentioned time-
[第1の実施形態の効果]
人体の関節等の身体部位の動きを用いてユーザ間のインタラクションを学習及び分析する際に、計算対象とする身体部位の数が多いほど計算時間が長くなる。また、身体部位の動きには、ユーザ間のインタラクションに関係のない自然な動きが含まれるため、全ての身体部位を計算対象とすると学習及び分析の精度が低下する場合がある。
[Effect of First Embodiment]
When learning and analyzing the interaction between users using movement of body parts such as joints of a human body, the larger the number of body parts to be calculated, the longer the calculation time. In addition, since the movement of the body part includes natural movement unrelated to the interaction between the users, the accuracy of learning and analysis may be reduced if all the body parts are to be calculated.
そこで本実施形態に係る時系列分析装置1は、ユーザ間の身体部位の動きの時間遅延を考慮した関係に基づいて、結果の分析に対して重要な身体部位(特徴)を選択し、選択した身体部位を用いて学習及び分析を行う。これにより、時系列分析装置1は、計算対象とする身体部位の数を削減できるため、計算時間を短縮できる。また、時系列分析装置1は、ユーザ間のインタラクションに関わる重要な身体部位を絞り込んで用いることができるため、学習及び分析の精度を高めることができる。
Therefore, the time-
[第1の実施形態の変形例]
上述の時系列分析装置1において、学習結果をフィードバックすることによって、学習及び分析のために選択する身体部位Pの数及び種類を調整してもよい。具体的には、特徴選択部113は、上述のTT指標の条件に従って選択した身体部位Pを母集団として、無作為な個数の身体部位Pを、無作為に選択する。
[Modification of First Embodiment]
In the above-described time
そして学習部114は、特徴選択部113が無作為に選択した個数及び種類の身体部位Pを用いて、上述の学習を実行する。特徴選択部113及び学習部114は、身体部位Pの選択及び学習を所定の回数繰り返し、複数のモデルを生成する。学習部114は、生成した複数のモデルのそれぞれにテストデータを入力して精度を算出する。そして学習部114は、算出した精度が最も高いモデルを選択し、記憶部13に記憶させる。分析部115は、選択された精度が最も高いモデルを読み出し、該モデルの生成において選択された身体部位Pの時系列情報を該モデルに入力することによって、分析を実行する。
Then, the learning unit 114 performs the above-described learning using the number and types of body parts P randomly selected by the feature selection unit 113. The feature selecting unit 113 and the learning unit 114 repeat selection and learning of the body part P a predetermined number of times to generate a plurality of models. The learning unit 114 inputs test data to each of the plurality of generated models to calculate the accuracy. Then, the learning unit 114 selects a model with the highest calculated accuracy and causes the
このような構成により、時系列分析装置1は、より適した個数及び種類の身体部位Pを選択的に用いることができるため、学習及び分析の精度を向上させることができる。
With such a configuration, since the time-
(第2の実施形態)
第1の実施形態はユーザ間の特徴の関係を学習することによってユーザ間インタラクションの結果の予測を行うのに対して、本実施形態はユーザ間の特徴の関係を学習することによってユーザの行動パターンの予測を行う。時系列分析システムSの装置構成は、第1の実施形態と同様である。
Second Embodiment
While the first embodiment predicts the result of interaction between users by learning the relationship of features between users, the present embodiment analyzes the user's behavior pattern by learning the relationship of features between users. Make predictions of The device configuration of the time series analysis system S is the same as that of the first embodiment.
本実施形態において、行動パターンとは、掃除、休憩、徘徊等の日常生活上の行動の種類、及びデスクワーク、タイピング、思考等の仕事上の行動の種類をいう。同じ行動パターンに着目すると、ユーザによって行動パターン中の行動の順番や頻度は異なっていても、時間をずらせば(すなわち時間遅延を与えれば)共通の特徴が現れる。一方、異なる行動パターンでは、時間をずらしたとしても共通の特徴はあまり現れない。 In the present embodiment, the behavior pattern refers to the type of behavior in daily life such as cleaning, resting and chewing, and the type of behavior on work such as desk work, typing and thinking. Focusing on the same action pattern, even if the order and frequency of actions in the action pattern differ depending on the user, common features appear when time is shifted (that is, given a time delay). On the other hand, in different behavior patterns, common features do not appear much even if time is shifted.
そこで本実施形態に係る時系列分析装置1の特徴選択部113は、各行動パターンにおいて、時間遅延を考慮した、異なるユーザ間の身体部位(特徴)の動きの関係に基づいて、行動パターンの予測に対して重要な身体部位を選択する。身体部位の選択条件は、第1の実施形態と同様である。
Therefore, the feature selection unit 113 of the time
学習部114は、ある行動パターンに該当する異なるユーザの時系列情報ペア、及びある行動パターンに該当するユーザと該行動パターンに該当しないユーザとの時系列情報ペアを用いて、特徴選択部113が選択した身体部位の時系列の位置に対して学習技術を適用することによって、学習を実行する。学習部114は、学習の教師データとして、入力データが特定の同じ行動パターンに該当するか否かの情報を用いる。この学習を行動パターンごとに繰り返すことにより、学習部114は、行動パターンごとのモデルを生成して記憶部13に記憶させる。
The learning unit 114 uses the feature selection unit 113 using time series information pairs of different users corresponding to a certain action pattern, and time series information pairs of a user corresponding to a certain action pattern and a user not corresponding to the action pattern. The learning is performed by applying a learning technique to the time series position of the selected body part. The learning unit 114 uses, as teacher data for learning, information as to whether or not the input data corresponds to a specific same behavior pattern. By repeating this learning for each behavior pattern, the learning unit 114 generates a model for each behavior pattern and causes the
時系列情報の分析を行う際に、分析部115は、学習部114が生成した行動パターンごとのモデルに、それぞれのモデルの生成において選択された身体部位に対応する時系列の位置を入力することによって分析を実行する。そして分析部115は、行動パターンごとのモデルに入力された身体部位の動きに適応する度合いが所定の閾値を超える行動パターンを、行動パターンの予測結果として出力する。
When analyzing the time-series information, the
[学習処理のフローチャート]
図10は、本実施形態に係る学習処理のフローチャートを示す図である。図10のフローチャートは、図7の時系列分析方法のステップS1で実行される。
[Flowchart of learning process]
FIG. 10 is a diagram showing a flowchart of learning processing according to the present embodiment. The flowchart of FIG. 10 is executed in step S1 of the time series analysis method of FIG.
まず情報取得部111は、撮像部15によって撮像された学習対象である2人のユーザの行動パターンごとの時系列の画像情報を取得する(S111)。そして情報取得部111は、ステップS111で取得した時系列の画像情報から各ユーザの各身体部位の位置を算出する。
First, the
情報変換部112は、情報取得部111が算出した各身体部位の位置に対して上述の式(1)を用いて特徴空間変換を実行する(S112)。以下では、ステップS112で特徴空間変換が行われた座標を各身体部位の位置として用いて処理を行う。
The
特徴選択部113は、ユーザ間の身体部位(特徴)の各組み合わせについて、身体部位の時系列の位置(すなわち動き)の反復プロットを行動パターンごとに生成し、上述の式(2)を用いてTT指標を算出する(S113)。そして特徴選択部113は、ステップS113で算出したTT指標に基づいて、行動パターンの予測に用いる身体部位(特徴)を行動パターンごとに選択する(S114)。 The feature selection unit 113 generates, for each of the behavior patterns, repetitive plots of time-series positions (i.e., movements) of body parts for each combination of body parts (features) between users, using the above-mentioned equation (2). The TT index is calculated (S113). Then, based on the TT index calculated in step S113, the feature selection unit 113 selects body parts (features) to be used for predicting the action pattern for each action pattern (S114).
学習部114は、ステップS114で特徴選択部113が選択した身体部位(特徴)の行動パターンごとの時系列の位置に対して学習技術を適用することによって、学習を実行する(S115)。学習部114は、学習によって生成したモデル(モデルのパラメータ)を行動パターンごとに記憶部13に記憶させる。
The learning unit 114 executes learning by applying a learning technique to the time-series position of each action pattern of the body part (feature) selected by the feature selection unit 113 in step S114 (S115). The learning unit 114 stores the model (parameter of the model) generated by learning in the
本実施形態に係る分析処理は、行動パターンごとのモデルを用いる点と、行動パターンごとの疑似相手のデータを事前に用意した模範データとする点と、以外については、図9のフローチャートと同様である。 The analysis processing according to the present embodiment is the same as the flowchart of FIG. 9 except that the model for each behavior pattern is used and the data of the pseudo partner for each behavior pattern is assumed to be exemplar data prepared in advance. is there.
時系列分析装置1は、学習処理及び分析処理において、行動パターンごとの情報の取得、特徴空間変換、特徴の選択、学習の実行及び分析の実行を、互いに並列で行ってもよい。これにより、高速に処理を行うことができる。
The time-
本実施形態においても、第1の実施形態の変形例と同様に、無作為に選択した個数及び種類の身体部位を用いて複数のモデルを生成し、その中から精度の高いモデルを選択してもよい。 Also in this embodiment, as in the modification of the first embodiment, a plurality of models are generated using randomly selected numbers and types of body parts, and a model with high accuracy is selected from them. It is also good.
[第2の実施形態の効果]
本実施形態に係る時系列分析装置1は、ユーザ間の身体部位の動きの時間遅延を考慮した関係に基づいて、行動パターンの予測に対して重要な身体部位(特徴)を選択し、選択した身体部位を用いて学習及び分析を行う。これにより、行動パターンの学習及び予測の計算時間を短縮し、精度を高めることができる。
[Effect of Second Embodiment]
The time-
(第3の実施形態)
第1の実施形態は2人のユーザのインタラクションに着目しているのに対して、本実施形態は3人以上のグループ内のインタラクションに着目して学習及び分析を行う。時系列分析システムSの装置構成は、第1の実施形態と同様である。
Third Embodiment
While the first embodiment focuses on the interaction of two users, the present embodiment performs learning and analysis focusing on interactions in groups of three or more. The device configuration of the time series analysis system S is the same as that of the first embodiment.
3人以上のグループで行う会議等のインタラクションでは、活発なインタラクションを行うユーザのペアと活発でないインタラクションを行うユーザのペアとが存在し、また時間ごとに話題が移り変わる。そこで本実施形態に係る時系列分析装置1は、所定の長さの時間窓をずらしながらユーザのペアごとに学習及び分析を行うことによって、ユーザ間のインタラクションが活発か否かを分類する。
In interaction such as a meeting performed in a group of three or more, there is a pair of users who perform active interaction and a pair of users who perform inactive interaction, and the topic changes with time. Therefore, the time-
具体的には、特徴選択部113は、所定の長さの時間窓を設定し、また学習対象の複数のユーザのうち2人のユーザのペアを選択する。そして特徴選択部113は、設定した時間窓内の時系列情報を用いて、選択したユーザ間の身体部位(特徴)の動きの時間遅延を考慮した関係に基づいて、結果の分析に対して重要な身体部位を選択する。身体部位の選択条件において、時間窓単位で行う点以外は第1の実施形態と同様である。時間窓は、処理対象とする時系列情報の開始時間及び終了時間を限定する範囲である。時間窓の長さは、時系列分析装置1の管理者によって予め記憶部13に設定される。特徴選択部113は、所定回数分時間窓をずらしながら、また学習対象の別のユーザのペアを選択しながら、繰り返し身体部位の選択を行う。
Specifically, the feature selection unit 113 sets a time window of a predetermined length, and selects a pair of two users among a plurality of users to be learned. Then, the feature selection unit 113 uses the time-series information in the set time window and is important for analysis of the result based on the relationship in which the time delay of the movement of the body part (feature) between the selected users is considered. Select the appropriate body part. The selection condition of the body part is the same as that of the first embodiment except that it is performed in units of time windows. The time window is a range that limits the start time and the end time of time series information to be processed. The length of the time window is set in advance in the
学習部114は、特徴選択部113が設定した時間窓内において、特徴選択部113が選択した身体部位の時系列の位置に対して学習技術を適用することによって、時間窓をずらしながら繰り返し学習を実行する。また、学習部114は、特徴選択部113が選択した別のユーザのペアについても同様に繰り返し学習を実行する。学習部114は、学習の教師データとして、入力データにおいてユーザ間のインタラクションが活発か否かの分類を用いる。 The learning unit 114 repeatedly performs learning while shifting the time window by applying a learning technique to the time-series position of the body part selected by the feature selection unit 113 within the time window set by the feature selection unit 113. Run. The learning unit 114 also repeatedly performs learning similarly for another user pair selected by the feature selection unit 113. The learning unit 114 uses, as teaching data for learning, classification of whether or not the interaction between users is active in the input data.
時系列の情報の分析を行う際に、分析部115は、学習部114が生成したモデルに、該モデルにおいて選択された身体部位の時系列の位置を入力することによって分析を実行する。モデルは、入力された2人のユーザの身体部位の時系列の位置から、時間窓をずらしながらインタラクションが活発か否かを分類する。そして分析部115は、モデルによって分類された結果を取得し、表示部14に表示させ、又は記憶部13に記憶する。
When analyzing time-series information, the
分析部115は、学習部114が生成したモデルによって活発なコミュニケーションを行うと判別した場合、各時間窓内で第1の実施形態を適用することにより、肯定あるいは否定の結果を予測してもよい。
If the
[学習処理のフローチャート]
図11は、本実施形態に係る学習処理のフローチャートを示す図である。図11のフローチャートは、図7の時系列分析方法のステップS1で実行される。
[Flowchart of learning process]
FIG. 11 is a diagram showing a flowchart of learning processing according to the present embodiment. The flowchart of FIG. 11 is executed in step S1 of the time series analysis method of FIG.
まず情報取得部111は、撮像部15によって撮像された学習対象である複数のユーザの時系列の画像情報を取得する(S121)。そして情報取得部111は、ステップS121で取得した時系列の画像情報から各ユーザの各身体部位の位置を算出する。
First, the
情報変換部112は、情報取得部111が算出した各身体部位の位置に対して上述の式(1)を用いて特徴空間変換を実行する(S122)。以下では、ステップS122で特徴空間変換が行われた座標を各身体部位の位置として用いて処理を行う。
The
特徴選択部113は、所定の長さの時間窓を、初期位置に設定する(S123)。時間窓の初期位置は、例えば入力された時系列の画像情報の最初の時間である。特徴選択部113は、繰り返しごとに時間窓の位置を所定の時間ずつずらす。以下では、ステップS123で設定された時間窓内の各身体部位の時系列の位置を用いて処理を行う。 The feature selecting unit 113 sets a time window of a predetermined length as an initial position (S123). The initial position of the time window is, for example, the first time of the input time-series image information. The feature selection unit 113 shifts the position of the time window for each predetermined time. In the following, processing is performed using the time-series position of each body part in the time window set in step S123.
特徴選択部113は、学習対象の複数のユーザのうち2人のユーザのペアを選択する(S124)。特徴選択部113は、繰り返しごとに別の2人のユーザのペアを選択する。以下では、ステップS124で選択されたユーザに対して処理を行う。 The feature selection unit 113 selects a pair of two users among the plurality of users to be learned (S124). The feature selection unit 113 selects another pair of two users for each repetition. In the following, processing is performed on the user selected in step S124.
特徴選択部113は、ユーザ間の身体部位(特徴)の各組み合わせについて、身体部位の時系列の位置(すなわち動き)の反復プロットを生成し、上述の式(2)を用いてTT指標を算出する(S125)。そして特徴選択部113は、ステップS125で算出したTT指標に基づいて、結果の分析に用いる身体部位(特徴)を選択する(S126)。 The feature selection unit 113 generates a repeated plot of the time-series position (i.e., movement) of the body part for each combination of body parts (features) between users, and calculates the TT index using the above equation (2). (S125). Then, the feature selection unit 113 selects a body part (feature) to be used for analysis of the result based on the TT index calculated in step S125 (S126).
学習部114は、ステップS126で特徴選択部113が選択した身体部位(特徴)の時系列の位置に対して学習技術を適用することによって、学習を実行する(S127)。学習部114は、学習によって生成したモデル(モデルのパラメータ)を記憶部13に記憶させる。
The learning unit 114 executes learning by applying a learning technique to the time-series position of the body part (feature) selected by the feature selection unit 113 in step S126 (S127). The learning unit 114 causes the
ユーザの全ペアについて処理が終了していない場合に(S128のNO)、時系列分析装置1はステップS124に戻って別のユーザのペアを選択して処理を繰り返す。入力データの全時間について処理が終了していない場合に(S129のNO)、時系列分析装置1はステップS123に戻って時間窓の位置を所定の時間だけずらして処理を繰り返す。
If the process has not been completed for all pairs of users (NO in S128), the time-
ユーザの全ペアについて処理が終了し、かつ入力データの全時間について処理が終了した場合に(S128のYES、S129のYES)、時系列分析装置1は学習処理を終了する。
When the process is completed for all pairs of users and the process is completed for all the time of the input data (YES in S128, YES in S129), the
本実施形態に係る分析処理は、時間窓ごと及びユーザのペアごとにモデルへデータを入力する点以外については、図9のフローチャートと同様である。 The analysis processing according to the present embodiment is the same as the flowchart of FIG. 9 except that data is input to the model for each time window and each pair of users.
時系列分析装置1は、学習処理及び分析処理において、ユーザのペアごとの情報の取得、特徴空間変換、特徴の選択、学習の実行及び分析の実行を、互いに並列で行ってもよい。これにより、高速に処理を行うことができる。
The time
本実施形態においても、第1の実施形態の変形例と同様に、無作為に選択した個数及び種類の身体部位を用いて複数のモデルを生成し、その中から精度の高いモデルを選択してもよい。 Also in this embodiment, as in the modification of the first embodiment, a plurality of models are generated using randomly selected numbers and types of body parts, and a model with high accuracy is selected from them. It is also good.
[第3の実施形態の効果]
本実施形態に係る時系列分析装置1は、3人以上のグループで行う会議等のインタラクションにおいて、ユーザのペアごとに学習及び分析を行うことができる。また時系列分析装置1は、時間窓をずらしながら処理を行うため、時間ごとに話題が移り変わる状況でも高精度な学習及び分析を行うことができる。
[Effect of the third embodiment]
The time-
(第4の実施形態)
第1の実施形態はユーザの身体部位の動きを用いて学習及び分析を行うのに対して、本実施形態はユーザが発する言語を用いて学習及び分析を行う。時系列分析システムSの装置構成は、第1の実施形態と同様である。
Fourth Embodiment
The first embodiment performs learning and analysis using the motion of the user's body part, whereas the present embodiment performs learning and analysis using the language spoken by the user. The device configuration of the time series analysis system S is the same as that of the first embodiment.
本実施形態において、ユーザの発する言語は、メール、チャット等でユーザが入力した文字情報でもよく、又は音声入力部16が取得したユーザからの音声情報でもよい。第1ユーザの言語を見た又は聞いた第2ユーザの反応は、興味を示すか示さないかで異なる。そこで本実施形態に係る時系列分析装置1は、ユーザの身体部位の動きの代わりに、結果の分析に重要な言語特徴を選択し、選択した言語特徴を用いて学習及び分析を行う。
In the present embodiment, the language spoken by the user may be text information input by the user by e-mail, chat or the like, or voice information from the user acquired by the
日常会話において用いられる単語は無数にあるため、全ての単語の組み合わせの共起関係を抽出することは現実的でない。本実施形態に係る時系列分析装置1は、ユーザが発した言語に含まれる単語をクラスタリングし、クラスタを特徴として用いる。時系列分析装置1は、単語とクラスタとの対応関係を、予め記憶部13に記憶させる。時系列分析装置1は、例えば以下に列挙したようなユーザの感情ごとに定義されたクラスタを用いる。
Since the words used in daily conversation are innumerable, it is not practical to extract the co-occurrence relation of all the word combinations. The time-
安心/感謝/幸福/リラックス/尊敬/期待/愛しさ/恐怖/後悔/嫌悪/嫉妬/怒り Reassurance / gratitude / happiness / relaxation / respect / expectation / love / fear / regret / aversion / jealousy / anger
ここに示したクラスタは一例であり、時系列分析装置1の管理者は任意のクラスタを定義することができる。本実施形態では、1つのクラスタに属する1群の単語を、1つの特徴として取り扱う。
The cluster shown here is an example, and the administrator of the time-
情報取得部111は、音声入力部16によって取得された時系列の音声情報又は記憶部13に記憶された時系列の文字情報を取得する。学習対象及び分析対象のメール、チャット等の文字情報は、他のシステムから取得されて、予め記憶部13に記憶されている。そして情報取得部111は、取得した音声情報又は文字情報に自然言語処理技術を適用することによって、各ユーザの発した言語に含まれる単語を抽出する。自然言語処理技術として、公知の技術を用いることができる。情報取得部111は、分析の精度を向上させるために、音声情報又は文字情報に対して不要語除去等の前処理を適用することが望ましい。
The
情報変換部112は、記憶部13に予め記憶されているクラスタの定義に従って、情報取得部111が抽出した単語をクラスタリングする。情報変換部112は、生成した各クラスタを学習及び分析に用いる特徴として決定する。
The
特徴選択部113は、各クラスタの時系列情報(すなわち各クラスタに属する単語の発生時間)を用いて、2人のユーザ間のクラスタ(特徴)の発生時間の時間遅延を考慮した関係に基づいて、結果の分析に対して重要なクラスタを選択する。特徴選択部113によるクラスタの選択方法は、第1の実施形態におけるユーザの身体部位の選択方法と同様である。 The feature selection unit 113 uses the time-series information of each cluster (that is, the generation time of the word belonging to each cluster) based on the relationship in which the time delay of the generation time of the cluster (feature) between two users is considered. Choose clusters that are important for analysis of the results. The method of selecting clusters by the feature selection unit 113 is the same as the method of selecting a body part of the user in the first embodiment.
学習部114は、特徴選択部113が選択したクラスタの発生時間に対して学習技術を適用することによって、学習を実行する。学習部114は、学習の教師データとして、入力データにおいて販売、契約、合意、説得等の結果が肯定的か否かの情報を用いる。 The learning unit 114 executes learning by applying a learning technique to the generation time of the cluster selected by the feature selection unit 113. The learning unit 114 uses information on whether the result of sale, contract, agreement, persuasion or the like is positive in the input data as teacher data of learning.
時系列の情報の分析を行う際に、分析部115は、学習部114が生成したモデルに、該モデルの生成において選択されたクラスタの発生時間を入力することによって分析を実行する。モデルは、入力された2人のユーザのクラスタの発生時間から、販売、契約、合意、説得等の結果が肯定的か否かを予測する。そして分析部115は、モデルによって予測された結果を取得し、表示部14に表示させ、又は記憶部13に記憶する。
When analyzing time-series information, the
[学習処理のフローチャート]
図12は、本実施形態に係る学習処理のフローチャートを示す図である。図12のフローチャートは、図7の時系列分析方法のステップS1で実行される。
[Flowchart of learning process]
FIG. 12 is a diagram showing a flowchart of learning processing according to the present embodiment. The flowchart of FIG. 12 is executed in step S1 of the time series analysis method of FIG.
まず情報取得部111は、音声入力部16によって取得された時系列の音声情報又は記憶部13に記憶されている時系列の文字情報(メール、チャット等)を取得する(S131)。そして情報取得部111は、ステップS131で取得した音声情報又は文字情報に自然言語処理技術を適用することによって、各ユーザの発した言語に含まれる単語を抽出する(S132)。
First, the
情報変換部112は、記憶部13に予め記憶されているクラスタの定義に従って、ステップS132で情報取得部111が抽出した単語をクラスタリングする(S133)。そして情報変換部112は、ステップS133で生成した各クラスタを学習及び分析に用いる特徴として決定する(S134)。
The
特徴選択部113は、ユーザ間のクラスタ(特徴)の各組み合わせについて、クラスタの発生時間の反復プロットを生成し、上述の式(2)を用いてTT指標を算出する(S135)。そして特徴選択部113は、ステップS135で算出したTT指標に基づいて、学習及び分析に用いるクラスタ(特徴)を選択する(S136)。 The feature selection unit 113 generates an iterative plot of cluster occurrence time for each combination of clusters (features) between users, and calculates a TT index using the above-mentioned equation (2) (S135). Then, the feature selection unit 113 selects clusters (features) used for learning and analysis based on the TT index calculated in step S135 (S136).
学習部114は、ステップS136で特徴選択部113が選択したクラスタ(特徴)の発生時間に対して学習技術を適用することによって、学習を実行する(S137)。学習部114は、学習によって生成したモデル(モデルのパラメータ)を記憶部13に記憶させる。
The learning unit 114 executes learning by applying a learning technique to the generation time of the cluster (feature) selected by the feature selection unit 113 in step S136 (S137). The learning unit 114 causes the
本実施形態に係る分析処理は、特徴として身体部位の代わりに単語のクラスタを用いる点以外については、図9のフローチャートと同様である。 The analysis process according to the present embodiment is the same as the flowchart of FIG. 9 except that a word cluster is used as a feature instead of a body part.
本実施形態においても、第1の実施形態の変形例と同様に、無作為に選択した個数及び種類のクラスタを用いて複数のモデルを生成し、その中から精度の高いモデルを選択してもよい。 Also in this embodiment, as in the modification of the first embodiment, a plurality of models are generated using randomly selected numbers and types of clusters, and a model with high accuracy is selected from among the plurality of models. Good.
第1〜第3の実施形態に本実施形態を組み合わせることによって、時系列分析装置1は、ユーザの身体部位の動き(すなわち非言語的行動)とユーザの発した言語(すなわち言語的行動)との両方を特徴として用いて、学習及び分析を行ってもよい。このような構成によって、一方のユーザが言語で説明をしていて、他方のユーザがその説明を黙って聞いている状況等、様々な状況において分析を行うことができる。
By combining the present embodiment with the first to third embodiments, the time-
[第4の実施形態の効果]
本実施形態に係る時系列分析装置1は、ユーザが発した言語から抽出した単語をクラスタリングし、生成したクラスタを特徴として用いる。そして時系列分析装置1は、ユーザ間でのクラスタ(特徴)の発生時間の時間遅延を考慮した関係に基づいて、結果の分析に対して重要なクラスタを選択し、選択したクラスタを用いて学習及び分析を行う。これにより、言語行動の学習及び予測においても、計算時間を短縮し、精度を高めることができる。
[Effect of Fourth Embodiment]
The time
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。 As mentioned above, although the present invention was explained using an embodiment, the technical scope of the present invention is not limited to the range given in the above-mentioned embodiment, and various modification and change are possible within the range of the gist. is there. For example, a specific embodiment of device distribution and integration is not limited to the above embodiment, and all or a part thereof may be functionally or physically distributed and integrated in any unit. Can. In addition, new embodiments produced by any combination of a plurality of embodiments are also included in the embodiments of the present invention. The effects of the new embodiment generated by the combination combine the effects of the original embodiment.
時系列分析装置1の制御部11(プロセッサ)は、図7〜12に示す時系列分析方法に含まれる各ステップ(工程)の主体となる。すなわち、制御部11は、図7〜12に示す時系列分析方法を実行するための時系列分析プログラムを記憶部13から読み出し、該時系列分析プログラムを実行して時系列分析装置1の各部を制御することによって、図7〜12に示す時系列分析方法を実行する。図7〜12に示す時系列分析方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。
The control unit 11 (processor) of the time
S 時系列分析システム
1 時系列分析装置
11 制御部
111 情報取得部
112 情報変換部
113 特徴選択部
114 学習部
115 分析部
S Time
Claims (14)
前記取得部が取得した前記時系列情報において、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生した際の継続時間に基づいて、学習対象の特徴を選択する選択部と、
前記選択部が選択した前記学習対象の特徴の時系列情報を用いて学習を行う学習部と、
を有する時系列分析装置。 An acquisition unit configured to acquire time-series information of the first user feature and the second user feature;
In the time-series information acquired by the acquisition unit, the feature to be learned is determined based on the duration when the feature of the first user and the feature of the second user occur at the same time and at different times. A selection unit to select,
A learning unit that performs learning using time-series information of the feature to be learned selected by the selection unit;
A time series analyzer having a.
第1ユーザの特徴及び第2ユーザの特徴の時系列情報を取得するステップと、
前記取得するステップで取得された前記時系列情報において、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生した際の継続時間に基づいて、学習対象の特徴を選択するステップと、
前記選択するステップで選択された前記学習対象の特徴の時系列情報を用いて学習を行うステップと、
を有する時系列分析方法。 Computer runs,
Acquiring time series information of the first user feature and the second user feature;
In the time-series information acquired in the acquiring step, the learning target is based on a duration when the feature of the first user and the feature of the second user occur at the same time and different times. Selecting a feature;
Performing learning using time-series information of the feature to be learned selected in the selecting step;
Time series analysis method having.
第1ユーザの特徴及び第2ユーザの特徴の時系列情報を取得する取得部、
前記取得部が取得した前記時系列情報において、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生した際の継続時間に基づいて、学習対象の特徴を選択する選択部、及び
前記選択部が選択した前記学習対象の特徴の時系列情報を用いて学習を行う学習部、
として機能させるための時系列分析プログラム。 Processor,
An acquisition unit configured to acquire time-series information of the features of the first user and the features of the second user;
In the time-series information acquired by the acquisition unit, the feature to be learned is determined based on the duration when the feature of the first user and the feature of the second user occur at the same time and at different times. A selecting unit to select, and a learning unit to perform learning using time-series information of the feature to be learned selected by the selecting unit;
Time series analysis program to function as.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017219805A JP2019091260A (en) | 2017-11-15 | 2017-11-15 | Apparatus, method and program for time-series analysis |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017219805A JP2019091260A (en) | 2017-11-15 | 2017-11-15 | Apparatus, method and program for time-series analysis |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019091260A true JP2019091260A (en) | 2019-06-13 |
Family
ID=66836399
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017219805A Pending JP2019091260A (en) | 2017-11-15 | 2017-11-15 | Apparatus, method and program for time-series analysis |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2019091260A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020230427A1 (en) | 2019-05-14 | 2020-11-19 | 村田機械株式会社 | Transportation system and transportation control method |
| CN112861597A (en) * | 2019-11-12 | 2021-05-28 | 欧姆龙株式会社 | Motion analysis device, motion analysis method, and storage medium |
| KR20230084002A (en) * | 2021-12-02 | 2023-06-12 | 한양대학교 에리카산학협력단 | Apparatus and method for diagnosing disease |
-
2017
- 2017-11-15 JP JP2017219805A patent/JP2019091260A/en active Pending
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020230427A1 (en) | 2019-05-14 | 2020-11-19 | 村田機械株式会社 | Transportation system and transportation control method |
| CN112861597A (en) * | 2019-11-12 | 2021-05-28 | 欧姆龙株式会社 | Motion analysis device, motion analysis method, and storage medium |
| KR20230084002A (en) * | 2021-12-02 | 2023-06-12 | 한양대학교 에리카산학협력단 | Apparatus and method for diagnosing disease |
| KR102846981B1 (en) | 2021-12-02 | 2025-08-21 | 한양대학교 에리카산학협력단 | Apparatus and method for diagnosing disease |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6977901B2 (en) | Learning material recommendation method, learning material recommendation device and learning material recommendation program | |
| TWI718422B (en) | Method, device and equipment for fusing model prediction values | |
| JP6741504B2 (en) | Interview system | |
| JP6546922B2 (en) | Model-driven candidate sorting based on audio cues | |
| JP6838376B2 (en) | Methods, programs, and server devices for transmitting product-related information. | |
| US20190156177A1 (en) | Aspect Pre-selection using Machine Learning | |
| CN107097234A (en) | Robot control system | |
| JP2018032164A (en) | Interview system | |
| CN104993962A (en) | Method and system for acquiring terminal usage status | |
| JP2019091260A (en) | Apparatus, method and program for time-series analysis | |
| Jones | Developing cognitive theory by mining large-scale naturalistic data | |
| JP6970641B2 (en) | Emotion Guessing Method, Emotion Guessing Device and Program | |
| CN112347236A (en) | Intelligent engineering consultation method and system based on AI (Artificial Intelligence) calculated quantity and computer equipment thereof | |
| CN114444895B (en) | Cleaning quality assessment methods and related equipment | |
| Thiruthuvanathan et al. | Multitask EfficientNet affective computing for student engagement detection | |
| Swamy et al. | Voice assistant and facial analysis based approach to screen test clinical depression | |
| TWI524294B (en) | Online learning style automated diagnostic system, online learning style automated diagnostic method and computer readable recording medium | |
| KR20230049486A (en) | Political tendency analysis device and service providing method using the same | |
| JP2013115622A (en) | Sound information analyzing apparatus and sound information analysis program | |
| CN111949860B (en) | Method and apparatus for generating a relevance determination model | |
| CN119397094B (en) | Object recommendation method, object recommendation device, electronic device, and storage medium | |
| JP7616397B2 (en) | Apparatus, method and program for estimating dependent variable | |
| CN114298515B (en) | Method, device and storage medium for generating student quality portrait | |
| US11900327B2 (en) | Evaluation adjustment factoring for bias | |
| JP2020173415A (en) | Teaching material presentation system and teaching material presentation method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20171201 |