[go: up one dir, main page]

JP2019091260A - Apparatus, method and program for time-series analysis - Google Patents

Apparatus, method and program for time-series analysis Download PDF

Info

Publication number
JP2019091260A
JP2019091260A JP2017219805A JP2017219805A JP2019091260A JP 2019091260 A JP2019091260 A JP 2019091260A JP 2017219805 A JP2017219805 A JP 2017219805A JP 2017219805 A JP2017219805 A JP 2017219805A JP 2019091260 A JP2019091260 A JP 2019091260A
Authority
JP
Japan
Prior art keywords
time
user
feature
learning
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017219805A
Other languages
Japanese (ja)
Inventor
諾 張
Nuo Zhang
諾 張
友武 神津
Tomotake Kozu
友武 神津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deloitte Touche Tohmatsu LLC
Original Assignee
Deloitte Touche Tohmatsu LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deloitte Touche Tohmatsu LLC filed Critical Deloitte Touche Tohmatsu LLC
Priority to JP2017219805A priority Critical patent/JP2019091260A/en
Publication of JP2019091260A publication Critical patent/JP2019091260A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Complex Calculations (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an apparatus for time-series analysis capable of performing automatic analysis in accordance with a feature of the data by using time-series data of actions of a plurality of persons.SOLUTION: An apparatus for time-series analysis 1 in one embodiment of the present invention has an information acquisition part 111 that acquires time-series information of a first-user's feature and second-user's feature, a feature selection part 113 that selects a feature of a learning subject based on duration time occurring at the same time and different time for the first-user's feature and the second-user's feature, in the time-series information the information acquisition part 111 has acquired, and a learning part 114 that performs learning using the time-series information of the learning subject feature the feature selection part 113 has selected.SELECTED DRAWING: Figure 3

Description

本発明は、人の時系列の行動を分析する時系列分析装置、時系列分析方法及び時系列分析プログラムに関する。   The present invention relates to a time-series analysis device, a time-series analysis method, and a time-series analysis program for analyzing human time-series behavior.

近年、人の行動を分析することによって、行動の結果の予測を行う研究が行われている。非特許文献1には、店員と顧客との間のコミュニケーションにおいて、顧客の視線、姿勢等の複数の非言語行動を組み合わせた指標を分析することによって、顧客の心的状態を推定する技術が記載されている。   In recent years, research has been conducted to predict the outcome of behavior by analyzing human behavior. Non-Patent Document 1 describes a technology for estimating the mental state of a customer by analyzing an indicator combining a plurality of non-verbal behaviors such as the customer's gaze and attitude in communication between a store clerk and the customer. It is done.

本田秀仁、他3名、"対面販売場面における店員と顧客のインタラクション:非言語行動からの選好推定"、[online]、平成28年6月7日、人工知能学会、[平成29年10月6日検索]、インターネット〈URL:https://kaigi.org/jsai/webprogram/2016/pdf/47.pdf〉Hidehito Honda and 3 others, "Career-customer interaction in face-to-face sales situations: preference estimation from non-verbal behavior", [online], June 7, 2016, Japan Society for Artificial Intelligence, [October 6, 2017 Day Search], Internet <URL: https://kaigi.org/jsai/webprogram/2016/pdf/47.pdf>

しかしながら、非特許文献1に記載の技術は、顧客である人の行動のみに着目しており、店員である人の行動を考慮していない。また、非特許文献1は、人の手によって分析を行う方法を示しており、装置によって自動的に分析を行う方法を示していない。   However, the technology described in Non-Patent Document 1 focuses only on the behavior of the person who is the customer, and does not consider the behavior of the person who is the store clerk. In addition, Non-Patent Document 1 shows a method of performing analysis manually, and does not show a method of performing analysis automatically by an apparatus.

本発明は上述の点に鑑みてなされたものであり、複数の人の行動の時系列データを用いて、データの特徴に合わせて自動的に分析を行うことができる時系列分析装置、時系列分析方法及び時系列分析プログラムを提供することを目的とする。   The present invention has been made in view of the above-mentioned point, and a time-series analyzer capable of automatically analyzing according to the characteristics of data using time-series data of a plurality of human actions, a time-series analyzer An object of the present invention is to provide an analysis method and a time series analysis program.

本発明の第1の態様の時系列分析装置は、第1ユーザの特徴及び第2ユーザの特徴の時系列情報を取得する取得部と、前記取得部が取得した前記時系列情報において、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生した際の継続時間に基づいて、学習対象の特徴を選択する選択部と、前記選択部が選択した前記学習対象の特徴の時系列情報を用いて学習を行う学習部と、を有する。   In the time-series analysis apparatus according to the first aspect of the present invention, an acquisition unit for acquiring time-series information of a feature of a first user and a characteristic of a second user, and the time-series information acquired by the acquisition unit A selection unit for selecting a feature to be learned based on a duration when the feature of one user and the feature of the second user occur at the same time and different times; and the learning selected by the selection unit And a learning unit that performs learning using time-series information of the target feature.

前記時系列分析装置は、前記学習部が前記学習によって生成したモデルに、前記取得部が取得した前記時系列情報を入力することによって、前記取得部が取得した前記時系列情報による結果を予測する分析部をさらに有してもよい。   The time series analysis device predicts a result based on the time series information acquired by the acquisition unit by inputting the time series information acquired by the acquisition unit to a model generated by the learning unit by the learning. You may further have an analysis part.

前記選択部は、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生している時間範囲の平均値を、前記継続時間として算出してもよい。   The selection unit may calculate, as the duration, an average value of a time range in which the feature of the first user and the feature of the second user occur at the same time and different times.

前記選択部は、クロスリカレンス定量分析(Cross-Recurrence Quantification Analysis)によって、前記継続時間を算出してもよい。   The selection unit may calculate the duration by Cross-Recurrence Quantification Analysis.

前記選択部は、前記継続時間が所定の閾値以上である前記第1ユーザの前記特徴と前記第2ユーザの前記特徴との組み合わせの数に基づいて、前記学習対象の特徴を選択してもよい。   The selection unit may select the feature of the learning target based on the number of combinations of the feature of the first user and the feature of the second user whose duration is equal to or greater than a predetermined threshold. .

前記取得部は、前記第1ユーザ及び前記第2ユーザの身体部位を、前記第1ユーザ及び前記第2ユーザの前記特徴として取得してもよい。   The acquisition unit may acquire body parts of the first user and the second user as the features of the first user and the second user.

前記時系列分析装置は、前記第1ユーザの前記身体部位の位置を前記第1ユーザの身体の中心を基準とした座標に変換し、前記第2ユーザの前記身体部位の位置を前記第2ユーザの身体の中心を基準とした座標に変換する変換部をさらに有してもよい。   The time series analysis apparatus converts the position of the body part of the first user into coordinates based on the center of the body of the first user, and the position of the body part of the second user is the second user The image processing apparatus may further include a conversion unit that converts coordinates of the body center of the image.

前記学習部は、前記第1ユーザと前記第2ユーザとの間のインタラクションの結果が肯定的であるか否かの学習を行ってもよい。   The learning unit may perform learning as to whether the result of the interaction between the first user and the second user is positive.

前記学習部は、前記第1ユーザの行動パターンと前記第2ユーザの行動パターンとが同一であるか否かの学習を行ってもよい。   The learning unit may perform learning as to whether or not the action pattern of the first user and the action pattern of the second user are the same.

前記学習部は、所定の長さの時間窓内の前記学習対象の特徴の時系列情報を用いた学習を、前記時間窓をずらしながら繰り返し行ってもよい。   The learning unit may repeat learning using time-series information of the feature to be learned within a time window of a predetermined length while shifting the time window.

前記取得部は、前記第1ユーザ及び前記第2ユーザの発した言語を、前記第1ユーザ及び前記第2ユーザの前記特徴として取得してもよい。   The acquisition unit may acquire the language spoken by the first user and the second user as the feature of the first user and the second user.

前記取得部は、前記第1ユーザ及び前記第2ユーザの発した言語から単語を抽出し、抽出した前記単語をクラスタリングすることによって生成したクラスタを、前記第1ユーザ及び前記第2ユーザの前記特徴として取得してもよい。   The acquisition unit extracts a word from a language spoken by the first user and the second user, and clusters the generated word by clustering the features of the first user and the second user. It may be acquired as

本発明の第2の態様の時系列分析方法は、コンピュータが実行する、第1ユーザの特徴及び第2ユーザの特徴の時系列情報を取得するステップと、前記取得するステップで取得された前記時系列情報において、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生した際の継続時間に基づいて、学習対象の特徴を選択するステップと、前記選択するステップで選択された前記学習対象の特徴の時系列情報を用いて学習を行うステップと、を有する。   In the time-series analysis method of the second aspect of the present invention, the computer executes the steps of acquiring time-series information of the features of the first user and the features of the second user, and the time acquired in the acquiring step Selecting, on the basis of sequence information, a feature to be learned on the basis of a duration when the feature of the first user and the feature of the second user occur at the same time and at different times; Performing learning using time-series information of the feature to be learned selected in the step.

本発明の第3の態様の時系列分析プログラムは、プロセッサを、第1ユーザの特徴及び第2ユーザの特徴の時系列情報を取得する取得部、前記取得部が取得した前記時系列情報において、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生した際の継続時間に基づいて、学習対象の特徴を選択する選択部、及び前記選択部が選択した前記学習対象の特徴の時系列情報を用いて学習を行う学習部、として機能させる。   The time-series analysis program according to the third aspect of the present invention is an acquisition unit that acquires time-series information of a feature of a first user and a feature of a second user in a processor, and the time-series information acquired by the acquisition unit A selecting unit that selects a feature to be learned based on a duration when the feature of the first user and the feature of the second user occur at the same time and different times; and the selecting unit selects It functions as a learning unit that performs learning using time-series information of the feature to be learned.

本発明によれば、複数の人の行動の時系列データを用いて自動的に分析を行うことができる。   According to the present invention, analysis can be performed automatically using time series data of a plurality of people's actions.

第1の実施形態に係る時系列分析システムの模式図である。It is a schematic diagram of the time-series analysis system which concerns on 1st Embodiment. ユーザ間の動きの共起関係の模式図である。It is a schematic diagram of the co-occurrence relation of the movement between users. 第1の実施形態に係る時系列分析装置のブロック図である。It is a block diagram of a time-series analysis device concerning a 1st embodiment. 第1の実施形態に係る情報取得部が取得するユーザの身体部位の位置を示す模式図である。It is a schematic diagram which shows the position of the user's body site | part which the information acquisition part which concerns on 1st Embodiment acquires. 第1の実施形態に係る特徴選択部が生成する反復プロットを示す図である。It is a figure which shows the repetitive plot which the feature selection part which concerns on 1st Embodiment produces | generates. 第1の実施形態に係る特徴選択部が算出するTT(Trapping Time)指標を示す図である。It is a figure which shows TT (Trapping Time) index which the feature selection part which concerns on 1st Embodiment calculates. 第1の実施形態に係る時系列分析装置による時系列分析方法のフローチャートを示す図である。It is a figure which shows the flowchart of the time-series analysis method by the time-series analyzer which concerns on 1st Embodiment. 第1の実施形態に係る学習処理のフローチャートを示す図である。It is a figure which shows the flowchart of the learning process which concerns on 1st Embodiment. 第1の実施形態に係る分析処理のフローチャートを示す図である。It is a figure which shows the flowchart of the analysis process which concerns on 1st Embodiment. 第2の実施形態に係る学習処理のフローチャートを示す図である。It is a figure which shows the flowchart of the learning process which concerns on 2nd Embodiment. 第3の実施形態に係る学習処理のフローチャートを示す図である。It is a figure which shows the flowchart of the learning process which concerns on 3rd Embodiment. 第4の実施形態に係る学習処理のフローチャートを示す図である。It is a figure which shows the flowchart of the learning process which concerns on 4th Embodiment.

(第1の実施形態)
図1は、本実施形態に係る時系列分析システムSの模式図である。時系列分析システムSは、時系列分析装置1と、表示部14と、撮像部15と、音声入力部16と、を含む。時系列分析システムSは、その他のサーバ、端末等の機器を含んでもよい。
First Embodiment
FIG. 1 is a schematic view of a time-series analysis system S according to the present embodiment. The time series analysis system S includes a time series analysis device 1, a display unit 14, an imaging unit 15, and an audio input unit 16. The time series analysis system S may include devices such as other servers and terminals.

表示部14は、液晶ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等、時系列分析装置1から受信した情報を表示可能な表示装置である。表示部14は、時系列分析装置1による分析の結果等を表示する。   The display unit 14 is a display device capable of displaying information received from the time series analysis device 1 such as a liquid crystal display or a CRT (Cathode Ray Tube) display. The display unit 14 displays the result of analysis by the time series analyzer 1 and the like.

撮像部15は、ユーザを撮像して画像を取得する撮像装置である。撮像部15は、CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子を含む。撮像部15は、時系列で取得した画像を示す情報を時系列分析装置1に送信する。時系列で取得した画像は、動画であってもよく、又は所定の時間間隔で撮像された一群の静止画であってもよい。撮像部15は、分析対象の1人又は複数人のユーザの全身あるいは体の一部を撮像できる位置に設けられる。撮像部15は、複数設けられてもよい。   The imaging unit 15 is an imaging device that captures a user and acquires an image. The imaging unit 15 includes an imaging element such as a charge coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor. The imaging unit 15 transmits information indicating images acquired in time series to the time series analysis device 1. The images acquired in time series may be moving images or a group of still images captured at predetermined time intervals. The imaging unit 15 is provided at a position at which the whole body or a part of the body of one or more users to be analyzed can be imaged. A plurality of imaging units 15 may be provided.

音声入力部16は、ユーザが発した音声を取得するマイクロフォンである。音声入力部16は、時系列で取得した音声を示す情報を時系列分析装置1に送信する。音声入力部16は、分析対象の1人又は複数人のユーザの音声を取得できる位置に設けられる。音声入力部16は、複数設けられてもよい。   The voice input unit 16 is a microphone for acquiring voices uttered by the user. The voice input unit 16 transmits, to the time series analysis device 1, information indicating the voices acquired in time series. The voice input unit 16 is provided at a position where voices of one or more users to be analyzed can be obtained. A plurality of voice input units 16 may be provided.

時系列分析装置1は、単一のコンピュータ、又はコンピュータ資源の集合であるクラウドによって構成される装置である。時系列分析装置1は、撮像部15が取得した時系列の画像及び音声入力部16が取得した時系列の音声の少なくとも一方を用いて学習を行う。さらに時系列分析装置1は、撮像部15が取得した画像及び音声入力部16が取得した音声の少なくとも一方に、学習で得られたモデルを適用することによって、結果の予測等の分析を行う。   The time-series analysis device 1 is a device configured by a single computer or a cloud that is a collection of computer resources. The time-series analysis device 1 performs learning using at least one of time-series images acquired by the imaging unit 15 and time-series speech acquired by the voice input unit 16. Furthermore, the time-series analysis device 1 analyzes the result such as prediction by applying a model obtained by learning to at least one of the image acquired by the imaging unit 15 and the sound acquired by the voice input unit 16.

[動きの共起関係の説明]
図2は、ユーザ間の動きの共起関係の模式図である。図2は、販売者U1(第1ユーザ)と購買者U2(第2ユーザ)との間のインタラクション(相互作用)を例示している。販売者U1の目的は、購買者U2を説得して商品を購買してもらうことである。
[Description of co-occurrence relationship of movement]
FIG. 2 is a schematic view of a co-occurrence relation of movement between users. FIG. 2 illustrates the interaction between the seller U1 (first user) and the buyer U2 (second user). The purpose of the seller U1 is to persuade the buyer U2 to purchase a product.

販売者U1の話を聞いた購買者U2の反応は、興味を示すか示さないかで異なる。購買者U2は、販売者U1の説明に対して、興味がある場合には体の動きの反応が大きく、動く時間が長くなる傾向があり、興味がない場合には体の動きの反応が小さく、動く時間が短くなる傾向がある。商品の販売に限られず、打ち合わせや会話等のインタラクションにおいても、興味を示したか否かによって、反応の傾向が変化する。   The reaction of the buyer U2 who has heard the story of the seller U1 differs depending on whether or not it shows interest. The buyer U2 responds to the description of the seller U1 if he is interested, the reaction of the body movement tends to be long and the movement time tends to be long, and if he is not interested, the reaction of the body movement is small. The movement time tends to be short. The tendency of reaction changes depending on whether or not you show interest in interactions such as meetings and conversations as well as sales of products.

例えば図2に示すように、説明を行っている販売者U1の特定の身体部位が動いた後、購買者U2が説明に興味がある場合に購買者U2の特定の身体部位は動き、購買者U2が説明に興味がない場合に購買者U2の特定の身体部位は動かない。このような販売者U1の説明に対する購買者U2の反応は、購買者U2が思考を行ってから発生するため、販売者U1の説明から遅れ(すなわち時間遅延)が発生する。   For example, as shown in FIG. 2, after a particular body part of seller U1 giving an explanation moves, if a buyer U2 is interested in the explanation, a specific body part of buyer U2 will move, the buyer The particular body part of the buyer U2 does not move if U2 is not interested in the explanation. Since the reaction of the buyer U2 to the description of the seller U1 occurs after the buyer U2 thinks, a delay (that is, a time delay) occurs from the description of the seller U1.

2人のユーザの身体部位の組み合わせは大量に存在するが、興味を示したか否かによって反応の傾向が変化するのはそのうち一部の組み合わせである。本実施形態に係る時系列分析装置1は、2人のユーザの動きの時間遅延を考慮した共起関係に基づいて、結果の分析に重要な身体部位(特徴)を選択し、選択した身体部位を用いて学習及び分析を行う。   Although there are a large number of combinations of body parts of two users, it is a combination of some of them that changes the tendency of the reaction depending on whether or not they show interest. The time-series analysis device 1 according to the present embodiment selects a body part (feature) important for analysis of the result based on the co-occurrence relation in which the time delay of the movement of two users is considered, and the selected body part Learn and analyze using

このように時系列分析装置1は、結果の分析に重要な身体部位(特徴)を選択的に学習及び分析に用いるため、学習及び分析の精度を高めることができ、また計算に掛かる時間を短縮できる。   As described above, since the time-series analysis apparatus 1 selectively uses body parts (features) important for analysis of the results for learning and analysis, the accuracy of learning and analysis can be enhanced, and the time taken for calculation is shortened. it can.

ここでは時系列分析装置1は、例としてユーザ間の商品の販売を分析したが、これに限られず、契約、合意、説得等、結果が肯定的か否かを判定可能な任意のユーザ間のインタラクションを分析することができる。   Here, although the time-series analysis device 1 analyzes sales of goods between users as an example, the present invention is not limited to this, and it is possible to determine whether the result is positive or not, such as contract, agreement, and persuasion, among arbitrary users Interaction can be analyzed.

[時系列分析装置1の構成]
図3は、本実施形態に係る時系列分析装置1のブロック図である。図3において、矢印は主なデータの流れを示しており、図3に示したもの以外のデータの流れがあってよい。図3において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図3に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
[Configuration of Time Series Analyzer 1]
FIG. 3 is a block diagram of the time series analysis device 1 according to the present embodiment. In FIG. 3, arrows indicate the flow of main data, and there may be flows of data other than those shown in FIG. In FIG. 3, each block is not a hardware (apparatus) -based configuration but a function-based configuration. Thus, the blocks shown in FIG. 3 may be implemented in a single device, or may be implemented separately in multiple devices. Transfer of data between the blocks may be performed via any means such as a data bus, a network, a portable storage medium, and the like.

時系列分析装置1は、制御部11と、インターフェース12と、記憶部13と、を有する。制御部11は、情報取得部111と、情報変換部112と、特徴選択部113と、学習部114と、分析部115と、を有する。   The time series analyzer 1 includes a control unit 11, an interface 12, and a storage unit 13. The control unit 11 includes an information acquisition unit 111, an information conversion unit 112, a feature selection unit 113, a learning unit 114, and an analysis unit 115.

インターフェース12は、表示部14、撮像部15及び音声入力部16との間で信号の授受をするためのインターフェースである。インターフェース12は、表示部14、撮像部15及び音声入力部16から受信した信号に所定の処理を行ってデータを取得し、取得したデータを制御部11に入力する。また、インターフェース12は、制御部11から入力されたデータに所定の処理を行って信号を生成し、生成した信号を表示部14、撮像部15及び音声入力部16に送信する。   The interface 12 is an interface for exchanging signals with the display unit 14, the imaging unit 15, and the voice input unit 16. The interface 12 performs predetermined processing on the signals received from the display unit 14, the imaging unit 15, and the voice input unit 16 to acquire data, and inputs the acquired data to the control unit 11. The interface 12 also performs predetermined processing on the data input from the control unit 11 to generate a signal, and transmits the generated signal to the display unit 14, the imaging unit 15, and the voice input unit 16.

記憶部13は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部13は、制御部11が実行するプログラムを予め記憶している。   The storage unit 13 is a storage medium including a read only memory (ROM), a random access memory (RAM), a hard disk drive, and the like. The storage unit 13 stores in advance a program to be executed by the control unit 11.

制御部11は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部13に記憶されたプログラムを実行することにより、情報取得部111、情報変換部112、特徴選択部113、学習部114及び分析部115として機能する。制御部11の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部11の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。   The control unit 11 is a processor such as a central processing unit (CPU), for example, and executes the program stored in the storage unit 13 to obtain an information acquisition unit 111, an information conversion unit 112, a feature selection unit 113, and a learning unit 114. And functions as an analysis unit 115. At least a part of the functions of the control unit 11 may be performed by an electric circuit. In addition, at least a part of the functions of the control unit 11 may be executed by a program executed via a network.

本実施形態に係る時系列分析装置1は、図3に示す具体的な構成に限定されない。例えば時系列分析装置1は、1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。   The time-series analyzer 1 according to the present embodiment is not limited to the specific configuration shown in FIG. For example, the time-series analyzer 1 is not limited to one device, and may be configured by connecting two or more physically separated devices in a wired or wireless manner.

情報取得部111は、撮像部15によって取得された時系列の画像情報を取得する。情報取得部111は、撮像部15から撮像された画像情報を都度取得してもよく、又は撮像部15から所定の時間範囲の画像情報をまとめて取得してもよい。また、情報取得部111は、記憶部13に記憶された画像情報を読み出して取得してもよい。学習及び分析に音声を用いる場合には、情報取得部111は、音声入力部16によって取得された時系列の音声情報を取得してもよい。   The information acquisition unit 111 acquires time-series image information acquired by the imaging unit 15. The information acquisition unit 111 may acquire image information captured from the imaging unit 15 each time, or may collectively acquire image information of a predetermined time range from the imaging unit 15. Further, the information acquisition unit 111 may read and acquire the image information stored in the storage unit 13. When using speech for learning and analysis, the information acquisition unit 111 may acquire time-series speech information acquired by the speech input unit 16.

情報取得部111は、取得した時系列の画像情報に人体検出技術を適用することによって、各ユーザの各身体部位の時系列の位置を算出する。人体検出技術として、公知の技術を用いることができる。   The information acquisition unit 111 calculates the time-series position of each body part of each user by applying the human body detection technology to the acquired time-series image information. Known techniques can be used as human body detection techniques.

図4は、本実施形態に係る情報取得部111が取得するユーザの身体部位Pの位置を示す模式図である。図4には、各身体部位Pの位置及び人体の中心Cの位置が表されている。情報変換部112は、身体部位Pとして人体の主要な関節を用いる。これに限らず、身体部位Pとして、人体を撮像した画像から検出可能な所定の部位を用いることができる。   FIG. 4 is a schematic view showing the position of the body part P of the user acquired by the information acquisition unit 111 according to the present embodiment. The position of each body part P and the position of the center C of the human body are shown in FIG. The information conversion unit 112 uses the main joints of the human body as the body part P. Not limited to this, as the body part P, a predetermined part that can be detected from an image obtained by imaging a human body can be used.

情報取得部111は、人体検出技術によってある時点における各身体部位Pの位置を算出する。情報取得部111は、算出した身体部位Pの位置から、人体の中心C(例えば重心)の位置を算出する。情報取得部111は、時系列の画像の各時点について算出した身体部位Pの位置及び中心Cの位置を、時系列の情報として記憶部13に記憶させる。   The information acquisition unit 111 calculates the position of each body part P at a certain point in time by human body detection technology. The information acquisition unit 111 calculates the position of the center C (for example, the center of gravity) of the human body from the calculated position of the body part P. The information acquisition unit 111 causes the storage unit 13 to store the position of the body part P and the position of the center C calculated for each time point of the time-series image as time-series information.

情報変換部112は、情報取得部111が算出した各身体部位Pの位置に対して、特徴空間変換を実行する。人体検出技術においては、データ取得の環境や取得設備の影響で、全ユーザで共通の空間、あるいは異なる空間における座標を身体部位Pの位置として算出する様々な場合がある。特徴空間変換とは、身体部位Pの位置を、共通の空間あるいは異なる空間における座標から、ユーザごとの空間における座標へ変換することをいう。これにより、ユーザ間の身体部位の動きの類似性を判別することができる。   The information conversion unit 112 performs feature space conversion on the position of each body part P calculated by the information acquisition unit 111. In the human body detection technology, there are various cases where coordinates in a space common to all users or in different spaces are calculated as the position of the body part P due to the influence of the environment of data acquisition and acquisition equipment. The feature space conversion means converting the position of the body part P from coordinates in a common space or different spaces to coordinates in a space for each user. Thereby, the similarity of the movement of the body part between the users can be determined.

具体的には、情報変換部112は、式(1)を用いて身体部位Pの3次元座標の特徴空間変換を行う。   Specifically, the information conversion unit 112 performs feature space conversion of three-dimensional coordinates of the body part P using Expression (1).

Figure 2019091260
Figure 2019091260

式(1)のx座標、y座標、z座標のそれぞれについて、付記されているNormは身体部位Pの変換後の座標を示し、付記されているθは身体部位Pの変換前の座標を示し、付記されているBodyCenterは中心Cの座標を示す。式(1)によって、身体部位Pの3次元座標は、各ユーザの中心Cを基準とした座標に変換される。以下では、各身体部位Pの位置として変換後の座標を用いて処理を行う。   For each of the x coordinate, y coordinate, and z coordinate in equation (1), the appended Norm indicates the transformed coordinates of the body part P, and the appended θ indicates the coordinates before conversion of the body part P. , BodyCenter attached indicates the coordinates of the center C. The three-dimensional coordinates of the body part P are converted into coordinates based on the center C of each user according to Equation (1). In the following, processing is performed using the coordinates after conversion as the position of each body part P.

特徴選択部113は、時間遅延を考慮した、ユーザ間の身体部位Pの動きの関係に基づいて、結果の分析に対して重要な身体部位P(特徴)を選択する。ユーザ間の身体部位Pの動きの関係を評価するために、まず特徴選択部113は、ユーザ間の身体部位Pの各組み合わせについて、CRQA(クロスリカレンス定量分析:Cross-Recurrence Quantification Analysis)の反復プロット(Recurrence Plot)を生成する。   The feature selection unit 113 selects a body part P (feature) that is important for the analysis of the result based on the movement relationship of the body part P between the users in consideration of the time delay. In order to evaluate the relationship of movement of body part P between users, first, feature selection unit 113 repeats CRQA (Cross Recurrence Quantification Analysis) for each combination of body parts P between users. Generate a plot (Recurrence Plot).

ここでは、身体部位Pのx座標、y座標及びz座標をそれぞれ独立した特徴として扱う。すなわち特徴選択部113は、販売者U1の右手のx座標と購買者U2の右手のx座標との組み合わせ、販売者U1の右手のx座標と購買者U2の右手のy座標との組み合わせ、販売者U1の右手のx座標と購買者U2の右手のz座標との組み合わせ、販売者U1の右手のx座標と購買者U2の右肘のx座標との組み合わせなどのように、各身体部位Pの各座標の全ての組み合わせの反復プロットを生成する。   Here, the x coordinate, y coordinate and z coordinate of the body part P are treated as independent features. That is, the feature selection unit 113 combines the x-coordinate of the seller U1's right hand with the x-coordinate of the buyer U2's right hand, the combination of the x-coordinate of the seller U1's right hand and the y-coordinate of the buyer U2's right hand, Each body part P, such as the combination of the x coordinate of the right hand of the person U1 and the z coordinate of the right hand of the buyer U2, the combination of the x coordinate of the right hand of the seller U1 and the x coordinate of the right elbow of the buyer U2, etc. Generate repeated plots of all combinations of each coordinate of.

図5は、本実施形態に係る特徴選択部113が1つの身体部位Pの組み合わせについて生成する反復プロットAを示す図である。図5の反復プロットAは、例えば販売者U1の右手のx座標と購買者U2の右手のx座標との組み合わせを対象とする。反復プロットAの横軸は販売者U1についての時間を表し、縦軸は購買者U2についての時間を表す。反復プロットA上には、販売者U1の身体部位Pと購買者U2の身体部位Pとの両方の時系列の位置が変化した(すなわち動いた)ことを示す共起領域A1が生成されている。例えば反復プロットAは、販売者U1の右手のx座標の変化の影響を受けて、購買者U2の右手のx座標が変化したことを表している。反復プロットAを生成するため、公知の最適化手法を利用する。また、関連パラメータを複数回で無作為に選択し、実験により最適なパラメータを利用してもよい。   FIG. 5 is a diagram showing a repeated plot A generated by the feature selection unit 113 according to the present embodiment for a combination of one body part P. As shown in FIG. The repeated plot A in FIG. 5 is, for example, directed to the combination of the x-coordinate of the right hand of the seller U1 and the x-coordinate of the right hand of the buyer U2. The horizontal axis of repeated plot A represents the time for seller U1, and the vertical axis represents the time for buyer U2. On the repeated plot A, a co-occurrence region A1 is generated which indicates that the positions of the time series of both the body part P of the seller U1 and the body part P of the purchaser U2 are changed (that is, moved). . For example, the repeated plot A represents that the x-coordinate of the right hand of the buyer U2 has changed under the influence of the change of the x-coordinate of the right hand of the seller U1. To generate the repeated plot A, use known optimization techniques. In addition, relevant parameters may be randomly selected at a plurality of times, and optimal parameters may be used by experiments.

反復プロットAは、販売者U1の時間と購買者U2の時間とをずらしながら、販売者U1の身体部位Pと購買者U2の身体部位Pとが両方動いている(例えば位置の変化量が所定の閾値以上である)時間をプロットしたものである。例えば販売者U1の身体部位Pがt1秒〜t2秒に動いており、購買者U2の身体部位Pがt3秒〜t4秒及びt5秒〜t6秒に動いているものとする。この場合には、特徴選択部113は、図5に示すように、販売者U1のt1秒〜t2秒と購買者U2のt3秒〜t4秒及びt5秒〜t6秒とが共通する部分を共起領域A1として反復プロットA上に生成する。図5には視認性のために一部の共起領域A1のみが表されているが、より多くの共起領域A1が生成されてもよい。   In the repeated plot A, both the body part P of the seller U1 and the body part P of the buyer U2 are moving while shifting the time of the seller U1 and the time of the buyer U2 (for example, the amount of change in position is predetermined) Time) or more) is plotted. For example, it is assumed that the body part P of the seller U1 moves from t1 seconds to t2 seconds, and the body part P of the buyer U2 moves from t3 seconds to t4 seconds and t5 seconds to t6 seconds. In this case, as shown in FIG. 5, the feature selection unit 113 shares portions where t1 seconds to t2 seconds of the seller U1 and t3 seconds to t4 seconds and t5 seconds to t6 seconds of the buyer U2 are common. It is generated on the repeated plot A as the origin area A1. Although only a part of the co-occurrence area A1 is shown in FIG. 5 for visibility, more co-occurrence areas A1 may be generated.

このような反復プロットAによって、ユーザ間の身体部位Pの組み合わせにおける時間的遅延を考慮した共起関係が抽出される。そのため、特徴選択部113は、反復プロットAに基づいて、販売者U1の特定の身体部位Pの動きと同じ時間及び異なる時間において購買者U2の特定の身体部位Pの動きが発生するという関係の存在を判定することができる。   Such repeated plot A extracts a co-occurrence relation in consideration of temporal delays in combinations of body parts P between users. Therefore, based on the repeated plot A, the feature selection unit 113 generates the relation that the movement of the specific body part P of the buyer U2 occurs at the same time and a different time as the movement of the specific body part P of the seller U1. The presence can be determined.

そして特徴選択部113は、ユーザ間の身体部位Pの各組み合わせについて生成した反復プロットAに対して、式(2)を用いてCRQAのTT(Trapping Time)指標を算出する。   Then, the feature selection unit 113 calculates a TT (Trapping Time) index of CRQA using the equation (2) with respect to the repeated plot A generated for each combination of body parts P between users.

Figure 2019091260
Figure 2019091260

式(2)において、TTはTT指標を示し、vは反復プロットAの共起領域A1の垂直方向の時間長を示し、P(v)はvの頻度分布を示す。TT指標は、反復プロットAの共起領域A1の垂直方向の平均時間長である。すなわちTT指標は、販売者U1の動きに対して購買者U2の動きが発生したこと(共起したこと)の継続時間を示す指標である。   In equation (2), TT represents a TT index, v represents the vertical time length of the co-occurrence region A1 of the repeated plot A, and P (v) represents a frequency distribution of v. The TT index is the average time length in the vertical direction of the co-occurrence area A1 of the repeated plot A. That is, the TT index is an index indicating the duration of the occurrence (co-occurrence) of the movement of the buyer U2 with respect to the movement of the seller U1.

TT指標は、ユーザ間の身体部位Pの動きが同時又は遅延して発生することを示す指標である。あるユーザ間の身体部位Pの組み合わせについて算出されたTT指標が大きいほど、ユーザ間の身体部位Pの動きが同時又は遅延して発生する頻度が高い又は継続時間が長いことを示す。そのためTT指標の大きさは、ユーザ間の身体部位Pの関係の強さに対応する。   The TT index is an index indicating that the movement of the body part P between users occurs simultaneously or delayed. The larger the TT index calculated for the combination of body parts P between certain users, the higher the frequency or the longer the occurrence of simultaneous or delayed movement of the body parts P between users. Therefore, the size of the TT index corresponds to the strength of the relationship of the body part P between the users.

図6は、本実施形態に係る特徴選択部113がユーザ間の身体部位Pの各組み合わせについて算出したTT指標の分布図Bを示す図である。分布図Bは、本明細書においてTT指標の説明のために用いるものであり、特徴選択部113がこれを生成する必要はない。   FIG. 6 is a view showing a distribution map B of the TT index calculated by the feature selection unit 113 according to the present embodiment for each combination of body parts P between users. The distribution diagram B is used herein to explain the TT index, and the feature selection unit 113 does not have to generate it.

分布図Bの横軸は販売者U1の各身体部位Pの各座標を識別する番号を表し、縦軸は購買者U2の各身体部位Pの各座標を識別する番号を表している。図6では視認性のために横軸及び縦軸としてそれぞれ20個の身体部位Pを表しているが、実際には横軸及び縦軸はそれぞれ計算に用いた身体部位Pの数に対応する。分布図Bは、TT指標が所定の閾値以上である身体部位Pの組み合わせを黒いセルB1で、TT指標が所定の閾値未満である身体部位Pの組み合わせを白いセルB2で表している。   The horizontal axis of the distribution diagram B represents the number identifying each coordinate of each body part P of the seller U1, and the vertical axis represents the number identifying each coordinate of each body part P of the buyer U2. Although FIG. 6 shows 20 body parts P as the horizontal axis and the vertical axis for visibility, in fact, the horizontal axis and the vertical axis correspond to the number of body parts P used for the calculation. The distribution diagram B represents a combination of body parts P in which the TT index is equal to or greater than a predetermined threshold with a black cell B1, and a combination of body parts P with a TT index less than the predetermined threshold in a white cell B2.

分布図Bは、販売者U1の各身体部位Pの動きに対する購買者U2の各身体部位Pの動きの反応を表している。例えば販売者U1の番号10の身体部位Pの座標は、購買者U2の番号2、7、10、13、16(合計5個)に対してTT指標が所定の閾値以上になっている。このように相手の多数の身体部位Pの動きと関連する身体部位Pは、結果の分析に重要である。そこで特徴選択部113は、TT指標に基づいて、結果の分析に用いる身体部位P(特徴)を選択する。   The distribution diagram B shows the reaction response of the movement of each body part P of the buyer U2 to the movement of each body part P of the seller U1. For example, with respect to the coordinates of the body part P of the number 10 of the seller U1, the TT index is equal to or more than the predetermined threshold with respect to the numbers 2, 7, 10, 13, 16 (total five) of the buyer U2. The body part P thus associated with the movement of the many other body parts P is important for the analysis of the results. Therefore, the feature selection unit 113 selects a body part P (feature) to be used for analysis of the result based on the TT index.

具体的には、特徴選択部113は、TT指標が所定の閾値以上であるユーザ間の身体部位Pの組み合わせの数に基づいて、結果の分析に用いる身体部位Pを選択する。より具体的には、特徴選択部113は、TT指標が所定の閾値以上であるセルB1が所定の数以上の列に対応している販売者U1の身体部位Pを、結果の分析に用いる身体部位Pとして選択する。あるいは、特徴選択部113は、TT指標が所定の閾値以上であるセルB1の数が多い順に所定の数の販売者U1の身体部位Pを、結果の分析に用いる身体部位Pとして選択する。   Specifically, the feature selection unit 113 selects a body part P to be used for analysis of the result based on the number of combinations of body parts P between users whose TT index is equal to or greater than a predetermined threshold value. More specifically, the feature selection unit 113 uses the body part P of the seller U1 whose cell B1 whose TT index is equal to or more than a predetermined threshold corresponds to a predetermined number or more of columns for analysis of the result. Select as site P. Alternatively, the feature selection unit 113 selects a predetermined number of body parts P of the seller U1 as body parts P to be used for analysis of results in descending order of the number of cells B1 whose TT index is equal to or more than a predetermined threshold.

このような構成により、時系列分析装置1は、相手に対して多くの動きを引き起こす身体部位P(特徴)を選択的に学習及び分析に用いることができる。ここに示したTT指標に基づく身体部位Pの選択条件は一例であり、特徴選択部113は、その他の選択条件を用いてもよい。   With such a configuration, the time-series analyzer 1 can selectively use body parts P (features) that cause many movements with respect to the other party for learning and analysis. The selection condition of the body part P based on the TT index shown here is an example, and the feature selection unit 113 may use other selection conditions.

選択の精度を向上させるために、特徴選択部113は、複数の販売者U1と購買者U2とのペアについて身体部位Pの時系列の位置を収集し、それらの平均をとって反復プロットAを生成し、身体部位Pを選択してもよい。   In order to improve the accuracy of selection, the feature selection unit 113 collects the time-series positions of the body part P for a plurality of seller U1 and buyer U2 pairs, averages them, and obtains an iterative plot A. It may be generated and the body part P may be selected.

選択の精度を向上させるために、特徴選択部113は、複数の販売者U1と購買者U2とのペアについて身体部位Pの時系列の位置を収集し、各ペアにおいて販売者U1に対する購買者U2のTT指標の分布図Bと、購買者U2に対する販売者U1のTT指標の分布図Bを算出する。特徴選択部113は、各分布図Bの横軸における共通の重要な身体部位Pを選択してもよい。   In order to improve selection accuracy, the feature selection unit 113 collects time series positions of the body part P for a plurality of seller U1 and buyer U2 pairs, and in each pair, the buyer U2 for the seller U1 The distribution map B of the TT index of B and the distribution map B of the TT index of the seller U1 for the buyer U2 are calculated. The feature selection unit 113 may select a common important body part P on the horizontal axis of each distribution map B.

選択の精度を向上させるために、特徴選択部113は、複数の販売者U1と購買者U2とのペアについて身体部位Pの時系列の位置を収集し、各ペアにおいて販売者U1に対する購買者U2のTT指標の分布図Bと、購買者U2に対する販売者U1のTT指標の分布図Bを算出する。各TT指標の分布図Bは、ガンマ分布に従うことから、ガンマ分布に従うTT指標において、原点から離れている、所定閾値以上の範囲に分布しているTT指標値が対応している、複数の販売者U1と購買者U2における共通な重要な身体部位Pを選択してもよい。   In order to improve selection accuracy, the feature selection unit 113 collects time series positions of the body part P for a plurality of seller U1 and buyer U2 pairs, and in each pair, the buyer U2 for the seller U1 The distribution map B of the TT index of B and the distribution map B of the TT index of the seller U1 for the buyer U2 are calculated. The distribution map B of each TT index follows the gamma distribution, and therefore, in the TT index according to the gamma distribution, a plurality of sales corresponding to TT index values distributed in a range greater than or equal to a predetermined threshold away from the origin A common important body part P in the person U1 and the buyer U2 may be selected.

時系列情報の学習を行う際に、学習部114は、特徴選択部113が選択した販売者U1及び購買者U2の身体部位P(特徴)の時系列の位置に対して学習技術を適用することによって、学習を実行する。学習部114は、学習の教師データとして、入力データにおいて販売者U1から購買者U2への販売(契約、合意、説得等でもよい)が成功したか否か(すなわち結果が肯定的か否か)の情報を用いる。学習部114は、学習を実行することによって、結果を予測するためのモデルを生成して記憶部13に記憶させる。学習技術として、ニューラルネットワーク、サポートベクトルマシン等の公知の学習技術を用いることができる。   When learning time-series information, the learning unit 114 applies the learning technology to the time-series position of the body part P (feature) of the seller U1 and the buyer U2 selected by the feature selection unit 113. To carry out learning. The learning unit 114 determines whether sales (a contract, an agreement, a persuasion, etc. may be successful) from the seller U1 to the buyer U2 in the input data as teacher data for learning (that is, whether the result is positive or not). Use the information in The learning unit 114 performs learning to generate a model for predicting the result and store the model in the storage unit 13. As learning techniques, known learning techniques such as neural networks and support vector machines can be used.

時系列情報の分析を行う際に、分析部115は、記憶部13から学習部114が生成したモデルを読み出す。そして分析部115は、読み出したモデルに特徴選択部113が選択した販売者U1及び購買者U2の身体部位P(特徴)の時系列の位置を入力することによって、分析を実行する。モデルは、入力された販売者U1及び購買者U2の身体部位Pの時系列の位置から、販売者U1と購買者U2とのインタラクションの結果が肯定的か否かを予測する。そして分析部115は、モデルによって予測された結果を取得し、表示部14に表示させ、又は記憶部13に記憶させる。   When analyzing time series information, the analysis unit 115 reads the model generated by the learning unit 114 from the storage unit 13. Then, the analysis unit 115 performs analysis by inputting the time-series positions of the body part P (feature) of the seller U1 and the purchaser U2 selected by the feature selection unit 113 into the read out model. The model predicts whether the result of the interaction between the seller U1 and the buyer U2 is positive or not from the position of the time series of the body part P of the seller U1 and the buyer U2 inputted. Then, the analysis unit 115 acquires the result predicted by the model, causes the display unit 14 to display the result, or causes the storage unit 13 to store the result.

このように、本実施形態に係る時系列分析装置1は、時間遅延を考慮した、ユーザ間の身体部位Pの動きの関係に基づいて、結果の分析に対して重要な身体部位P(特徴)を選択し、選択した身体部位Pを用いて学習及び分析を行う。そのため、学習及び分析の精度を高めることができ、また計算に掛かる時間を短縮できる。   Thus, the time-series analysis apparatus 1 according to the present embodiment is an important body part P (characteristic) for analysis of the result based on the relationship of movement of the body part P between users in consideration of time delay. And perform learning and analysis using the selected body part P. Therefore, the accuracy of learning and analysis can be improved, and the time required for calculation can be shortened.

[時系列分析方法のフローチャート]
図7は、本実施形態に係る時系列分析装置1による時系列分析方法のフローチャートを示す図である。図7のフローチャートは、例えばユーザが時系列分析装置1に対して所定の開始操作を行うことによって開始される。
[Flowchart of time series analysis method]
FIG. 7 is a view showing a flowchart of a time series analysis method by the time series analysis device 1 according to the present embodiment. The flowchart of FIG. 7 is started, for example, when the user performs a predetermined start operation on the time-series analyzer 1.

時系列分析装置1は、まず図8で後述する学習処理を行う(S1)。次に時系列分析装置1は、ステップS1の学習処理によって生成されたモデルを用いて、図9で後述する分析処理を行う(S2)。   The time series analyzer 1 first performs a learning process described later with reference to FIG. 8 (S1). Next, the time series analysis device 1 performs analysis processing described later with reference to FIG. 9 using the model generated by the learning processing in step S1 (S2).

時系列分析装置1は、必ずしもステップS1の学習処理に引き続いてステップS2の分析処理を行う必要はなく、時系列分析装置1の管理者による開始指示を受けたことを条件としてステップS2の分析処理を行ってもよい。また、時系列分析装置1は、ステップS1の学習処理の後に、複数回のステップS2の分析処理を行ってもよい。   The time series analysis device 1 does not necessarily have to perform the analysis process of step S2 following the learning process of step S1, but the analysis process of step S2 on condition that the start instruction from the manager of the time series analysis device 1 is received. You may In addition, the time-series analysis device 1 may perform the analysis process of step S2 multiple times after the learning process of step S1.

[学習処理のフローチャート]
図8は、本実施形態に係る学習処理のフローチャートを示す図である。図8のフローチャートは、図7の時系列分析方法のステップS1で実行される。
[Flowchart of learning process]
FIG. 8 is a diagram showing a flowchart of learning processing according to the present embodiment. The flowchart of FIG. 8 is executed in step S1 of the time series analysis method of FIG.

まず情報取得部111は、撮像部15によって撮像された学習対象である2人のユーザの時系列の画像情報を取得する(S101)。そして情報取得部111は、ステップS101で取得した時系列の画像情報から各ユーザの各身体部位の位置を算出する。   First, the information acquisition unit 111 acquires time-series image information of two users who are learning objects captured by the imaging unit 15 (S101). Then, the information acquisition unit 111 calculates the position of each body part of each user from the time-series image information acquired in step S101.

情報変換部112は、情報取得部111が算出した各身体部位の位置に対して上述の式(1)を用いて特徴空間変換を実行する(S102)。以下では、ステップS102で特徴空間変換が行われた座標を各身体部位の位置として用いて処理を行う。   The information conversion unit 112 performs feature space conversion on the position of each body part calculated by the information acquisition unit 111 using the above-mentioned equation (1) (S102). In the following, processing is performed using the coordinates at which feature space conversion has been performed in step S102 as the position of each body part.

特徴選択部113は、ユーザ間の身体部位(特徴)の各組み合わせについて、身体部位の時系列の位置(すなわち動き)の反復プロットを生成し、上述の式(2)を用いてTT指標を算出する(S103)。そして特徴選択部113は、ステップS103で算出したTT指標に基づいて、結果の分析に用いる身体部位(特徴)を選択する(S104)。   The feature selection unit 113 generates a repeated plot of the time-series position (i.e., movement) of the body part for each combination of body parts (features) between users, and calculates the TT index using the above equation (2). (S103). Then, the feature selection unit 113 selects a body part (feature) to be used for analysis of the result based on the TT index calculated in step S103 (S104).

学習部114は、ステップS104で特徴選択部113が選択した身体部位(特徴)の時系列の位置に対して学習技術を適用することによって、学習を実行する(S105)。学習部114は、学習によって生成したモデル(モデルのパラメータ)を記憶部13に記憶させる。   The learning unit 114 executes learning by applying a learning technique to the time-series position of the body part (feature) selected by the feature selection unit 113 in step S104 (S105). The learning unit 114 causes the storage unit 13 to store a model (model parameter) generated by learning.

[分析処理のフローチャート]
図9は、本実施形態に係る分析処理のフローチャートを示す図である。図9のフローチャートは、図7の時系列分析方法のステップS2で実行される。
Flowchart of Analysis Process
FIG. 9 is a view showing a flowchart of analysis processing according to the present embodiment. The flowchart of FIG. 9 is executed in step S2 of the time series analysis method of FIG.

まず情報取得部111は、撮像部15によって撮像された分析対象である2人のユーザの時系列の画像情報を取得する(S201)。そして情報取得部111は、ステップS201で情報取得部111が取得した時系列の画像情報から各ユーザの各身体部位の位置を算出する。   First, the information acquisition unit 111 acquires time-series image information of two users to be analyzed, which are captured by the imaging unit 15 (S201). Then, the information acquisition unit 111 calculates the position of each body part of each user from the time-series image information acquired by the information acquisition unit 111 in step S201.

情報変換部112は、情報取得部111が算出した各身体部位の位置に対して上述の式(1)を用いて特徴空間変換を実行する(S202)。以下では、ステップS202で特徴空間変換が行われた座標を各身体部位の位置として用いて処理を行う。   The information conversion unit 112 performs feature space conversion on the position of each body part calculated by the information acquisition unit 111 using the above-mentioned equation (1) (S202). In the following, processing is performed using the coordinates subjected to the feature space conversion in step S202 as the positions of the respective body parts.

特徴選択部113は、学習処理のステップS105で学習部114がモデルの生成に用いた身体部位(特徴)を選択する(S203)。   The feature selection unit 113 selects the body part (feature) that the learning unit 114 used to generate the model in step S105 of the learning process (S203).

分析部115は、学習処理のステップS105で学習部114が生成したモデルを記憶部13から読み出す(S204)。そして分析部115は、ステップS204で読み出したモデルに、ステップS203で特徴選択部113が選択した身体部位(特徴)の時系列の位置を入力することによって、分析を実行する(S205)。モデルは、入力された2人のユーザの身体部位の時系列の位置から、結果が肯定的か否かを予測する。そして分析部115は、モデルによって予測された結果を取得し、表示部14に表示させ、又は記憶部13に記憶させる。   The analysis unit 115 reads the model generated by the learning unit 114 in step S105 of the learning process from the storage unit 13 (S204). Then, the analysis unit 115 performs analysis by inputting the time-series position of the body part (feature) selected by the feature selection unit 113 in step S203 to the model read out in step S204 (S205). The model predicts whether the result is positive or not from the position of the time series of the body parts of the two users inputted. Then, the analysis unit 115 acquires the result predicted by the model, causes the display unit 14 to display the result, or causes the storage unit 13 to store the result.

上述の時系列分析装置1は販売、契約、合意、説得等の結果が肯定的か否かを予測する分析を行っているが、教育やグループ学習の効果を予測する分析を行ってもよい。この場合に、時系列分析装置1は、教師と生徒との間又は生徒間の身体部位の共起関係に基づいて分析に用いる身体部位を選択し、学習及び分析を行う。学習の教師データとして、時系列分析装置1は、生徒からの教師の評価や、生徒の試験の点数等を用いることができる。   Although the above-mentioned time-series analysis device 1 performs analysis to predict whether the result of sales, contract, agreement, persuasion, etc. is positive, it may perform analysis to predict the effect of education or group learning. In this case, the time-series analysis device 1 selects a body part to be used for analysis based on the co-occurrence relation of the body part between the teacher and the students or between the students, and performs learning and analysis. As teacher data for learning, the time-series analysis device 1 can use the evaluation of the teacher from the student, the score of the student's examination, or the like.

[第1の実施形態の効果]
人体の関節等の身体部位の動きを用いてユーザ間のインタラクションを学習及び分析する際に、計算対象とする身体部位の数が多いほど計算時間が長くなる。また、身体部位の動きには、ユーザ間のインタラクションに関係のない自然な動きが含まれるため、全ての身体部位を計算対象とすると学習及び分析の精度が低下する場合がある。
[Effect of First Embodiment]
When learning and analyzing the interaction between users using movement of body parts such as joints of a human body, the larger the number of body parts to be calculated, the longer the calculation time. In addition, since the movement of the body part includes natural movement unrelated to the interaction between the users, the accuracy of learning and analysis may be reduced if all the body parts are to be calculated.

そこで本実施形態に係る時系列分析装置1は、ユーザ間の身体部位の動きの時間遅延を考慮した関係に基づいて、結果の分析に対して重要な身体部位(特徴)を選択し、選択した身体部位を用いて学習及び分析を行う。これにより、時系列分析装置1は、計算対象とする身体部位の数を削減できるため、計算時間を短縮できる。また、時系列分析装置1は、ユーザ間のインタラクションに関わる重要な身体部位を絞り込んで用いることができるため、学習及び分析の精度を高めることができる。   Therefore, the time-series analysis device 1 according to the present embodiment selects and selects an important body part (feature) for the analysis of the result based on the relationship in which the time delay of the movement of the body part between the users is considered. The body part is used for learning and analysis. As a result, since the time series analysis device 1 can reduce the number of body parts to be calculated, the calculation time can be shortened. Moreover, since the time-series analysis apparatus 1 can narrow down and use the important body part in connection with the interaction between users, it can raise the precision of learning and analysis.

[第1の実施形態の変形例]
上述の時系列分析装置1において、学習結果をフィードバックすることによって、学習及び分析のために選択する身体部位Pの数及び種類を調整してもよい。具体的には、特徴選択部113は、上述のTT指標の条件に従って選択した身体部位Pを母集団として、無作為な個数の身体部位Pを、無作為に選択する。
[Modification of First Embodiment]
In the above-described time series analysis device 1, the number and type of body parts P selected for learning and analysis may be adjusted by feeding back the learning result. Specifically, the feature selecting unit 113 randomly selects a random number of body parts P using the body parts P selected according to the condition of the above-mentioned TT index as a population.

そして学習部114は、特徴選択部113が無作為に選択した個数及び種類の身体部位Pを用いて、上述の学習を実行する。特徴選択部113及び学習部114は、身体部位Pの選択及び学習を所定の回数繰り返し、複数のモデルを生成する。学習部114は、生成した複数のモデルのそれぞれにテストデータを入力して精度を算出する。そして学習部114は、算出した精度が最も高いモデルを選択し、記憶部13に記憶させる。分析部115は、選択された精度が最も高いモデルを読み出し、該モデルの生成において選択された身体部位Pの時系列情報を該モデルに入力することによって、分析を実行する。   Then, the learning unit 114 performs the above-described learning using the number and types of body parts P randomly selected by the feature selection unit 113. The feature selecting unit 113 and the learning unit 114 repeat selection and learning of the body part P a predetermined number of times to generate a plurality of models. The learning unit 114 inputs test data to each of the plurality of generated models to calculate the accuracy. Then, the learning unit 114 selects a model with the highest calculated accuracy and causes the storage unit 13 to store the selected model. The analysis unit 115 executes the analysis by reading out the selected model with the highest accuracy and inputting time-series information of the body part P selected in generation of the model into the model.

このような構成により、時系列分析装置1は、より適した個数及び種類の身体部位Pを選択的に用いることができるため、学習及び分析の精度を向上させることができる。   With such a configuration, since the time-series analysis apparatus 1 can selectively use more suitable number and types of body parts P, the accuracy of learning and analysis can be improved.

(第2の実施形態)
第1の実施形態はユーザ間の特徴の関係を学習することによってユーザ間インタラクションの結果の予測を行うのに対して、本実施形態はユーザ間の特徴の関係を学習することによってユーザの行動パターンの予測を行う。時系列分析システムSの装置構成は、第1の実施形態と同様である。
Second Embodiment
While the first embodiment predicts the result of interaction between users by learning the relationship of features between users, the present embodiment analyzes the user's behavior pattern by learning the relationship of features between users. Make predictions of The device configuration of the time series analysis system S is the same as that of the first embodiment.

本実施形態において、行動パターンとは、掃除、休憩、徘徊等の日常生活上の行動の種類、及びデスクワーク、タイピング、思考等の仕事上の行動の種類をいう。同じ行動パターンに着目すると、ユーザによって行動パターン中の行動の順番や頻度は異なっていても、時間をずらせば(すなわち時間遅延を与えれば)共通の特徴が現れる。一方、異なる行動パターンでは、時間をずらしたとしても共通の特徴はあまり現れない。   In the present embodiment, the behavior pattern refers to the type of behavior in daily life such as cleaning, resting and chewing, and the type of behavior on work such as desk work, typing and thinking. Focusing on the same action pattern, even if the order and frequency of actions in the action pattern differ depending on the user, common features appear when time is shifted (that is, given a time delay). On the other hand, in different behavior patterns, common features do not appear much even if time is shifted.

そこで本実施形態に係る時系列分析装置1の特徴選択部113は、各行動パターンにおいて、時間遅延を考慮した、異なるユーザ間の身体部位(特徴)の動きの関係に基づいて、行動パターンの予測に対して重要な身体部位を選択する。身体部位の選択条件は、第1の実施形態と同様である。   Therefore, the feature selection unit 113 of the time series analysis device 1 according to the present embodiment predicts the action pattern based on the movement relationship of the body part (feature) between different users in consideration of the time delay in each action pattern. Choose important body parts for The selection conditions of the body part are the same as in the first embodiment.

学習部114は、ある行動パターンに該当する異なるユーザの時系列情報ペア、及びある行動パターンに該当するユーザと該行動パターンに該当しないユーザとの時系列情報ペアを用いて、特徴選択部113が選択した身体部位の時系列の位置に対して学習技術を適用することによって、学習を実行する。学習部114は、学習の教師データとして、入力データが特定の同じ行動パターンに該当するか否かの情報を用いる。この学習を行動パターンごとに繰り返すことにより、学習部114は、行動パターンごとのモデルを生成して記憶部13に記憶させる。   The learning unit 114 uses the feature selection unit 113 using time series information pairs of different users corresponding to a certain action pattern, and time series information pairs of a user corresponding to a certain action pattern and a user not corresponding to the action pattern. The learning is performed by applying a learning technique to the time series position of the selected body part. The learning unit 114 uses, as teacher data for learning, information as to whether or not the input data corresponds to a specific same behavior pattern. By repeating this learning for each behavior pattern, the learning unit 114 generates a model for each behavior pattern and causes the storage unit 13 to store the model.

時系列情報の分析を行う際に、分析部115は、学習部114が生成した行動パターンごとのモデルに、それぞれのモデルの生成において選択された身体部位に対応する時系列の位置を入力することによって分析を実行する。そして分析部115は、行動パターンごとのモデルに入力された身体部位の動きに適応する度合いが所定の閾値を超える行動パターンを、行動パターンの予測結果として出力する。   When analyzing the time-series information, the analysis unit 115 inputs the time-series position corresponding to the body part selected in the generation of each model to the model for each behavior pattern generated by the learning unit 114. Perform analysis by Then, the analysis unit 115 outputs an action pattern whose degree of adaptation to the movement of the body part input to the model for each action pattern exceeds a predetermined threshold as a prediction result of the action pattern.

[学習処理のフローチャート]
図10は、本実施形態に係る学習処理のフローチャートを示す図である。図10のフローチャートは、図7の時系列分析方法のステップS1で実行される。
[Flowchart of learning process]
FIG. 10 is a diagram showing a flowchart of learning processing according to the present embodiment. The flowchart of FIG. 10 is executed in step S1 of the time series analysis method of FIG.

まず情報取得部111は、撮像部15によって撮像された学習対象である2人のユーザの行動パターンごとの時系列の画像情報を取得する(S111)。そして情報取得部111は、ステップS111で取得した時系列の画像情報から各ユーザの各身体部位の位置を算出する。   First, the information acquisition unit 111 acquires time-series image information for each of the action patterns of the two users who are learning objects captured by the imaging unit 15 (S111). Then, the information acquisition unit 111 calculates the position of each body part of each user from the time-series image information acquired in step S111.

情報変換部112は、情報取得部111が算出した各身体部位の位置に対して上述の式(1)を用いて特徴空間変換を実行する(S112)。以下では、ステップS112で特徴空間変換が行われた座標を各身体部位の位置として用いて処理を行う。   The information conversion unit 112 performs feature space conversion on the position of each body part calculated by the information acquisition unit 111 using the above-mentioned equation (1) (S112). In the following, processing is performed using the coordinates at which feature space conversion has been performed in step S112 as the position of each body part.

特徴選択部113は、ユーザ間の身体部位(特徴)の各組み合わせについて、身体部位の時系列の位置(すなわち動き)の反復プロットを行動パターンごとに生成し、上述の式(2)を用いてTT指標を算出する(S113)。そして特徴選択部113は、ステップS113で算出したTT指標に基づいて、行動パターンの予測に用いる身体部位(特徴)を行動パターンごとに選択する(S114)。   The feature selection unit 113 generates, for each of the behavior patterns, repetitive plots of time-series positions (i.e., movements) of body parts for each combination of body parts (features) between users, using the above-mentioned equation (2). The TT index is calculated (S113). Then, based on the TT index calculated in step S113, the feature selection unit 113 selects body parts (features) to be used for predicting the action pattern for each action pattern (S114).

学習部114は、ステップS114で特徴選択部113が選択した身体部位(特徴)の行動パターンごとの時系列の位置に対して学習技術を適用することによって、学習を実行する(S115)。学習部114は、学習によって生成したモデル(モデルのパラメータ)を行動パターンごとに記憶部13に記憶させる。   The learning unit 114 executes learning by applying a learning technique to the time-series position of each action pattern of the body part (feature) selected by the feature selection unit 113 in step S114 (S115). The learning unit 114 stores the model (parameter of the model) generated by learning in the storage unit 13 for each behavior pattern.

本実施形態に係る分析処理は、行動パターンごとのモデルを用いる点と、行動パターンごとの疑似相手のデータを事前に用意した模範データとする点と、以外については、図9のフローチャートと同様である。   The analysis processing according to the present embodiment is the same as the flowchart of FIG. 9 except that the model for each behavior pattern is used and the data of the pseudo partner for each behavior pattern is assumed to be exemplar data prepared in advance. is there.

時系列分析装置1は、学習処理及び分析処理において、行動パターンごとの情報の取得、特徴空間変換、特徴の選択、学習の実行及び分析の実行を、互いに並列で行ってもよい。これにより、高速に処理を行うことができる。   The time-series analysis device 1 may perform acquisition of information for each behavior pattern, feature space conversion, feature selection, and execution of learning and analysis in parallel with each other in the learning process and the analysis process. Thereby, processing can be performed at high speed.

本実施形態においても、第1の実施形態の変形例と同様に、無作為に選択した個数及び種類の身体部位を用いて複数のモデルを生成し、その中から精度の高いモデルを選択してもよい。   Also in this embodiment, as in the modification of the first embodiment, a plurality of models are generated using randomly selected numbers and types of body parts, and a model with high accuracy is selected from them. It is also good.

[第2の実施形態の効果]
本実施形態に係る時系列分析装置1は、ユーザ間の身体部位の動きの時間遅延を考慮した関係に基づいて、行動パターンの予測に対して重要な身体部位(特徴)を選択し、選択した身体部位を用いて学習及び分析を行う。これにより、行動パターンの学習及び予測の計算時間を短縮し、精度を高めることができる。
[Effect of Second Embodiment]
The time-series analysis device 1 according to the present embodiment selects and selects an important body part (feature) for the prediction of the action pattern, based on the relationship taking into consideration the time delay of the movement of the body part between the users. The body part is used for learning and analysis. As a result, it is possible to shorten the calculation time of learning and prediction of behavior patterns and to improve the accuracy.

(第3の実施形態)
第1の実施形態は2人のユーザのインタラクションに着目しているのに対して、本実施形態は3人以上のグループ内のインタラクションに着目して学習及び分析を行う。時系列分析システムSの装置構成は、第1の実施形態と同様である。
Third Embodiment
While the first embodiment focuses on the interaction of two users, the present embodiment performs learning and analysis focusing on interactions in groups of three or more. The device configuration of the time series analysis system S is the same as that of the first embodiment.

3人以上のグループで行う会議等のインタラクションでは、活発なインタラクションを行うユーザのペアと活発でないインタラクションを行うユーザのペアとが存在し、また時間ごとに話題が移り変わる。そこで本実施形態に係る時系列分析装置1は、所定の長さの時間窓をずらしながらユーザのペアごとに学習及び分析を行うことによって、ユーザ間のインタラクションが活発か否かを分類する。   In interaction such as a meeting performed in a group of three or more, there is a pair of users who perform active interaction and a pair of users who perform inactive interaction, and the topic changes with time. Therefore, the time-series analysis device 1 according to the present embodiment classifies whether interaction between users is active or not by performing learning and analysis for each pair of users while shifting a time window of a predetermined length.

具体的には、特徴選択部113は、所定の長さの時間窓を設定し、また学習対象の複数のユーザのうち2人のユーザのペアを選択する。そして特徴選択部113は、設定した時間窓内の時系列情報を用いて、選択したユーザ間の身体部位(特徴)の動きの時間遅延を考慮した関係に基づいて、結果の分析に対して重要な身体部位を選択する。身体部位の選択条件において、時間窓単位で行う点以外は第1の実施形態と同様である。時間窓は、処理対象とする時系列情報の開始時間及び終了時間を限定する範囲である。時間窓の長さは、時系列分析装置1の管理者によって予め記憶部13に設定される。特徴選択部113は、所定回数分時間窓をずらしながら、また学習対象の別のユーザのペアを選択しながら、繰り返し身体部位の選択を行う。   Specifically, the feature selection unit 113 sets a time window of a predetermined length, and selects a pair of two users among a plurality of users to be learned. Then, the feature selection unit 113 uses the time-series information in the set time window and is important for analysis of the result based on the relationship in which the time delay of the movement of the body part (feature) between the selected users is considered. Select the appropriate body part. The selection condition of the body part is the same as that of the first embodiment except that it is performed in units of time windows. The time window is a range that limits the start time and the end time of time series information to be processed. The length of the time window is set in advance in the storage unit 13 by the manager of the time series analysis device 1. The feature selecting unit 113 repeatedly selects a body part while shifting the time window by a predetermined number of times and selecting another pair of users to be learned.

学習部114は、特徴選択部113が設定した時間窓内において、特徴選択部113が選択した身体部位の時系列の位置に対して学習技術を適用することによって、時間窓をずらしながら繰り返し学習を実行する。また、学習部114は、特徴選択部113が選択した別のユーザのペアについても同様に繰り返し学習を実行する。学習部114は、学習の教師データとして、入力データにおいてユーザ間のインタラクションが活発か否かの分類を用いる。   The learning unit 114 repeatedly performs learning while shifting the time window by applying a learning technique to the time-series position of the body part selected by the feature selection unit 113 within the time window set by the feature selection unit 113. Run. The learning unit 114 also repeatedly performs learning similarly for another user pair selected by the feature selection unit 113. The learning unit 114 uses, as teaching data for learning, classification of whether or not the interaction between users is active in the input data.

時系列の情報の分析を行う際に、分析部115は、学習部114が生成したモデルに、該モデルにおいて選択された身体部位の時系列の位置を入力することによって分析を実行する。モデルは、入力された2人のユーザの身体部位の時系列の位置から、時間窓をずらしながらインタラクションが活発か否かを分類する。そして分析部115は、モデルによって分類された結果を取得し、表示部14に表示させ、又は記憶部13に記憶する。   When analyzing time-series information, the analysis unit 115 performs analysis by inputting the time-series position of the body part selected in the model to the model generated by the learning unit 114. The model classifies whether or not the interaction is active while shifting the time window from the inputted time-series positions of the body parts of the two users. Then, the analysis unit 115 acquires the result classified by the model, causes the display unit 14 to display the result, or stores the result in the storage unit 13.

分析部115は、学習部114が生成したモデルによって活発なコミュニケーションを行うと判別した場合、各時間窓内で第1の実施形態を適用することにより、肯定あるいは否定の結果を予測してもよい。   If the analysis unit 115 determines that active communication is to be performed based on the model generated by the learning unit 114, the analysis unit 115 may predict a positive or negative result by applying the first embodiment within each time window. .

[学習処理のフローチャート]
図11は、本実施形態に係る学習処理のフローチャートを示す図である。図11のフローチャートは、図7の時系列分析方法のステップS1で実行される。
[Flowchart of learning process]
FIG. 11 is a diagram showing a flowchart of learning processing according to the present embodiment. The flowchart of FIG. 11 is executed in step S1 of the time series analysis method of FIG.

まず情報取得部111は、撮像部15によって撮像された学習対象である複数のユーザの時系列の画像情報を取得する(S121)。そして情報取得部111は、ステップS121で取得した時系列の画像情報から各ユーザの各身体部位の位置を算出する。   First, the information acquisition unit 111 acquires time-series image information of a plurality of users who are learning objects captured by the imaging unit 15 (S121). Then, the information acquisition unit 111 calculates the position of each body part of each user from the time-series image information acquired in step S121.

情報変換部112は、情報取得部111が算出した各身体部位の位置に対して上述の式(1)を用いて特徴空間変換を実行する(S122)。以下では、ステップS122で特徴空間変換が行われた座標を各身体部位の位置として用いて処理を行う。   The information conversion unit 112 performs feature space conversion on the position of each body part calculated by the information acquisition unit 111 using the above-mentioned equation (1) (S122). In the following, processing is performed using the coordinates subjected to the feature space conversion in step S122 as the positions of the respective body parts.

特徴選択部113は、所定の長さの時間窓を、初期位置に設定する(S123)。時間窓の初期位置は、例えば入力された時系列の画像情報の最初の時間である。特徴選択部113は、繰り返しごとに時間窓の位置を所定の時間ずつずらす。以下では、ステップS123で設定された時間窓内の各身体部位の時系列の位置を用いて処理を行う。   The feature selecting unit 113 sets a time window of a predetermined length as an initial position (S123). The initial position of the time window is, for example, the first time of the input time-series image information. The feature selection unit 113 shifts the position of the time window for each predetermined time. In the following, processing is performed using the time-series position of each body part in the time window set in step S123.

特徴選択部113は、学習対象の複数のユーザのうち2人のユーザのペアを選択する(S124)。特徴選択部113は、繰り返しごとに別の2人のユーザのペアを選択する。以下では、ステップS124で選択されたユーザに対して処理を行う。   The feature selection unit 113 selects a pair of two users among the plurality of users to be learned (S124). The feature selection unit 113 selects another pair of two users for each repetition. In the following, processing is performed on the user selected in step S124.

特徴選択部113は、ユーザ間の身体部位(特徴)の各組み合わせについて、身体部位の時系列の位置(すなわち動き)の反復プロットを生成し、上述の式(2)を用いてTT指標を算出する(S125)。そして特徴選択部113は、ステップS125で算出したTT指標に基づいて、結果の分析に用いる身体部位(特徴)を選択する(S126)。   The feature selection unit 113 generates a repeated plot of the time-series position (i.e., movement) of the body part for each combination of body parts (features) between users, and calculates the TT index using the above equation (2). (S125). Then, the feature selection unit 113 selects a body part (feature) to be used for analysis of the result based on the TT index calculated in step S125 (S126).

学習部114は、ステップS126で特徴選択部113が選択した身体部位(特徴)の時系列の位置に対して学習技術を適用することによって、学習を実行する(S127)。学習部114は、学習によって生成したモデル(モデルのパラメータ)を記憶部13に記憶させる。   The learning unit 114 executes learning by applying a learning technique to the time-series position of the body part (feature) selected by the feature selection unit 113 in step S126 (S127). The learning unit 114 causes the storage unit 13 to store a model (model parameter) generated by learning.

ユーザの全ペアについて処理が終了していない場合に(S128のNO)、時系列分析装置1はステップS124に戻って別のユーザのペアを選択して処理を繰り返す。入力データの全時間について処理が終了していない場合に(S129のNO)、時系列分析装置1はステップS123に戻って時間窓の位置を所定の時間だけずらして処理を繰り返す。   If the process has not been completed for all pairs of users (NO in S128), the time-series analyzer 1 returns to step S124, selects another pair of users, and repeats the process. If the process has not been completed for the entire time of the input data (NO in S129), the time series analyzer 1 returns to step S123, shifts the position of the time window by a predetermined time, and repeats the process.

ユーザの全ペアについて処理が終了し、かつ入力データの全時間について処理が終了した場合に(S128のYES、S129のYES)、時系列分析装置1は学習処理を終了する。   When the process is completed for all pairs of users and the process is completed for all the time of the input data (YES in S128, YES in S129), the time series analyzer 1 ends the learning process.

本実施形態に係る分析処理は、時間窓ごと及びユーザのペアごとにモデルへデータを入力する点以外については、図9のフローチャートと同様である。   The analysis processing according to the present embodiment is the same as the flowchart of FIG. 9 except that data is input to the model for each time window and each pair of users.

時系列分析装置1は、学習処理及び分析処理において、ユーザのペアごとの情報の取得、特徴空間変換、特徴の選択、学習の実行及び分析の実行を、互いに並列で行ってもよい。これにより、高速に処理を行うことができる。   The time series analysis device 1 may perform acquisition of information for each pair of users, feature space conversion, feature selection, execution of learning and execution of analysis in parallel with each other in the learning process and the analysis process. Thereby, processing can be performed at high speed.

本実施形態においても、第1の実施形態の変形例と同様に、無作為に選択した個数及び種類の身体部位を用いて複数のモデルを生成し、その中から精度の高いモデルを選択してもよい。   Also in this embodiment, as in the modification of the first embodiment, a plurality of models are generated using randomly selected numbers and types of body parts, and a model with high accuracy is selected from them. It is also good.

[第3の実施形態の効果]
本実施形態に係る時系列分析装置1は、3人以上のグループで行う会議等のインタラクションにおいて、ユーザのペアごとに学習及び分析を行うことができる。また時系列分析装置1は、時間窓をずらしながら処理を行うため、時間ごとに話題が移り変わる状況でも高精度な学習及び分析を行うことができる。
[Effect of the third embodiment]
The time-series analysis device 1 according to the present embodiment can perform learning and analysis for each pair of users in an interaction such as a meeting performed by a group of three or more people. Further, since the time-series analysis device 1 performs processing while shifting the time window, it is possible to perform high-accuracy learning and analysis even in a situation where the topic changes with time.

(第4の実施形態)
第1の実施形態はユーザの身体部位の動きを用いて学習及び分析を行うのに対して、本実施形態はユーザが発する言語を用いて学習及び分析を行う。時系列分析システムSの装置構成は、第1の実施形態と同様である。
Fourth Embodiment
The first embodiment performs learning and analysis using the motion of the user's body part, whereas the present embodiment performs learning and analysis using the language spoken by the user. The device configuration of the time series analysis system S is the same as that of the first embodiment.

本実施形態において、ユーザの発する言語は、メール、チャット等でユーザが入力した文字情報でもよく、又は音声入力部16が取得したユーザからの音声情報でもよい。第1ユーザの言語を見た又は聞いた第2ユーザの反応は、興味を示すか示さないかで異なる。そこで本実施形態に係る時系列分析装置1は、ユーザの身体部位の動きの代わりに、結果の分析に重要な言語特徴を選択し、選択した言語特徴を用いて学習及び分析を行う。   In the present embodiment, the language spoken by the user may be text information input by the user by e-mail, chat or the like, or voice information from the user acquired by the voice input unit 16. The reaction of the second user who saw or heard the language of the first user differs depending on whether or not he / she shows interest. Therefore, the time-series analysis device 1 according to the present embodiment selects a language feature important for analysis of the result instead of the movement of the body part of the user, and performs learning and analysis using the selected language feature.

日常会話において用いられる単語は無数にあるため、全ての単語の組み合わせの共起関係を抽出することは現実的でない。本実施形態に係る時系列分析装置1は、ユーザが発した言語に含まれる単語をクラスタリングし、クラスタを特徴として用いる。時系列分析装置1は、単語とクラスタとの対応関係を、予め記憶部13に記憶させる。時系列分析装置1は、例えば以下に列挙したようなユーザの感情ごとに定義されたクラスタを用いる。   Since the words used in daily conversation are innumerable, it is not practical to extract the co-occurrence relation of all the word combinations. The time-series analysis device 1 according to the present embodiment clusters words included in a language issued by a user, and uses clusters as features. The time series analyzer 1 stores the correspondence relationship between the word and the cluster in the storage unit 13 in advance. The time-series analysis apparatus 1 uses, for example, a cluster defined for each user emotion as listed below.

安心/感謝/幸福/リラックス/尊敬/期待/愛しさ/恐怖/後悔/嫌悪/嫉妬/怒り   Reassurance / gratitude / happiness / relaxation / respect / expectation / love / fear / regret / aversion / jealousy / anger

ここに示したクラスタは一例であり、時系列分析装置1の管理者は任意のクラスタを定義することができる。本実施形態では、1つのクラスタに属する1群の単語を、1つの特徴として取り扱う。   The cluster shown here is an example, and the administrator of the time-series analysis apparatus 1 can define any cluster. In this embodiment, a group of words belonging to one cluster is treated as one feature.

情報取得部111は、音声入力部16によって取得された時系列の音声情報又は記憶部13に記憶された時系列の文字情報を取得する。学習対象及び分析対象のメール、チャット等の文字情報は、他のシステムから取得されて、予め記憶部13に記憶されている。そして情報取得部111は、取得した音声情報又は文字情報に自然言語処理技術を適用することによって、各ユーザの発した言語に含まれる単語を抽出する。自然言語処理技術として、公知の技術を用いることができる。情報取得部111は、分析の精度を向上させるために、音声情報又は文字情報に対して不要語除去等の前処理を適用することが望ましい。   The information acquisition unit 111 acquires time-series voice information acquired by the voice input unit 16 or time-series character information stored in the storage unit 13. Text information such as e-mails and chats, etc., to be learned and analyzed is obtained from another system and stored in advance in the storage unit 13. Then, the information acquisition unit 111 applies the natural language processing technology to the acquired voice information or text information to extract words included in the language issued by each user. Known natural language processing techniques can be used. It is desirable that the information acquisition unit 111 apply preprocessing such as unnecessary word removal to voice information or text information in order to improve the accuracy of analysis.

情報変換部112は、記憶部13に予め記憶されているクラスタの定義に従って、情報取得部111が抽出した単語をクラスタリングする。情報変換部112は、生成した各クラスタを学習及び分析に用いる特徴として決定する。   The information conversion unit 112 clusters the words extracted by the information acquisition unit 111 according to the definition of the cluster stored in advance in the storage unit 13. The information conversion unit 112 determines each of the generated clusters as a feature to be used for learning and analysis.

特徴選択部113は、各クラスタの時系列情報(すなわち各クラスタに属する単語の発生時間)を用いて、2人のユーザ間のクラスタ(特徴)の発生時間の時間遅延を考慮した関係に基づいて、結果の分析に対して重要なクラスタを選択する。特徴選択部113によるクラスタの選択方法は、第1の実施形態におけるユーザの身体部位の選択方法と同様である。   The feature selection unit 113 uses the time-series information of each cluster (that is, the generation time of the word belonging to each cluster) based on the relationship in which the time delay of the generation time of the cluster (feature) between two users is considered. Choose clusters that are important for analysis of the results. The method of selecting clusters by the feature selection unit 113 is the same as the method of selecting a body part of the user in the first embodiment.

学習部114は、特徴選択部113が選択したクラスタの発生時間に対して学習技術を適用することによって、学習を実行する。学習部114は、学習の教師データとして、入力データにおいて販売、契約、合意、説得等の結果が肯定的か否かの情報を用いる。   The learning unit 114 executes learning by applying a learning technique to the generation time of the cluster selected by the feature selection unit 113. The learning unit 114 uses information on whether the result of sale, contract, agreement, persuasion or the like is positive in the input data as teacher data of learning.

時系列の情報の分析を行う際に、分析部115は、学習部114が生成したモデルに、該モデルの生成において選択されたクラスタの発生時間を入力することによって分析を実行する。モデルは、入力された2人のユーザのクラスタの発生時間から、販売、契約、合意、説得等の結果が肯定的か否かを予測する。そして分析部115は、モデルによって予測された結果を取得し、表示部14に表示させ、又は記憶部13に記憶する。   When analyzing time-series information, the analysis unit 115 performs the analysis by inputting, to the model generated by the learning unit 114, the generation time of the cluster selected in the generation of the model. The model predicts whether the result of sales, contract, agreement, persuasion etc. is positive or not from the generation time of the cluster of two users inputted. Then, the analysis unit 115 acquires the result predicted by the model, causes the display unit 14 to display the result, or stores the result in the storage unit 13.

[学習処理のフローチャート]
図12は、本実施形態に係る学習処理のフローチャートを示す図である。図12のフローチャートは、図7の時系列分析方法のステップS1で実行される。
[Flowchart of learning process]
FIG. 12 is a diagram showing a flowchart of learning processing according to the present embodiment. The flowchart of FIG. 12 is executed in step S1 of the time series analysis method of FIG.

まず情報取得部111は、音声入力部16によって取得された時系列の音声情報又は記憶部13に記憶されている時系列の文字情報(メール、チャット等)を取得する(S131)。そして情報取得部111は、ステップS131で取得した音声情報又は文字情報に自然言語処理技術を適用することによって、各ユーザの発した言語に含まれる単語を抽出する(S132)。   First, the information acquisition unit 111 acquires time-series voice information acquired by the voice input unit 16 or time-series character information (e-mail, chat, etc.) stored in the storage unit 13 (S131). Then, the information acquisition unit 111 applies the natural language processing technology to the voice information or the character information acquired in step S131, thereby extracting a word included in the language issued by each user (S132).

情報変換部112は、記憶部13に予め記憶されているクラスタの定義に従って、ステップS132で情報取得部111が抽出した単語をクラスタリングする(S133)。そして情報変換部112は、ステップS133で生成した各クラスタを学習及び分析に用いる特徴として決定する(S134)。   The information conversion unit 112 clusters the words extracted by the information acquisition unit 111 in step S132 in accordance with the cluster definition stored in advance in the storage unit 13 (S133). Then, the information conversion unit 112 determines each cluster generated in step S133 as a feature to be used for learning and analysis (S134).

特徴選択部113は、ユーザ間のクラスタ(特徴)の各組み合わせについて、クラスタの発生時間の反復プロットを生成し、上述の式(2)を用いてTT指標を算出する(S135)。そして特徴選択部113は、ステップS135で算出したTT指標に基づいて、学習及び分析に用いるクラスタ(特徴)を選択する(S136)。   The feature selection unit 113 generates an iterative plot of cluster occurrence time for each combination of clusters (features) between users, and calculates a TT index using the above-mentioned equation (2) (S135). Then, the feature selection unit 113 selects clusters (features) used for learning and analysis based on the TT index calculated in step S135 (S136).

学習部114は、ステップS136で特徴選択部113が選択したクラスタ(特徴)の発生時間に対して学習技術を適用することによって、学習を実行する(S137)。学習部114は、学習によって生成したモデル(モデルのパラメータ)を記憶部13に記憶させる。   The learning unit 114 executes learning by applying a learning technique to the generation time of the cluster (feature) selected by the feature selection unit 113 in step S136 (S137). The learning unit 114 causes the storage unit 13 to store a model (model parameter) generated by learning.

本実施形態に係る分析処理は、特徴として身体部位の代わりに単語のクラスタを用いる点以外については、図9のフローチャートと同様である。   The analysis process according to the present embodiment is the same as the flowchart of FIG. 9 except that a word cluster is used as a feature instead of a body part.

本実施形態においても、第1の実施形態の変形例と同様に、無作為に選択した個数及び種類のクラスタを用いて複数のモデルを生成し、その中から精度の高いモデルを選択してもよい。   Also in this embodiment, as in the modification of the first embodiment, a plurality of models are generated using randomly selected numbers and types of clusters, and a model with high accuracy is selected from among the plurality of models. Good.

第1〜第3の実施形態に本実施形態を組み合わせることによって、時系列分析装置1は、ユーザの身体部位の動き(すなわち非言語的行動)とユーザの発した言語(すなわち言語的行動)との両方を特徴として用いて、学習及び分析を行ってもよい。このような構成によって、一方のユーザが言語で説明をしていて、他方のユーザがその説明を黙って聞いている状況等、様々な状況において分析を行うことができる。   By combining the present embodiment with the first to third embodiments, the time-series analysis apparatus 1 can detect the movement of the body part of the user (i.e. non-verbal behavior) and the language spoken by the user (i.e. verbal behavior) Both may be used as features to perform learning and analysis. With such a configuration, analysis can be performed in various situations, such as a situation where one user is explaining in language and the other user silently listens to the explanation.

[第4の実施形態の効果]
本実施形態に係る時系列分析装置1は、ユーザが発した言語から抽出した単語をクラスタリングし、生成したクラスタを特徴として用いる。そして時系列分析装置1は、ユーザ間でのクラスタ(特徴)の発生時間の時間遅延を考慮した関係に基づいて、結果の分析に対して重要なクラスタを選択し、選択したクラスタを用いて学習及び分析を行う。これにより、言語行動の学習及び予測においても、計算時間を短縮し、精度を高めることができる。
[Effect of Fourth Embodiment]
The time series analysis device 1 according to the present embodiment clusters the words extracted from the language issued by the user, and uses the generated cluster as a feature. Then, the time-series analysis device 1 selects a cluster important for analysis of the result based on the relationship taking into consideration the time delay of the generation time of clusters (features) among users, and performs learning using the selected cluster And analyze. As a result, calculation time can be shortened and accuracy can be improved also in learning and prediction of verbal behavior.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。   As mentioned above, although the present invention was explained using an embodiment, the technical scope of the present invention is not limited to the range given in the above-mentioned embodiment, and various modification and change are possible within the range of the gist. is there. For example, a specific embodiment of device distribution and integration is not limited to the above embodiment, and all or a part thereof may be functionally or physically distributed and integrated in any unit. Can. In addition, new embodiments produced by any combination of a plurality of embodiments are also included in the embodiments of the present invention. The effects of the new embodiment generated by the combination combine the effects of the original embodiment.

時系列分析装置1の制御部11(プロセッサ)は、図7〜12に示す時系列分析方法に含まれる各ステップ(工程)の主体となる。すなわち、制御部11は、図7〜12に示す時系列分析方法を実行するための時系列分析プログラムを記憶部13から読み出し、該時系列分析プログラムを実行して時系列分析装置1の各部を制御することによって、図7〜12に示す時系列分析方法を実行する。図7〜12に示す時系列分析方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。   The control unit 11 (processor) of the time series analysis device 1 is a main body of each step (process) included in the time series analysis method shown in FIGS. That is, the control unit 11 reads a time series analysis program for executing the time series analysis method shown in FIGS. 7 to 12 from the storage unit 13, executes the time series analysis program, and executes each unit of the time series analysis device 1. By controlling, the time-series analysis method shown in FIGS. The steps included in the time-series analysis method illustrated in FIGS. 7 to 12 may be partially omitted, the order between the steps may be changed, and a plurality of steps may be performed in parallel.

S 時系列分析システム
1 時系列分析装置
11 制御部
111 情報取得部
112 情報変換部
113 特徴選択部
114 学習部
115 分析部
S Time Series Analysis System 1 Time Series Analysis Device 11 Control Unit 111 Information Acquisition Unit 112 Information Conversion Unit 113 Feature Selection Unit 114 Learning Unit 115 Analysis Unit

Claims (14)

第1ユーザの特徴及び第2ユーザの特徴の時系列情報を取得する取得部と、
前記取得部が取得した前記時系列情報において、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生した際の継続時間に基づいて、学習対象の特徴を選択する選択部と、
前記選択部が選択した前記学習対象の特徴の時系列情報を用いて学習を行う学習部と、
を有する時系列分析装置。
An acquisition unit configured to acquire time-series information of the first user feature and the second user feature;
In the time-series information acquired by the acquisition unit, the feature to be learned is determined based on the duration when the feature of the first user and the feature of the second user occur at the same time and at different times. A selection unit to select,
A learning unit that performs learning using time-series information of the feature to be learned selected by the selection unit;
A time series analyzer having a.
前記学習部が前記学習によって生成したモデルに、前記取得部が取得した前記時系列情報を入力することによって、前記取得部が取得した前記時系列情報による結果を予測する分析部をさらに有する、請求項1に記載の時系列分析装置。   The system further includes an analysis unit that predicts a result based on the time-series information acquired by the acquisition unit by inputting the time-series information acquired by the acquisition unit into a model generated by the learning by the learning unit. The time-series analyzer according to Item 1. 前記選択部は、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生している時間範囲の平均値を、前記継続時間として算出する、請求項1又は2に記載の時系列分析装置。   The selection unit calculates an average value of a time range in which the feature of the first user and the feature of the second user occur at the same time and at different times as the duration. The time-series analyzer according to 2. 前記選択部は、クロスリカレンス定量分析(Cross-Recurrence Quantification Analysis)によって、前記継続時間を算出する、請求項3に記載の時系列分析装置。   The time series analysis device according to claim 3, wherein the selection unit calculates the duration by Cross-Recurrence Quantification Analysis. 前記選択部は、前記継続時間が所定の閾値以上である前記第1ユーザの前記特徴と前記第2ユーザの前記特徴との組み合わせの数に基づいて、前記学習対象の特徴を選択する、請求項1から4のいずれか一項に記載の時系列分析装置。   The selection unit selects a feature of the learning target based on the number of combinations of the feature of the first user and the feature of the second user whose duration is equal to or more than a predetermined threshold. The time series analyzer according to any one of 1 to 4. 前記取得部は、前記第1ユーザ及び前記第2ユーザの身体部位を、前記第1ユーザ及び前記第2ユーザの前記特徴として取得する、請求項1から5のいずれか一項に記載の時系列分析装置。   The time series according to any one of claims 1 to 5, wherein the acquisition unit acquires body parts of the first user and the second user as the features of the first user and the second user. Analysis equipment. 前記第1ユーザの前記身体部位の位置を前記第1ユーザの身体の中心を基準とした座標に変換し、前記第2ユーザの前記身体部位の位置を前記第2ユーザの身体の中心を基準とした座標に変換する変換部をさらに有する、請求項6に記載の時系列分析装置。   The position of the body part of the first user is converted into coordinates based on the center of the body of the first user, and the position of the body part of the second user is referred to the center of the body of the second user The time series analysis device according to claim 6, further comprising: a conversion unit configured to convert into the coordinates. 前記学習部は、前記第1ユーザと前記第2ユーザとの間のインタラクションの結果が肯定的であるか否かの学習を行う、請求項1から7のいずれか一項に記載の時系列分析装置。   The time series analysis according to any one of claims 1 to 7, wherein the learning unit performs learning whether or not the result of the interaction between the first user and the second user is positive. apparatus. 前記学習部は、前記第1ユーザの行動パターンと前記第2ユーザの行動パターンとが同一であるか否かの学習を行う、請求項1から7のいずれか一項に記載の時系列分析装置。   The time series analysis device according to any one of claims 1 to 7, wherein the learning unit performs learning whether the action pattern of the first user and the action pattern of the second user are the same. . 前記学習部は、所定の長さの時間窓内の前記学習対象の特徴の時系列情報を用いた学習を、前記時間窓をずらしながら繰り返し行う、請求項1から9のいずれか一項に記載の時系列分析装置。   The learning unit according to any one of claims 1 to 9, wherein the learning unit repeatedly performs learning using time series information of the feature to be learned within a time window of a predetermined length while shifting the time window. Time series analyzer. 前記取得部は、前記第1ユーザ及び前記第2ユーザの発した言語を、前記第1ユーザ及び前記第2ユーザの前記特徴として取得する、請求項1から10のいずれか一項に記載の時系列分析装置。   11. The time according to any one of claims 1 to 10, wherein the acquisition unit acquires the language spoken by the first user and the second user as the feature of the first user and the second user. Sequence analyzer. 前記取得部は、前記第1ユーザ及び前記第2ユーザの発した言語から単語を抽出し、抽出した前記単語をクラスタリングすることによって生成したクラスタを、前記第1ユーザ及び前記第2ユーザの前記特徴として取得する、請求項11に記載の時系列分析装置。   The acquisition unit extracts a word from a language spoken by the first user and the second user, and clusters the generated word by clustering the features of the first user and the second user. The time series analysis device according to claim 11, which is acquired as コンピュータが実行する、
第1ユーザの特徴及び第2ユーザの特徴の時系列情報を取得するステップと、
前記取得するステップで取得された前記時系列情報において、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生した際の継続時間に基づいて、学習対象の特徴を選択するステップと、
前記選択するステップで選択された前記学習対象の特徴の時系列情報を用いて学習を行うステップと、
を有する時系列分析方法。
Computer runs,
Acquiring time series information of the first user feature and the second user feature;
In the time-series information acquired in the acquiring step, the learning target is based on a duration when the feature of the first user and the feature of the second user occur at the same time and different times. Selecting a feature;
Performing learning using time-series information of the feature to be learned selected in the selecting step;
Time series analysis method having.
プロセッサを、
第1ユーザの特徴及び第2ユーザの特徴の時系列情報を取得する取得部、
前記取得部が取得した前記時系列情報において、前記第1ユーザの前記特徴と前記第2ユーザの前記特徴とが同じ時間及び異なる時間に発生した際の継続時間に基づいて、学習対象の特徴を選択する選択部、及び
前記選択部が選択した前記学習対象の特徴の時系列情報を用いて学習を行う学習部、
として機能させるための時系列分析プログラム。
Processor,
An acquisition unit configured to acquire time-series information of the features of the first user and the features of the second user;
In the time-series information acquired by the acquisition unit, the feature to be learned is determined based on the duration when the feature of the first user and the feature of the second user occur at the same time and at different times. A selecting unit to select, and a learning unit to perform learning using time-series information of the feature to be learned selected by the selecting unit;
Time series analysis program to function as.
JP2017219805A 2017-11-15 2017-11-15 Apparatus, method and program for time-series analysis Pending JP2019091260A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017219805A JP2019091260A (en) 2017-11-15 2017-11-15 Apparatus, method and program for time-series analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017219805A JP2019091260A (en) 2017-11-15 2017-11-15 Apparatus, method and program for time-series analysis

Publications (1)

Publication Number Publication Date
JP2019091260A true JP2019091260A (en) 2019-06-13

Family

ID=66836399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017219805A Pending JP2019091260A (en) 2017-11-15 2017-11-15 Apparatus, method and program for time-series analysis

Country Status (1)

Country Link
JP (1) JP2019091260A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230427A1 (en) 2019-05-14 2020-11-19 村田機械株式会社 Transportation system and transportation control method
CN112861597A (en) * 2019-11-12 2021-05-28 欧姆龙株式会社 Motion analysis device, motion analysis method, and storage medium
KR20230084002A (en) * 2021-12-02 2023-06-12 한양대학교 에리카산학협력단 Apparatus and method for diagnosing disease

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230427A1 (en) 2019-05-14 2020-11-19 村田機械株式会社 Transportation system and transportation control method
CN112861597A (en) * 2019-11-12 2021-05-28 欧姆龙株式会社 Motion analysis device, motion analysis method, and storage medium
KR20230084002A (en) * 2021-12-02 2023-06-12 한양대학교 에리카산학협력단 Apparatus and method for diagnosing disease
KR102846981B1 (en) 2021-12-02 2025-08-21 한양대학교 에리카산학협력단 Apparatus and method for diagnosing disease

Similar Documents

Publication Publication Date Title
JP6977901B2 (en) Learning material recommendation method, learning material recommendation device and learning material recommendation program
TWI718422B (en) Method, device and equipment for fusing model prediction values
JP6741504B2 (en) Interview system
JP6546922B2 (en) Model-driven candidate sorting based on audio cues
JP6838376B2 (en) Methods, programs, and server devices for transmitting product-related information.
US20190156177A1 (en) Aspect Pre-selection using Machine Learning
CN107097234A (en) Robot control system
JP2018032164A (en) Interview system
CN104993962A (en) Method and system for acquiring terminal usage status
JP2019091260A (en) Apparatus, method and program for time-series analysis
Jones Developing cognitive theory by mining large-scale naturalistic data
JP6970641B2 (en) Emotion Guessing Method, Emotion Guessing Device and Program
CN112347236A (en) Intelligent engineering consultation method and system based on AI (Artificial Intelligence) calculated quantity and computer equipment thereof
CN114444895B (en) Cleaning quality assessment methods and related equipment
Thiruthuvanathan et al. Multitask EfficientNet affective computing for student engagement detection
Swamy et al. Voice assistant and facial analysis based approach to screen test clinical depression
TWI524294B (en) Online learning style automated diagnostic system, online learning style automated diagnostic method and computer readable recording medium
KR20230049486A (en) Political tendency analysis device and service providing method using the same
JP2013115622A (en) Sound information analyzing apparatus and sound information analysis program
CN111949860B (en) Method and apparatus for generating a relevance determination model
CN119397094B (en) Object recommendation method, object recommendation device, electronic device, and storage medium
JP7616397B2 (en) Apparatus, method and program for estimating dependent variable
CN114298515B (en) Method, device and storage medium for generating student quality portrait
US11900327B2 (en) Evaluation adjustment factoring for bias
JP2020173415A (en) Teaching material presentation system and teaching material presentation method

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20171201