JP2006134080A - Mobile terminal and personal adaptive context acquisition method - Google Patents
Mobile terminal and personal adaptive context acquisition method Download PDFInfo
- Publication number
- JP2006134080A JP2006134080A JP2004322466A JP2004322466A JP2006134080A JP 2006134080 A JP2006134080 A JP 2006134080A JP 2004322466 A JP2004322466 A JP 2004322466A JP 2004322466 A JP2004322466 A JP 2004322466A JP 2006134080 A JP2006134080 A JP 2006134080A
- Authority
- JP
- Japan
- Prior art keywords
- user
- sensor data
- sensor
- specific function
- adaptive context
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
【課題】 個人の行動を詳細かつ正確に把握することが可能な個人適応型コンテキストを獲得する携帯端末、及び、個人適応型コンテキスト獲得方法を提供する。
【解決手段】 携帯端末10は、センサ15により取得されたセンサデータをイベント毎に分割し、分割されたセンサデータを近似して表現するためのユーザ固有関数を算出する。携帯端末10は算出されたユーザ固有関数を用いて、分割されたセンサデータを展開することにより特徴パラメータeall、Callを得る。携帯端末10は特徴パラメータeall、CallからSOMを生成し、SOMの出力であるセンサ情報特徴データmαと行動データとの対応関係をニューラルネットワークモデルにより学習する。
【選択図】 図4PROBLEM TO BE SOLVED: To provide a personal digital assistant capable of acquiring a personal adaptive context capable of grasping individual behavior in detail and accurately, and a personal adaptive context acquisition method.
A mobile terminal 10 divides sensor data acquired by a sensor 15 for each event, and calculates a user specific function for approximating and expressing the divided sensor data. The mobile terminal 10 obtains the characteristic parameters e all and C all by developing the divided sensor data using the calculated user specific function. The mobile terminal 10 generates an SOM from the feature parameters e all and C all , and learns a correspondence relationship between the sensor information feature data mα, which is the output of the SOM, and the action data using a neural network model.
[Selection] Figure 4
Description
本発明は、個人適応型コンテキストを獲得する携帯端末、及び、個人適応型コンテキスト獲得方法に関する。 The present invention relates to a portable terminal that acquires a personal adaptive context and a personal adaptive context acquisition method.
実世界指向型のサービスを実現する上で個人の状況(コンテキスト)を把握することは重要である。従来における個人のコンテキストを把握するための技術としては、センサにより取得されたユーザの生体情報等に基づいて、コンテキストを獲得する技術が知られている(例えば、非特許文献1、特許文献1、及び、特許文献2参照)。
非特許文献1に記載されている技術によれば、センサが搭載されたアームバンドをユーザの腕に取り付けることにより、センサからユーザの生体情報や環境情報を表すセンサデータを取得する。ユーザは、コンテキスト(“歩いている”、“仕事をしている”、“寝ている”等)が変化する毎にアームバンドに搭載されているボタンを押して情報を入力する。アームバンドは取得したセンサデータをコンピュータに送信し、コンピュータはセンサデータとコンテキストとの対応関係を学習する。
It is important to grasp the individual situation (context) in order to realize a real-world oriented service. As a conventional technique for grasping an individual context, a technique for acquiring a context based on a user's biometric information acquired by a sensor is known (for example, Non-Patent Document 1, Patent Document 1, And Patent Document 2).
According to the technique described in Non-Patent Document 1, sensor data representing the user's biological information and environmental information is acquired from the sensor by attaching an arm band on which the sensor is mounted to the user's arm. Each time the context (“walking”, “working”, “sleeping”, etc.) changes, the user presses a button on the armband to input information. The armband transmits the acquired sensor data to the computer, and the computer learns the correspondence between the sensor data and the context.
また、特許文献1には、携帯端末を所持するユーザの生体情報と環境情報と行動記録とを対応付けて格納し、これらの情報に基づいてユーザの行動についての情報(過去のスケジュールの生体への影響の分析結果、将来のスケジュールの生体への影響の予測結果)を出力する技術内容が記載されている。
また、特許文献2には、ユーザの体温及び外気の温度に基づいて、ユーザの行動を推測する技術内容が記載されている。
Patent Document 2 describes the technical contents for estimating the user's behavior based on the user's body temperature and the temperature of the outside air.
従来における個人のコンテキスト獲得に関する研究には、以下の課題がある。
(1)センサデータの処理方法がユーザに依らず同じなので、特に生体情報などのセンサデータから個人固有の特徴を抽出することができず、個人毎の正確なコンテキストが得られない。
(2)センサデータと対応付けられるコンテキストのほとんどが“歩いている”、“仕事をしている”、“寝ている”、“屋外に居る”等の単純な状況を表すものであるため、知的なサービス制御のための情報として用いるためには不十分であり、得られたコンテキストをさらに解釈する必要がある。
本発明は以上の点に鑑みてなされたものであり、個人の行動を詳細かつ正確に把握することが可能な個人適応型コンテキストを獲得する携帯端末、及び、個人適応型コンテキスト獲得方法を提供することを目的とする。
The conventional research on personal context acquisition has the following problems.
(1) Since the sensor data processing method is the same regardless of the user, it is not possible to extract individual-specific features from sensor data such as biometric information, and an accurate context for each individual cannot be obtained.
(2) Most of the contexts associated with the sensor data represent simple situations such as “walking”, “working”, “sleeping”, “being outdoors” It is not sufficient for use as information for intelligent service control, and the resulting context needs to be further interpreted.
The present invention has been made in view of the above points, and provides a mobile terminal and a personal adaptive context acquisition method for acquiring a personal adaptive context capable of grasping individual behavior in detail and accurately. For the purpose.
上記課題を解決するために、請求項1に記載の発明は、センサにより取得された、ユーザに関する情報を示すセンサデータを分割するセンサデータ分割手段と、前記センサデータ分割手段により分割されたセンサデータを表現するためのユーザ固有関数を算出するユーザ固有関数算出手段と、前記ユーザ固有関数算出手段により算出されたユーザ固有関数を用いて、前記センサデータ分割手段により分割されたセンサデータを展開するセンサデータ展開手段と、前記センサデータ展開手段による展開により得られた特徴パラメータと、ユーザの行動データとの対応関係を学習する個人適応型コンテキスト学習手段とを備えることを特徴とする携帯端末を提供する。 In order to solve the above-mentioned problem, the invention described in claim 1 is a sensor data dividing unit that divides sensor data indicating information related to a user acquired by a sensor, and sensor data divided by the sensor data dividing unit. A user-specific function calculating unit for calculating a user-specific function for expressing the sensor, and a sensor for developing the sensor data divided by the sensor data dividing unit using the user-specific function calculated by the user-specific function calculating unit There is provided a portable terminal comprising: a data expansion unit; and a personal adaptive context learning unit that learns a correspondence relationship between a characteristic parameter obtained by expansion by the sensor data expansion unit and user behavior data. .
この構成によれば、携帯端末は、ユーザ固有関数でセンサデータを展開することにより得られた特徴パラメータと、ユーザの行動データとの対応関係を学習するため、ユーザ個人に特化した固有の特徴を学習することができる。このため、この学習結果に基づいて、個人の行動を詳細かつ正確に把握することが可能な個人適応型コンテキストを獲得することができる。 According to this configuration, the mobile terminal learns the correspondence between the feature parameter obtained by developing the sensor data with the user-specific function and the behavior data of the user, and thus the unique feature specific to the individual user. Can learn. For this reason, based on this learning result, it is possible to obtain a personal adaptive context capable of grasping individual behavior in detail and accurately.
請求項2に記載の発明は、請求項1に記載の携帯端末において、自端末におけるサービスの利用履歴をユーザ行動データとして記憶するユーザ行動データ記憶手段をさらに備え、前記個人適応型コンテキスト学習手段は、前記ユーザ行動データ記憶手段に記憶されているユーザ行動データと、前記特徴パラメータとの対応関係を学習することを特徴とする。
この構成によれば、ユーザが携帯端末を用いてサービスを利用するだけで、携帯端末はユーザの行動データを記憶し、センサデータとユーザの行動データとの対応関係を学習することができ、何らかのデータを手動で入力する必要がないため、確実に対応関係の学習を行うことができる。
According to a second aspect of the present invention, in the mobile terminal according to the first aspect, the mobile terminal further comprises user behavior data storage means for storing service usage history in the terminal as user behavior data, and the personal adaptive context learning means is The correspondence relationship between the user behavior data stored in the user behavior data storage means and the feature parameter is learned.
According to this configuration, just by using the service using the mobile terminal, the mobile terminal can store the user's behavior data and learn the correspondence between the sensor data and the user's behavior data. Since it is not necessary to input data manually, it is possible to reliably learn correspondence.
請求項3に記載の発明は、請求項1又は2に記載の携帯端末において、前記センサデータ展開手段は、前記ユーザ固有関数に基づく特徴パラメータと、前記センサデータと前記ユーザ固有関数との差異に基づく特徴パラメータと、に展開することを特徴とする。
この構成によれば、携帯端末は、ユーザ固有関数に基づく特徴パラメータと、センサデータとユーザ固有関数との差異に基づく特徴パラメータと、に展開するため、センサデータからユーザ固有の特徴パラメータを多く抽出することができ、特徴パラメータとユーザの行動データとを正確に対応付けることができる。また、差異の程度に基づいて、ユーザのいつもの行動パターンをとっているか否かを解釈することが可能となる。
According to a third aspect of the present invention, in the portable terminal according to the first or second aspect, the sensor data expansion means is configured to determine a feature parameter based on the user specific function and a difference between the sensor data and the user specific function. It is characterized by expanding to feature parameters based on.
According to this configuration, since the mobile terminal develops the feature parameters based on the user specific function and the feature parameters based on the difference between the sensor data and the user specific function, many user specific feature parameters are extracted from the sensor data. It is possible to accurately associate the characteristic parameter with the user's action data. Further, based on the degree of difference, it is possible to interpret whether or not the user's usual behavior pattern is taken.
請求項4に記載の発明は、請求項1から3の何れか1項に記載の携帯端末において、前記個人適応型コンテキスト学習手段による学習結果に基づいて、前記センサにより取得されるセンサデータに対応するユーザの行動パターンを、個人適応型コンテキストとして獲得する個人適応型コンテキスト獲得手段をさらに備え、前記個人適応型コンテキスト獲得手段により獲得された個人適応型コンテキストに応じたサービスの提供を受けることを特徴とする。
この構成によれば、携帯端末は、ユーザ固有の特徴を学習した結果に基づいて個人適応型コンテキストを獲得するため、ユーザ個人の行動を詳細かつ正確に把握することが可能な個人適応型コンテキストを獲得することができる。そして、ユーザは、自己のコンテキストに適したサービスの提供を受けることが可能となる。
The invention according to claim 4 corresponds to sensor data acquired by the sensor based on a learning result by the personal adaptive context learning means in the mobile terminal according to any one of claims 1 to 3. A personal adaptive context acquiring means for acquiring a user's action pattern as a personal adaptive context, and receiving a service corresponding to the personal adaptive context acquired by the personal adaptive context acquiring means. And
According to this configuration, since the mobile terminal acquires the personal adaptive context based on the result of learning the user-specific features, the personal adaptive context that can grasp the user's individual behavior in detail and accurately is provided. Can be earned. Then, the user can receive a service suitable for his / her context.
請求項5に記載の発明は、センサにより取得された、ユーザに関する情報を示すセンサデータを分割するセンサデータ分割ステップと、前記センサデータ分割ステップにおいて分割されたセンサデータを表現するためのユーザ固有関数を算出するユーザ固有関数算出ステップと、前記ユーザ固有関数算出ステップにおいて算出されたユーザ固有関数を用いて、前記センサデータを展開するセンサデータ展開ステップと、前記センサデータ展開ステップにおける展開により得られた特徴パラメータとユーザの行動データとの対応関係を学習する個人適応型コンテキスト学習ステップとを有し、前記個人適応型コンテキスト学習ステップにおける学習結果に基づいて、前記センサにより取得されるセンサデータに対応する前記ユーザの行動パターンを、個人適応型コンテキストとして獲得することを特徴とする個人適応型コンテキスト獲得方法を提供する。
この方法によれば、ユーザ固有関数を用いることで、ユーザ固有の特徴を学習することができ、当該学習結果に基づいて、ユーザの行動を詳細かつ正確に把握することが可能な個人適応型コンテキストを獲得することができる。
The invention according to claim 5 is a sensor data division step for dividing sensor data indicating information related to a user acquired by a sensor, and a user specific function for expressing the sensor data divided in the sensor data division step. Obtained by the user-specific function calculating step for calculating the sensor data, the sensor data expanding step for expanding the sensor data using the user specific function calculated in the user-specific function calculating step, and the expansion in the sensor data expanding step A personal adaptive context learning step for learning the correspondence between the feature parameter and the user behavior data, and corresponding to the sensor data acquired by the sensor based on the learning result in the personal adaptive context learning step The user's behavior pattern And providing personal adaptive context acquisition method characterized by obtaining a personal adaptive context.
According to this method, by using a user-specific function, a user-specific feature can be learned, and based on the learning result, a personal adaptive context that can grasp the user's behavior in detail and accurately Can be earned.
本発明によれば、携帯端末は、ユーザ固有関数でセンサデータを展開することにより得られた特徴パラメータと、ユーザの行動データとの対応関係を学習するため、ユーザ個人に特化した固有の特徴を学習することができる。このため、この学習結果に基づいて、個人の行動を詳細かつ正確に把握することが可能な個人適応型コンテキストを獲得することができる。 According to the present invention, since the mobile terminal learns the correspondence between the feature parameter obtained by developing the sensor data with the user-specific function and the behavior data of the user, the mobile terminal has a unique feature specific to the user. Can learn. For this reason, based on this learning result, it is possible to obtain a personal adaptive context capable of grasping individual behavior in detail and accurately.
次に、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明において参照する各図においては、他の図と同等部分に同一符号が付されている。
図1は、本発明の実施の形態に係る携帯端末1のハードウェア及びソフトウェア構成を示すブロック図である。
同図に示すように、携帯端末10は、プログラムを実行し携帯端末10全体を制御するCPU(Central Processing Unit)11と、SRAM(Static Random Access Memory)やDRAM(Dynamic Random Access Memory)等で構成される揮発性メモリ12と、フラッシュ・メモリ等で構成される不揮発性メモリ13と、移動通信網を介しての通信を制御する通信インターフェース14とを含んで構成され、一般的な携帯電話機のハードウェア構成を備えている。
Next, embodiments of the present invention will be described with reference to the drawings. In each drawing referred to in the following description, the same reference numerals are given to the same parts as in the other drawings.
FIG. 1 is a block diagram showing a hardware and software configuration of portable terminal 1 according to the embodiment of the present invention.
As shown in the figure, the
さらに、携帯端末10には、センサ15、及び、ユーザ行動履歴獲得装置16が搭載されている。
センサ15は、ユーザの生体情報やユーザ周囲の環境情報等の、ユーザに関する情報を取得する。センサ15は複数のセンサで構成される。当該複数のセンサは生体情報計測センサ151と環境情報計測センサ152とに分類することができる。生体情報計測センサ151は、ユーザの脈拍を計測するセンサ、ユーザの体温を計測するセンサ、発汗状況(皮膚抵抗)を計測するセンサ、撮影された画像やGPS(Global Positioning System)等に基づいてユーザの位置や姿勢を計測するセンサ、及び、ユーザの音声情報を取得するセンサ等を含んで構成される。
Further, the
The
環境情報計測センサ152は、ユーザの周囲の人やモノの温度、及び、明るさ等の環境情報を計測するセンサ群である。具体的には、環境情報計測センサ152は、人感センサ、照度センサ、気温センサ、湿度センサ、及び、ノイズ計測センサ等を含んで構成される。
また、センサ15を構成する複数のセンサは、異なる観点により、「analog系」センサと「on−off系」センサとに分類することができる。「analog系」センサは、画像情報を取得するセンサ、音声情報を取得するセンサ、及び、脈拍センサのように、アナログ信号として情報を取得するセンサである。また、「on−off系」センサは、人感センサや照度センサのように、人の存在や光量に変化があったときにのみ反応するセンサである。
The environmental
Further, the plurality of sensors constituting the
ユーザ行動履歴獲得装置16は、携帯端末10を所持するユーザの行動履歴を獲得する装置であり、例えばICチップで構成されている。ユーザ行動履歴獲得装置16には、ユーザの行動データを取得するための行動履歴獲得プログラム162と、取得した行動データを蓄積しておくためのユーザ行動履歴DB(データベース)161とが記憶されている。ユーザ行動履歴獲得装置16は、携帯端末10におけるサービス利用履歴をユーザの行動データとして獲得し、獲得したユーザの行動データをユーザ行動履歴DB161に蓄積する。サービス利用履歴には、携帯端末10からインターネットにアクセスしてWebサイトを利用した履歴(アクセス日時、URL(Uniform Resource Locator))、電子メールを送受信した履歴(送受信日時、相手先メールアドレス、件名)、電子マネーによる購買履歴(購買日時、購買店、購入物品、金額)及び、通話履歴(通話日時、相手先電話番号)が含まれる。
The user behavior history acquisition device 16 is a device that acquires the behavior history of the user who owns the
携帯端末10の不揮発性メモリ13には、各種ソフトウェアが記憶されている。当該各種ソフトウェアの中には、本発明に特徴的な個人適応型コンテキスト獲得プログラムが含まれている。この個人適応型コンテキスト獲得プログラムは複数のプログラムモジュールで構成されている。当該複数のプログラムモジュールには、あるセンサから得られるセンサデータのイベント(変化)情報に基づいて、各センサから得られる時系列データの時間窓を決定するためのセンサ情報分割機能モジュール131と、各センサから得られるセンサデータからユーザ特有なパターンを解析するのに適した基底関数(以下「ユーザ固有関数」という)を発見するためのユーザ固有関数算出機能モジュール132と、時間窓ごとに分割されたセンサデータを、ユーザ固有関数を基底関数として用いて表現するためのセンサデータ展開機能モジュール133と、ユーザ固有関数を基底関数として用いて表現することにより得られた特徴パラメータ(展開係数)を入力データとし、ユーザ行動履歴獲得装置16で獲得されたユーザのサービス利用履歴をユーザの行動を表す出力データとして、両者の関係を学習させるための個人適応型コンテキスト学習機能モジュール134と、が含まれている。
Various software is stored in the
また、携帯端末10の不揮発性メモリ13に記憶されるソフトウェアの中には、各種データを蓄積しておくためのデータベースが含まれている。当該データベースには、算出されたユーザ固有関数を記憶しておくためのユーザ固有関数DB135と、SOM(Self-Organizing Maps;自己組織化マップ)等の手法を用いて特徴パラメータを要約したデータであるセンサ情報特徴データを記憶するためのセンサ情報要約データDB136と、センサ情報特徴データとユーザ行動データとの対応関係の学習結果を記憶するための学習済みニューラルネットDB137とが存在する。
Further, the software stored in the
揮発性メモリ12にはデータが一時的に記憶される。例えば、揮発性メモリ12には、センサ15により取得されたセンサデータが蓄積される。
携帯端末10のCPU11が、上述した個人適応型コンテキスト獲得プログラムを構成するプログラムモジュール131,132,133,134を実行することにより、図2に示す機能構成が携帯端末10に実現される。
Data is temporarily stored in the
The
センサデータ分割部101は、センサ15を構成する各センサにより取得されるセンサデータをイベント毎に分割する。ここで、センサデータをイベント毎に分割する手法としては、例えば、特定のセンサから取得されるセンサデータに閾値を超える変化が発生する毎に、各センサにより取得されたセンサデータを分割する手法が考えられる。また、別の手法としては、「on−off系」センサにより取得されたセンサデータが1(on)から0(off)に変化する毎に、もしくは、0(off)から1(on)に変化する毎に、各センサにより取得されたセンサデータを分割する方法が考えられる。
The sensor
ユーザ固有関数算出部102は、センサデータ分割部101により分割されたセンサデータを近似して表現するためのユーザ固有関数を算出する。ユーザ固有関数算出部102は、算出したユーザ固有関数をユーザ固有関数DB135に記憶する。ユーザ固有関数を算出する手法としては,自己相似性の関数を算出するフラクタル画像圧縮アルゴリズムの手法を用いても良いし、また,ウェーブレット変換のような局在波関数を幾つか用意し、それら局在波関数による展開手法を用いても良い。
センサデータ展開部103は、ユーザ固有関数算出部102により算出されたユーザ固有関数を用いて、センサデータ分割部101により分割されたセンサデータを展開する。
The user specific
The sensor
個人適応型コンテキスト学習部104は、センサデータ展開部103がセンサデータを展開することにより得られた特徴パラメータと、当該センサデータが取得された時にユーザ行動履歴獲得装置16により取得されたユーザの行動データとの対応関係を学習する。そして、個人適応型コンテキスト学習部104は、この学習結果を学習済みニューラルネットDB137に記憶する。具体的な学習の手法としては、例えば、個人適応型コンテキスト学習部104は、展開により得られた特徴パラメータを入力データとし、教師なし競合モデルを用いてSOMを生成する。そして、個人適応型コンテキスト学習部104は、生成した自己組織化マップの出力データとユーザの行動データとの対応関係をニューラルネットワークモデルを用いて学習する。なお、学習の手法はこれに限定されず、周知の他の学習モデルを利用することができる。例えば、マルコフモデル等を利用してもよい。
個人適応型コンテキスト獲得部105は、個人適応型コンテキスト学習部104による学習結果に基づいて、センサ15により逐次取得されるセンサデータに対応するユーザの行動パターンを、個人適応型コンテキストとして獲得する。
The personal adaptive
The personal adaptive
次に、図3及び図4を参照しながら動作例について説明する。図3は、携帯端末10が行う個人適応型コンテキスト獲得処理の手順を示すフローチャートである。図4は、携帯端末10により獲得される個人適応型コンテキストを利用したサービス提供の一例を示す図である。
なお、以下の説明において、次の記号eall、eanalog、eon-off、Call、Canalog、Con-off、mαはベクトルを表すものとする。また、センサ15を構成するセンサのうち、「analog系」センサの総数はNanalog(Nanalogは自然数)個存在し、「on−off系」センサの総数はNon-off(Non-offは自然数)個存在するものとする。
Next, an operation example will be described with reference to FIGS. FIG. 3 is a flowchart showing a procedure of the personal adaptive context acquisition process performed by the
In the following description, the following symbols e all , e analog , e on-off , C all , C analog , C on-off , and mα represent vectors. Among the sensors constituting the
ユーザ行動履歴獲得装置16は、ユーザが携帯端末10を利用してメールを送受信したり、インターネットにアクセスしたり、電子マネーで商品を購入する毎に、サービス利用履歴をユーザ行動データとして取り込み、ユーザ行動履歴DB161に蓄積する(ステップS101)。また、センサ15を構成する「analog系」センサは逐次時系列データを取り込み、揮発性メモリ12に蓄積する(ステップS102)。また、「on−off系」センサは逐次on−offデータ(0(on)または1(off)を表すデータ)を取り込み、揮発性メモリ12に蓄積する(ステップS103)。
The user behavior history acquisition device 16 captures service usage history as user behavior data each time a user sends and receives emails using the
携帯端末10は、各センサデータからユーザ固有の特徴を抽出するために、「analog系」センサにより揮発性メモリ12に蓄積されたi番目(i=1、2、・・・、Nanalog)のセンサデータSa(i)(t)に基づいて、ユーザ固有の信号パターンを抽出するのに適したユーザ固有関数を算出する。
具体的には、まず、携帯端末10のセンサデータ分割部101は、「on−off系」センサにより蓄積されたj番目(j=1、2、・・・、Non-off)のセンサデータSd(j)(t)が1(on)から0(off)になった時間、もしくは、0(off)から1(on)になった時間に基づいて、「analog系」センサから取得されたセンサデータSa(i)(t)を分割する(ステップS104)。
The
Specifically, first, the sensor
そして、ユーザ固有関数算出部102は、分割されたぞれぞれのセンサデータSa(i)(t)(ts≦t≦te)毎に最も近似できる基底関数を算出し、それをユーザ固有関数U(i) k(t)(k=1、2、・・・、n(i) analog)とする(ステップS105)。基底関数を算出する方法としては、ここでは既知のフラクタル画像圧縮アルゴリズムの手法を用いて、ユーザ固有関数とそれで分解したときの係数に相当するものとして、複数のアトラクタパラメータで表現する。例えば、分割区間ts≦t≦teでセンサデータSa(i)(t)を二次元画像データ形式に変換することでSa(i)(tx、ty)が得られ、これにフラクタル画像圧縮アルゴリズムを適用することができる。この場合、ユーザ固有関数算出部102は、式(1)に示すアトラクタパラメータ(圧縮符号列)C(i)をユーザ固有関数U(i) k(t)(=U(i) k(tx、ty))(k=1、2、・・・、n(i) analog;n(i) analogは自然数)として算出し、ユーザ固有関数DB135に登録する。
Then, the user-specific
ユーザ固有関数算出部102は各センサについて同様の処理を施し、それぞれユーザ固有の信号を抽出するのに適したユーザ固有関数U(i) k(tx、ty)を算出し、その結果をユーザ固有関数DB135に蓄積する。
ユーザ固有関数算出部102は、「on−off系」センサから取得されたセンサデータSd(j)(t)についても、「analog系」センサと同様の手法を用いて、ユーザ固有関数U(j) k(t)(=U(j) k(tx、ty))(k=1、2、・・・、n(j) on-off;n(j) on-offは自然数)を算出する。
The user specific
The user
次に、ユーザ固有関数U(i) k(tx、ty)を用いて、センサ情報特徴データmαを生成する。具体的には、まず、センサデータ展開部103は、センサ毎のユーザ固有関数U(i) k(tx、ty)を用いて、分割されたセンサデータSa(i)(t)(ts≦t≦te)(二次元画像データ形式に変換済み)を近似し、実際の値との差異を式(2)に示すベクトルeanalogで表現する。
Next, sensor information feature data mα is generated using the user specific function U (i) k (t x , t y ). Specifically, first, the sensor
センサデータ展開部103は、各「on‐off系」センサについても、その時のon‐off状態を、ベクトルeon-off=(0、1、0、・・・、1、0)(“0”、“1”は、各センサのon−off状態の一例を表す)で表現する。そして、センサデータ展開部103は、実際の値との差異を表すベクトルとして、式(4)に示すeallを生成する(ステップS106)。
For each “on-off system” sensor, the sensor
なお、実際の値との差異を表すベクトルという意味では、eallをeanalogのみで表すことも可能である。
個人適応型コンテキスト学習部104は、このようにしてセンサデータを展開することにより得られた特徴パラメータ(式(4)に示すeall及び式(5)に示すCall)を入力とする競合学習を行う(ステップS107)。
Note that e all can be expressed only by e analog in the sense of a vector representing a difference from an actual value.
The personal adaptive
ここでは、既知のKohonenの競合学習モデルにより、SOMが得られる。個人適応型コンテキスト学習部104は、このSOMを構成する出力ノードmαをセンサ情報特徴データとして、センサ情報要約データDB136に蓄積する。
さらに、個人適応型コンテキスト学習部104は、上記で得られたセンサ情報特徴データmαを入力とし、ユーザのユーザ行動履歴DB161から得られるユーザ行動データを出力として、既知のBP(Back−propagation)学習則に基づくニューラルネットにより両者の対応関係を学習させる(ステップS108)。ここで、ユーザ行動データの出力形式は、“○○○のサイトにアクセス”、“×××へメールを送信”、及び、“△△△で物品を購入”などのサービス利用内容ごとにユーザ行動ノードPiを用意して、ユーザが実際にしている行動であれば1、実際にしていない行動であれば0が割り当てられたものである。個人適応型コンテキスト学習部104は、この時の学習結果(学習済みニューラルネットワーク)を学習済みニューラルネットDB137に蓄積する。
Here, the SOM is obtained by the known Kohonen competitive learning model. The personal adaptive
Further, the personal adaptive
上記までの一連の処理は、常時実施され、それぞれのDBが更新される。
この一連の処理と並行して、個人適応型コンテキスト獲得部105は、上記処理による学習結果に基づいて個人適応型コンテキストを獲得する。具体的には、「analog系」及び「on−off系」のセンサにより取り込まれたセンサデータSa(i)(t)及びSd(j)(t)は、前述のユーザ固有関数U(i)(t)に基づいて特徴パラメータeall及びCallに展開され、さらにセンサ情報特徴データmαに変換される。そして、個人適応型コンテキスト獲得部105は、学習済みニューラルネットDB137に基づいて、センサ情報特徴データmαに対応する個人適応型コンテキストを獲得する(ステップS109)。具体的には、センサ情報特徴データmαを入力データとして学習済みニューラルネットDB137に蓄積されている学習結果に作用させると、ユーザのサービス利用パターンがユーザの行動パターン(P1、P2、…、Pi)として出力される。なお、ここでの行動パターンは、ユーザ行動履歴獲得装置16により得られたユーザの各行動を表す属性情報とそれが起きる確率とで表現されたものである。例えば、事象1のユーザ行動が映画に関するサイトへ情報検索したことであれば、行動パターンは「URL:http://www.EIGA.co.jp/xxx/...」という属性情報とそれが起きる確率P1で表現され、事象2のユーザ行動が太郎さんへ挨拶メールを送信したことであれば、行動パターンは「Mail: To: Taro@zzz.co.jp, Subject:"Hello!"」 という属性情報とそれが起きる確率P2で表現され、さらには、事象iのユーザ行動が電子マネーを利用してXYZの店舗で1,000円のジャケットを購入したことであれば、行動パターンは「e-cash: Store: XYZ, Product:Jacket, Price: 1,000 Yen」 という属性情報とそれが起きる確率Piで表現される。これは、各行動パターンが起こりうる確率、すなわち、この時点でのユーザが取るかもしれない行動可能性を確率で表現したものである。
A series of processes up to the above are always performed, and each DB is updated.
In parallel with this series of processing, the personal adaptive
図4に示すCRM(Customer Relationship Management)データベース30を有している既存のサービス提供システム20は、携帯端末10が獲得した個人適応型コンテキストから予測されるユーザの行動に適したサービスを、CRMデータベース30から検索する。これにより、サービス提供システム20は、ユーザに適したサービスを発見することができる(ステップS110)。サービス提供システム20は、発見したサービスを携帯端末10に提供する(ステップS111)。例えば、個人適応型コンテキストが、現在ユーザが映画関連のサイトにアクセスしていることを示していた場合には、サービス提供システム20はチケット予約に関する情報を携帯端末10に送信する。また、個人適応型コンテキストが、現在ユーザが流行ファッションに関するサイトにアクセスしており、かつ、ユーザはサイトにアクセスした後に洋服を買いに出かける確率が高いことを示していた場合には、サービス提供システム20は洋服のバーゲン情報を携帯端末10に送信する。このようにして、携帯端末10は、サービス提供システム20から個人適応型コンテキストに応じたサービスを取得することができる。
The existing
なお、既存のオントロジの手法により個人適応型コンテキストに応じたサービスを発見することも可能である。このように、携帯端末10は、ユーザ個人に適応したコンテキストの学習及び獲得が可能となる。そして、サービス提供システム20は、携帯端末10が獲得したコンテキストに基づいて、ユーザに適したサービスをユーザに提供することが可能となる。
It is also possible to find a service corresponding to a personal adaptive context by using an existing ontology method. In this way, the
以上説明したように、携帯端末10は、ユーザ毎、センサ毎、イベント毎にユーザ固有関数を算出し、当該ユーザ固有関数でセンサデータを展開することにより得られた特徴パラメータと、ユーザ行動履歴獲得装置16により得られたユーザの行動データとの対応関係を学習するため、ユーザに固有の特徴を学習することができ、当該学習結果に基づいて個人に適応したコンテキストを獲得することが可能となる。
As described above, the
また、センサデータをイベント毎に自動的に分割し、かつ、ユーザ行動履歴獲得装置16によってユーザの行動履歴を獲得するようにしたため、知識処理や主観的なコンテキストの定義を必要とせず、ユーザが携帯端末10を通常通りに携帯し利用するのみで、個人適応型コンテキストの学習及び獲得を行うことができる。
また、ユーザ固有関数を用いることにより、センサデータをユーザの典型的な特徴パラメータCall(ユーザ固有関数に基づく特徴パラメータ)と例外的な特徴パラメータeall(センサデータとユーザ固有関数との差異に基づく特徴パラメータ)とに分離することができるため、センサデータからたくさんのユーザ固有の特徴を抽出することができ、特徴パラメータとユーザの行動データとを正確に対応付けることができる。
In addition, since the sensor data is automatically divided for each event and the user behavior history is acquired by the user behavior history acquisition device 16, knowledge processing and subjective context definition are not required. Only by carrying and using the
Further, by using a user specific function, sensor data can be converted into a typical user characteristic parameter C all (a characteristic parameter based on the user specific function) and an exceptional characteristic parameter e all (the difference between the sensor data and the user specific function). Therefore, a large number of user-specific features can be extracted from the sensor data, and the feature parameters and user behavior data can be associated with each other accurately.
また、センサデータとユーザ固有関数との差異の程度に基づいて、いつもの行動パターンか否かを解釈することも可能となる。例えば、毎日特定の時間帯において取得されたセンサデータを常に同じユーザ固有関数で表現することができる場合には、ユーザが特定の時間帯に常に同じ行動をとっており、行動の癖があることがわかる。一方、ある日、同じ特定の時間帯に取得したセンサデータをいつものユーザ固有関数で表現した場合、eallが大きくなる場合には、ユーザはいつもと異なる行動をとったことがわかる。 Further, based on the degree of difference between the sensor data and the user specific function, it is possible to interpret whether or not the behavior pattern is normal. For example, if sensor data acquired every day in a specific time zone can always be expressed with the same user-specific function, the user always takes the same action in a specific time zone and there is a habit of behavior I understand. On the other hand, when sensor data acquired at the same specific time zone is expressed by a usual user-specific function on one day, if e all becomes large, it can be seen that the user has taken a different behavior.
また、獲得される個人適応型コンテキストは、既存のCRMの手続きの一要素と成り得る情報(サービス(すなわち、行動パターン)の利用可能性や各サービスの関連を確率や相関で表現した情報)であるため、既存のCRMに基づいたサービス提供システム20との親和性がある。従って、サービス提供システム20は、個人適応型コンテキストとCRMデータベース30とを用いて、ユーザに適したサービスを容易に発見し提供することができる。
The acquired personal adaptive context is information that can be an element of the existing CRM procedure (information expressing the availability of services (that is, behavior patterns) and the relationship of each service with probability and correlation). Therefore, there is an affinity with the
なお、上述した実施形態においては、センサ15は携帯端末10に搭載されているとして説明したが、これに限定されることはなく、例えば、センサ15が搭載されたバンドを人間の腕や頭に巻き付けてもよい。
また、上述した実施形態においては、携帯端末10にICチップで構成されたユーザ行動履歴獲得装置16が搭載されているとして説明したが、ユーザ行動履歴を獲得するためのプログラムを不揮発性メモリ13に記憶しておくことにより、ユーザ行動履歴獲得装置16の機能を実現するようにしてもよい。
また、携帯端末10は携帯電話機に限定されることはなく、ユーザが携帯し各種サービスを利用可能な装置であればよく、例えば、PDA(Personal Digital Assistance)やPHS(Personal Handyphone System)でもよい。
In the above-described embodiment, the
Further, in the above-described embodiment, it has been described that the user action history acquisition device 16 configured with an IC chip is mounted on the
The
個人の状況認識に利用することができ、また、認識された個人の状況に応じたサービス提供に利用することができる。例えば、個人のヘルスケア、CRMに基づくサービスナビゲーション等に利用することができる。 It can be used to recognize an individual situation and can be used to provide a service according to the recognized individual situation. For example, it can be used for personal health care, service navigation based on CRM, and the like.
10 携帯端末
11 CPU
12 揮発性メモリ
13 不揮発性メモリ
131 センサ情報分割機能モジュール
132 ユーザ固有関数算出機能モジュール
133 センサデータ展開機能モジュール
134 個人適応型コンテキスト学習機能モジュール
135 ユーザ固有関数DB
136 センサ情報要約データDB
137 学習済みニューラルネットDB
14 通信インターフェース
15 センサ
151 生体情報計測センサ
152 環境情報計測センサ
16 ユーザ行動履歴獲得装置
161 ユーザ行動履歴DB
162 行動履歴獲得プログラム
101 センサデータ分割部
102 ユーザ固有関数算出部
103 センサデータ展開部
104 個人適応型コンテキスト学習部
105 個人適応型コンテキスト獲得部
20 サービス提供システム
30 CRMデータベース
10
DESCRIPTION OF
136 Sensor information summary data DB
137 Trained neural network DB
14
162 Action
Claims (5)
前記センサデータ分割手段により分割されたセンサデータを表現するためのユーザ固有関数を算出するユーザ固有関数算出手段と、
前記ユーザ固有関数算出手段により算出されたユーザ固有関数を用いて、前記センサデータ分割手段により分割されたセンサデータを展開するセンサデータ展開手段と、
前記センサデータ展開手段による展開により得られた特徴パラメータと、ユーザの行動データとの対応関係を学習する個人適応型コンテキスト学習手段と
を備えることを特徴とする携帯端末。 Sensor data dividing means for dividing sensor data indicating information about the user acquired by the sensor;
User specific function calculating means for calculating a user specific function for expressing the sensor data divided by the sensor data dividing means;
Sensor data expansion means for expanding the sensor data divided by the sensor data division means using the user specific function calculated by the user specific function calculation means;
A portable terminal comprising: a personal adaptive context learning means for learning a correspondence relationship between a feature parameter obtained by the development by the sensor data development means and user behavior data.
前記個人適応型コンテキスト学習手段は、
前記ユーザ行動データ記憶手段に記憶されているユーザの行動データと、前記特徴パラメータとの対応関係を学習することを特徴とする
請求項1に記載の携帯端末。 It further comprises user behavior data storage means for storing service usage history in its own terminal as user behavior data,
The personal adaptive context learning means includes:
The mobile terminal according to claim 1, wherein a correspondence relationship between user behavior data stored in the user behavior data storage unit and the feature parameter is learned.
前記ユーザ固有関数に基づく特徴パラメータと、前記センサデータと前記ユーザ固有関数との差異に基づく特徴パラメータと、に展開することを特徴とする
請求項1又は2に記載の携帯端末。 The sensor data expansion means is
The mobile terminal according to claim 1, wherein the mobile terminal is developed into a characteristic parameter based on the user specific function and a characteristic parameter based on a difference between the sensor data and the user specific function.
前記個人適応型コンテキスト獲得手段により獲得された個人適応型コンテキストに応じたサービスの提供を受けることを特徴とする
請求項1から3の何れか1項に記載の携帯端末。 Based on a learning result by the personal adaptive context learning means, further comprising a personal adaptive context acquisition means for acquiring a user behavior pattern corresponding to the sensor data acquired by the sensor as a personal adaptive context;
The mobile terminal according to any one of claims 1 to 3, wherein the mobile terminal receives a service corresponding to the personal adaptive context acquired by the personal adaptive context acquisition means.
前記センサデータ分割ステップにおいて分割されたセンサデータを表現するためのユーザ固有関数を算出するユーザ固有関数算出ステップと、
前記ユーザ固有関数算出ステップにおいて算出されたユーザ固有関数を用いて、前記センサデータを展開するセンサデータ展開ステップと、
前記センサデータ展開ステップにおける展開により得られた特徴パラメータとユーザの行動データとの対応関係を学習する個人適応型コンテキスト学習ステップと
を有し、
前記個人適応型コンテキスト学習ステップにおける学習結果に基づいて、前記センサにより取得されるセンサデータに対応するユーザの行動パターンを、個人適応型コンテキストとして獲得することを特徴とする個人適応型コンテキスト獲得方法。 A sensor data dividing step for dividing sensor data indicating information about the user acquired by the sensor;
A user specific function calculating step for calculating a user specific function for expressing the sensor data divided in the sensor data dividing step;
Sensor data expansion step for expanding the sensor data using the user specific function calculated in the user specific function calculation step;
A personal adaptive context learning step for learning a correspondence relationship between the feature parameter obtained by the expansion in the sensor data expansion step and the behavior data of the user,
A personal adaptive context acquisition method, wherein a user behavior pattern corresponding to sensor data acquired by the sensor is acquired as a personal adaptive context based on a learning result in the personal adaptive context learning step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004322466A JP2006134080A (en) | 2004-11-05 | 2004-11-05 | Mobile terminal and personal adaptive context acquisition method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004322466A JP2006134080A (en) | 2004-11-05 | 2004-11-05 | Mobile terminal and personal adaptive context acquisition method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2006134080A true JP2006134080A (en) | 2006-05-25 |
Family
ID=36727574
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004322466A Pending JP2006134080A (en) | 2004-11-05 | 2004-11-05 | Mobile terminal and personal adaptive context acquisition method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2006134080A (en) |
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008009505A (en) * | 2006-06-27 | 2008-01-17 | Olympus Corp | Information display system |
| JP2008204040A (en) * | 2007-02-19 | 2008-09-04 | Kddi Corp | Mobile terminal, program, and display screen control method for mobile terminal |
| JP2008264352A (en) * | 2007-04-24 | 2008-11-06 | Univ Of Aizu | Menstrual cycle estimation device and menstrual cycle estimation method |
| JP2010146221A (en) * | 2008-12-18 | 2010-07-01 | Hitachi Ltd | Behavior recording input support system, behavior input support method, and server |
| JP2010530568A (en) * | 2007-05-30 | 2010-09-09 | バイエル・ヘルスケア・エルエルシー | Method and system for managing health data |
| JP2010211679A (en) * | 2009-03-12 | 2010-09-24 | Hitachi Ltd | Action prediction method and action prediction system |
| EP2284768A2 (en) | 2009-08-03 | 2011-02-16 | Sony Corporation | Data processing apparatus, data processing method, and program |
| JP2011164811A (en) * | 2010-02-08 | 2011-08-25 | Hitachi Ltd | Apparatus and system for information processing |
| CN102183252A (en) * | 2009-12-04 | 2011-09-14 | 索尼公司 | Data processing apparatus, data processing method and program |
| WO2012066951A1 (en) | 2010-11-18 | 2012-05-24 | ソニー株式会社 | Data processing device, data processing method, and program |
| JP2013513138A (en) * | 2009-09-29 | 2013-04-18 | テルコーディア テクノロジーズ インコーポレイテッド | Enables capture, transmission, and reconstruction of relevant causal context history for stream computing applications with limited resources |
| US8572008B2 (en) | 2009-12-04 | 2013-10-29 | Sony Corporation | Learning apparatus and method, prediction apparatus and method, and program |
| JP2014513330A (en) * | 2011-01-19 | 2014-05-29 | クゥアルコム・インコーポレイテッド | Learning situations through pattern matching |
| JP2016219007A (en) * | 2015-05-14 | 2016-12-22 | 株式会社アドダイス | Management system and management method |
| JP2017167878A (en) * | 2016-03-17 | 2017-09-21 | 国立研究開発法人産業技術総合研究所 | Behavior analysis system and program |
| CN108510071A (en) * | 2017-05-10 | 2018-09-07 | 腾讯科技(深圳)有限公司 | Feature extracting method, device and the computer readable storage medium of data |
| JP2020528588A (en) * | 2017-08-11 | 2020-09-24 | グーグル エルエルシー | On-device machine learning platform |
| JP2020528589A (en) * | 2017-08-11 | 2020-09-24 | グーグル エルエルシー | On-device machine learning platform |
| WO2021090535A1 (en) * | 2019-11-08 | 2021-05-14 | ソニーグループ株式会社 | Information processing device and information processing method |
-
2004
- 2004-11-05 JP JP2004322466A patent/JP2006134080A/en active Pending
Cited By (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008009505A (en) * | 2006-06-27 | 2008-01-17 | Olympus Corp | Information display system |
| JP2008204040A (en) * | 2007-02-19 | 2008-09-04 | Kddi Corp | Mobile terminal, program, and display screen control method for mobile terminal |
| JP2008264352A (en) * | 2007-04-24 | 2008-11-06 | Univ Of Aizu | Menstrual cycle estimation device and menstrual cycle estimation method |
| JP2010530568A (en) * | 2007-05-30 | 2010-09-09 | バイエル・ヘルスケア・エルエルシー | Method and system for managing health data |
| US11094402B2 (en) | 2007-05-30 | 2021-08-17 | Ascensia Diabetes Care Holdings Ag | System and method for managing health data |
| US10468127B2 (en) | 2007-05-30 | 2019-11-05 | Ascensia Diabetes Care Holdings Ag | System and method for managing health data |
| US9618967B2 (en) | 2007-05-30 | 2017-04-11 | Ascensia Diabetes Care Holdings Ag | System and method for managing health data |
| JP2010146221A (en) * | 2008-12-18 | 2010-07-01 | Hitachi Ltd | Behavior recording input support system, behavior input support method, and server |
| JP2010211679A (en) * | 2009-03-12 | 2010-09-24 | Hitachi Ltd | Action prediction method and action prediction system |
| US8560467B2 (en) | 2009-08-03 | 2013-10-15 | Sony Corporation | Apparatus, method, and program for predicting user activity state through data processing |
| CN101989127A (en) * | 2009-08-03 | 2011-03-23 | 索尼公司 | Data processing apparatus, data processing method, and program |
| EP2284768A2 (en) | 2009-08-03 | 2011-02-16 | Sony Corporation | Data processing apparatus, data processing method, and program |
| JP2013513138A (en) * | 2009-09-29 | 2013-04-18 | テルコーディア テクノロジーズ インコーポレイテッド | Enables capture, transmission, and reconstruction of relevant causal context history for stream computing applications with limited resources |
| CN102183252A (en) * | 2009-12-04 | 2011-09-14 | 索尼公司 | Data processing apparatus, data processing method and program |
| US8572008B2 (en) | 2009-12-04 | 2013-10-29 | Sony Corporation | Learning apparatus and method, prediction apparatus and method, and program |
| JP2011164811A (en) * | 2010-02-08 | 2011-08-25 | Hitachi Ltd | Apparatus and system for information processing |
| US9589082B2 (en) | 2010-11-18 | 2017-03-07 | Sony Corporation | Data processing device that calculates an arrival probability for a destination using a user's movement history including a missing portion |
| WO2012066951A1 (en) | 2010-11-18 | 2012-05-24 | ソニー株式会社 | Data processing device, data processing method, and program |
| JP2014513330A (en) * | 2011-01-19 | 2014-05-29 | クゥアルコム・インコーポレイテッド | Learning situations through pattern matching |
| JP2016219007A (en) * | 2015-05-14 | 2016-12-22 | 株式会社アドダイス | Management system and management method |
| JP2017167878A (en) * | 2016-03-17 | 2017-09-21 | 国立研究開発法人産業技術総合研究所 | Behavior analysis system and program |
| CN108510071B (en) * | 2017-05-10 | 2020-01-10 | 腾讯科技(深圳)有限公司 | Data feature extraction method and device and computer readable storage medium |
| CN108510071A (en) * | 2017-05-10 | 2018-09-07 | 腾讯科技(深圳)有限公司 | Feature extracting method, device and the computer readable storage medium of data |
| JP2020528588A (en) * | 2017-08-11 | 2020-09-24 | グーグル エルエルシー | On-device machine learning platform |
| JP2020528589A (en) * | 2017-08-11 | 2020-09-24 | グーグル エルエルシー | On-device machine learning platform |
| WO2021090535A1 (en) * | 2019-11-08 | 2021-05-14 | ソニーグループ株式会社 | Information processing device and information processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2006134080A (en) | Mobile terminal and personal adaptive context acquisition method | |
| US8781450B2 (en) | Method and system for creating a personalized journal based on collecting links to information and annotating those links for later retrieval | |
| US8451194B2 (en) | Information processing system, digital photo frame, information processing method, and computer program product | |
| US8457595B2 (en) | Method and system for processing information based on detected biometric event data | |
| US8600918B2 (en) | Action history search device | |
| US20090177607A1 (en) | Situation presentation system, server, and computer-readable medium storing server program | |
| US20090063372A1 (en) | Context inference system and method thereof | |
| WO2007038791A2 (en) | Adaptive user profiling on mobile devices | |
| JP2013541787A (en) | Intelligent Kansei Inference Device and Inference Method | |
| KR20180072534A (en) | Electronic device and method for providing image associated with text | |
| JP2006031379A (en) | Information presenting apparatus and information presenting method | |
| WO2013128715A1 (en) | Electronic device | |
| JP2019149057A (en) | Information processing device, information processing method, and information processing program | |
| US20110208753A1 (en) | Method and Apparatus for Computing Relevancy | |
| CN107592421A (en) | Self-service method and device of mobile terminal | |
| JP7148624B2 (en) | Image proposal device, image proposal method, and image proposal program | |
| WO2016151494A1 (en) | Environment-based pain prediction wearable | |
| WO2018207619A1 (en) | Data collection apparatus and learning apparatus | |
| US8903835B2 (en) | Information device and information presentation method for selected object information corresponding to device location | |
| CN112765493B (en) | Method for obtaining time preference fusion sequence preference for point of interest recommendation | |
| KR102337678B1 (en) | Electronic device using machine learning to analyze similarity of graph and control method thereof | |
| CN111797298B (en) | Data collection method, device, storage medium and electronic equipment | |
| CN119723649A (en) | Sight focus prediction method, device, electronic device and readable storage medium | |
| KR100852221B1 (en) | Wearable computer and method using multiobjective optimization in ubiquitous computing environment | |
| KR102402684B1 (en) | Method for providing an information of self skin condition based on big data in non-facing environment |