JP2020042488A - 情報処理装置及びプログラム - Google Patents
情報処理装置及びプログラム Download PDFInfo
- Publication number
- JP2020042488A JP2020042488A JP2018168821A JP2018168821A JP2020042488A JP 2020042488 A JP2020042488 A JP 2020042488A JP 2018168821 A JP2018168821 A JP 2018168821A JP 2018168821 A JP2018168821 A JP 2018168821A JP 2020042488 A JP2020042488 A JP 2020042488A
- Authority
- JP
- Japan
- Prior art keywords
- constraint
- node
- information
- nodes
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
- G06F18/21355—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis nonlinear criteria, e.g. embedding a manifold in a Euclidean space
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】異なるクラスタに分類される2つ以上のノードが含まれている場合に、確率的なクラスタリングを行うことができる情報処理装置及びプログラムを提供する。【解決手段】情報処理装置10Aは、複数のノード及び複数のノードを結ぶ複数のリンクの情報と、複数のノードに含まれるノード対の各々に関する正及び負の制約を含む制約情報とを取得する取得部30と、複数のノードが分類される複数のクラスタの各々について、複数のノードの各々が各クラスタに分類される割合を示す分類割合を算出し、かつ、複数のクラスタの各々についての重要度を算出する算出部32と、少なくともリンクの情報、制約情報、分類割合、及び重要度を用いて、複数のノードについて確率的なクラスタリングを行うための確率モデルを生成する生成部34と、を備える。【選択図】図6
Description
本発明は、情報処理装置及びプログラムに関する。
例えば、特許文献1には、ネットワーク型のソフトクラスタリングを行う情報処理装置が記載されている。この情報処理装置は、複数のノード及び複数のノードを結ぶ複数のリンクを含むネットワークの情報と、複数のノードを複数の成分に分類する粒度とを取得する取得手段を備える。また、この情報処理装置は、複数の成分それぞれについて、複数のノードそれぞれが当該成分に分類される分類割合を、当該ノードとの間でリンクを有するノードの当該成分に関する分類割合が大きいほど大きな値となる第1の寄与と、複数の成分全体に対する当該成分が占める割合が大きいほど大きな値となる第2の寄与と、から構成される値により算出する分類割合算出手段を備える。
ところで、ノード間のリンクの度合いを確率的に表現するクラスタリング方法において、異なるクラスタに分類される2つ以上のノードが含まれている場合には、確率的なクラスタリングを行うことができない場合がある。
本発明は、異なるクラスタに分類される2つ以上のノードが含まれている場合に、確率的なクラスタリングを行うことができる情報処理装置及びプログラムを提供することを目的とする。
上記目的を達成するために、請求項1に記載の情報処理装置は、複数のノード及び前記複数のノードを結ぶ複数のリンクの情報と、前記複数のノードに含まれるノード対の各々に関する正及び負の制約を含む制約情報とを取得する取得部と、前記複数のノードが分類される複数のクラスタの各々について、前記複数のノードの各々が各クラスタに分類される割合を示す分類割合を算出し、かつ、前記複数のクラスタの各々についての重要度を算出する算出部と、少なくとも前記リンクの情報、前記制約情報、前記分類割合、及び前記重要度を用いて、前記複数のノードについて確率的なクラスタリングを行うための確率モデルを生成する生成部と、を備えている。
また、請求項2に記載の情報処理装置は、請求項1に記載の発明において、前記取得部が、前記複数のノードを分類するクラスタの大きさを定める変数である粒度と、前記制約情報の重みを定める重み変数とを更に取得し、前記生成部が、前記リンクの情報、前記制約情報、前記分類割合、前記重要度、前記粒度、及び前記重み変数を用いて、前記確率モデルを生成する。
また、請求項3に記載の情報処理装置は、請求項1又は2に記載の発明において、前記確率モデルが、前記制約情報を用いて表される制約項を含み、前記制約項が、前記ノード対の一方のノードが前記複数のクラスタの各々に帰属する確率の分布である帰属度と、前記ノード対の他方のノードが前記複数のクラスタの各々に帰属する確率の分布である帰属度との間の距離に、前記制約情報により示される値を乗じることで得られる。
また、請求項4に記載の情報処理装置は、請求項3に記載の発明において、前記制約情報が、前記ノード対に関するn×mの制約行列として表されており、前記制約行列をC、前記制約行列Cの各値をcnmとした場合、前記制約行列Cが、cnm=cmnであり、cnm>0の場合には正の制約、cnm=0の場合には制約なし、cnm<0の場合には負の制約を表している。
また、請求項5に記載の情報処理装置は、請求項4に記載の発明において、前記確率モデルを最大化する場合における前記分類割合を、予め定められた非線形計画法を用いて導出する導出部を更に備えている。
また、請求項6に記載の情報処理装置は、請求項3に記載の発明において、前記制約情報が、前記ノード対に関するn×mの制約行列として表されており、前記制約行列をC、前記制約行列Cの各値をcnmとした場合、前記制約行列Cが、cnm=cmn、Σncnm=0であり、cnm>0の場合には正の制約、cnm=0の場合には制約なし、cnm<0の場合には負の制約を表している。
また、請求項7に記載の情報処理装置は、請求項3に記載の発明において、前記制約情報が、前記ノード対に関するn×mの制約行列として表されており、前記制約行列をC、前記制約行列Cの各値をcnmとした場合、前記制約行列Cの一方の対角線上に位置するcnmの値は、特定のノードと周囲のノードとの関係性に基づいて、前記特定のノードが前記周囲のノードに対して孤立し易いか否かを表している。
また、請求項8に記載の情報処理装置は、請求項7に記載の発明において、前記制約行列Cの一方の対角線上に位置するcnmの値が正の場合、前記特定のノードが前記周囲のノードから孤立し易く、前記制約行列Cの一方の対角線上に位置するcnmの値が負の場合、前記特定のノードが前記周囲のノードから孤立し難いことを表している。
また、請求項9に記載の情報処理装置は、請求項6〜8のいずれか1項に記載の発明において、前記確率モデルを最大化する場合における前記分類割合を、前記制約行列Cの一方の対角線上に位置するcnmの値を用いて、解析的に導出する導出部を更に備えている。
また、請求項10に記載の情報処理装置は、請求項6〜9のいずれか1項に記載の発明において、前記ノード対が、制約が既知のノードと、制約が未知のノードとを含み、前記制約行列Cにおける、制約が既知のノードと、制約が未知のノードとの間の制約の値を、前記制約行列Cにおける既知の各値から予測する予測部を更に備えている。
更に、上記目的を達成するために、請求項11に記載のプログラムは、コンピュータを、請求項1〜10のいずれか1項に記載の情報処理装置が備える各部として機能させる。
請求項1及び請求項11に係る発明によれば、異なるクラスタに分類される2つ以上のノードが含まれている場合に、確率的なクラスタリングを行うことができる。
請求項2に係る発明によれば、粒度及び重み変数を考慮しない場合と比較して、精度良く確率的なクラスタリングを行うことができる。
請求項3に係る発明によれば、一対のノードの各々の帰属度間の距離を考慮しない場合と比較して、正及び負の制約を適切に確率的なクラスタリングに導入することができる。
請求項4に係る発明によれば、制約行列Cがcnm=cmnの条件を満たさない場合と比較して、適切な確率モデルを生成することができる。
請求項5に係る発明によれば、非線形計画法を用いない場合と比較して、分類割合の導出を適切に行うことができる。
請求項6に係る発明によれば、制約行列Cがcnm=cmn、Σncnm=0の条件を満たさない場合と比較して、適切な確率モデルを生成することができる。
請求項7に係る発明によれば、制約行列Cの対角線上に位置するcnmの値を考慮しない場合と比較して、ノードの孤立し易さを把握することができる。
請求項8に係る発明によれば、制約行列Cの対角線上に位置するcnmの値が正又は負であるかを考慮しない場合と比較して、ノードの孤立し易さを把握することができる。
請求項9に係る発明によれば、制約行列Cの対角線上に位置するcnmの値を用いない場合と比較して、分類割合の導出を適切に行うことができる。
請求項10に係る発明によれば、制約が既知のノードと未知のノードとの間の制約の値を予測しない場合と比較して、ユーザが入力する手間を軽減することができる。
以下、図面を参照して、本発明を実施するための形態の一例について詳細に説明する。
[第1の実施形態]
図1は、第1の実施形態に係る情報処理装置10Aの電気的な構成の一例を示すブロック図である。
図1に示すように、本実施形態に係る情報処理装置10Aは、制御部12と、記憶部14と、表示部16と、操作部18と、通信部20と、を備えている。
図1は、第1の実施形態に係る情報処理装置10Aの電気的な構成の一例を示すブロック図である。
図1に示すように、本実施形態に係る情報処理装置10Aは、制御部12と、記憶部14と、表示部16と、操作部18と、通信部20と、を備えている。
本実施形態に係る情報処理装置10Aには、例えば、パーソナルコンピュータ(PC:Personal Computer)等の汎用的なコンピュータ装置が適用される。なお、情報処理装置10Aには、スマートフォン、タブレット端末等の携帯可能な端末装置を適用してもよい。
制御部12は、CPU(Central Processing Unit)12A、ROM(Read Only Memory)12B、RAM(Random Access Memory)12C、及び入出力インターフェース(I/O)12Dを備えており、これら各部がバスを介して各々接続されている。
I/O12Dには、記憶部14と、表示部16と、操作部18と、通信部20と、を含む各機能部が接続されている。これらの各機能部は、I/O12Dを介して、CPU12Aと相互に通信可能とされる。
制御部12は、情報処理装置10Aの一部の動作を制御するサブ制御部として構成されてもよいし、情報処理装置10Aの全体の動作を制御するメイン制御部の一部として構成されてもよい。制御部12の各ブロックの一部又は全部には、例えば、LSI(Large Scale Integration)等の集積回路又はIC(Integrated Circuit)チップセットが用いられる。上記各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。上記各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、上記各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。制御部12の集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。
記憶部14としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部14には、本実施形態に係る確率的クラスタリング処理を行うための情報処理プログラム14Aが記憶される。なお、この情報処理プログラム14Aは、ROM12Bに記憶されていてもよい。また、記憶部14には、確率的クラスタリング処理に用いるパラメータ群14Bが記憶されている。
情報処理プログラム14Aは、例えば、情報処理装置10Aに予めインストールされていてもよい。情報処理プログラム14Aは、不揮発性の記憶媒体に記憶して、又はネットワークを介して配布して、情報処理装置10Aに適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。
表示部16には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等が用いられる。表示部16は、タッチパネルを一体的に有していてもよい。操作部18には、例えば、キーボードやマウス等の操作入力用のデバイスが設けられている。表示部16及び操作部18は、情報処理装置10Aのユーザから各種の指示を受け付ける。表示部16は、ユーザから受け付けた指示に応じて実行された処理の結果や、処理に対する通知等の各種の情報を表示する。
通信部20は、インターネットや、LAN(Local Area Network)、WAN(Wide Area Network)等のネットワークに接続されており、画像形成装置や他のPC等の外部機器との間でネットワークを介して通信が可能とされる。
ところで、上述したように、ノード間のリンクの度合いを確率的に表現するクラスタリング方法において、異なるクラスタに分類される2つ以上のノードが含まれている場合に、確率的なクラスタリングを行うことができない場合がある。
図2は、クラスタリング処理の説明に供する図である。
図2に示すように、クラスタとは、類似の特徴を持つデータ(ノードともいう。)のグループを意味し、多数のデータを複数のクラスタに分類することをクラスタリングという。
図2に示すように、クラスタとは、類似の特徴を持つデータ(ノードともいう。)のグループを意味し、多数のデータを複数のクラスタに分類することをクラスタリングという。
上記クラスタリングとは、例えば、データが人の特徴を表すベクトルデータの場合、似た特徴を持つ人のグループを見つけることである。このベクトルデータのクラスタリング方法としては、一例として、k-means法、GMM(Gaussian Mixture Model)法、ward法等が挙げられる。
図3は、ネットワークのクラスタリング処理の説明に供する図である。
図3に示すように、ネットワークデータとは、データ(=ノード)間のつながり(=リンク)を表現したデータである。
図3に示すように、ネットワークデータとは、データ(=ノード)間のつながり(=リンク)を表現したデータである。
上記ネットワークには、例えば、電子メールや電話でのやり取りがあった人同士を繋いで人間関係を表現したネットワークや、引用/被引用の関係にある文書同士を繋いで引用関係を表現したネットワーク等が挙げられる。このネットワークデータのクラスタリング方法としては、一例として、上述の特許文献1に記載の所謂MDMC(Modular Decomposition of Markov Chain)法、Louvain法、Infomap法等が挙げられる。なお、以下では、ネットワークのクラスタリング処理を確率的クラスタリング処理ともいう。
図4は、クラスタリング処理と制約との関係の説明に供する図である。
図4に示すように、データには現れない潜在的な知識を制約として与え、クラスタリング処理の精度を向上させる方法がある。具体的な方法としては、ベクトルデータの場合、一例として、COP(Constrained)-kmeans法、HMRF(Hidden Markov Random Fields)-kmeans法等が挙げられる。
図4に示すように、データには現れない潜在的な知識を制約として与え、クラスタリング処理の精度を向上させる方法がある。具体的な方法としては、ベクトルデータの場合、一例として、COP(Constrained)-kmeans法、HMRF(Hidden Markov Random Fields)-kmeans法等が挙げられる。
上記制約には、正の制約と負の制約とが存在する。正の制約とは、二つのデータを同じクラスタに入れる制約である。例えば、データには現れていないが、「nさん」と「mさん」は関係が強いことが分かっている場合は、正の制約を与える。一方、負の制約とは、二つのデータを異なるクラスタに入れる制約である。例えば、「mさん」と「lさん」はデータでは近い関係になっているが、実際には関係が弱いことが分かっている場合は、負の制約を与える。
図5は、確率的クラスタリング処理と制約との関係の説明に供する図である。
図5に示すように、確率的クラスタリング処理では、正の制約はリンクの重みを大きくする等によって導入が可能とされる。一方、負の制約はリンクの重みを負にできないため、正の制約と同様には導入することができない。このため、正及び負の制約に基づいて、確率的クラスタリング処理を行うことができるようにすることが望まれている。
図5に示すように、確率的クラスタリング処理では、正の制約はリンクの重みを大きくする等によって導入が可能とされる。一方、負の制約はリンクの重みを負にできないため、正の制約と同様には導入することができない。このため、正及び負の制約に基づいて、確率的クラスタリング処理を行うことができるようにすることが望まれている。
本実施形態に係る情報処理装置10AのCPU12Aは、記憶部14に記憶されている情報処理プログラム14AをRAM12Cに書き込んで実行することにより、図6に示す各部として機能する。
図6は、第1の実施形態に係る情報処理装置10Aの機能的な構成の一例を示すブロック図である。
図6に示すように、本実施形態に係る情報処理装置10AのCPU12Aは、取得部30、算出部32、生成部34、及び導出部36として機能する。
図6に示すように、本実施形態に係る情報処理装置10AのCPU12Aは、取得部30、算出部32、生成部34、及び導出部36として機能する。
本実施形態に係る記憶部14には、上述したように、パラメータ群14Bが記憶されており、このパラメータ群14Bには、ネットワーク情報50、制約情報52、粒度α54、及び重み変数56が含まれている。
本実施形態に係る取得部30は、パラメータ群14Bから、ネットワーク情報50、制約情報52、粒度α54、及び重み変数56を取得する。なお、本実施形態では、上述のMDMC法を適用した場合について説明するが、このMDMC法に限定されるものではない。
ネットワーク情報50は、複数のノード及び複数のノードを結ぶ複数のリンクの情報の一例である。ネットワーク情報50には、一例として、相互参照を示すHTML(Hyper Text Markup Language )データや、友人関係のデータ等が適用される。ネットワーク情報50は、少なくともノード間の結び付きの関係(ノードとリンクの関係)を示すものであればよく、ノードが含む具体的な内容(HTMLデータの内容等)を示すものでなくてもよい。
制約情報52は、複数のノードに含まれるノード対の各々に関する正及び負の制約を含む情報である。この制約情報52は、一例として、後述の図9に示す制約行列Cとして表される。
粒度α54は、複数のノードを分類するクラスタの大きさを定める変数であり、正の実数として表される。また、重み変数56は、制約情報52の重みを定める変数であり、0(ゼロ)以上の実数として表される。本実施形態では、粒度α54及び重み変数56が記憶部14に予め記憶されていることとしたが、ユーザが操作部18を介して粒度α54及び重み変数56を入力することとしてもよい。なお、粒度α54を含まないMDMC法以外を適用する場合には、粒度α54を変数ではなく、定数とすればよい。また、重み変数56は必須ではなく、重み変数56を含まない形態としてもよい。
図7は、本実施形態に係るネットワーク情報50の一例を示す図である。
図7に示すネットワーク情報50は、一例として、7つのノードと、9つのリンクの情報を含んでいる。
図7に示すネットワーク情報50は、一例として、7つのノードと、9つのリンクの情報を含んでいる。
図7に示す各ノードには、1から7までのノード番号が付与されており、例えば、ノード番号1であるノード(以下、ノード[1]と表す。)は、ノード[2]及びノード[4]のノードとリンクを有する。本実施形態では、説明を簡単にするために、7つのノードを有するネットワークの場合を示すが、ノード数及びリンク数はこれより多くてもよく、例えば、10万程度であってもよい。また、本実施形態では、ノード間を結ぶリンクは方向を持たないこととしているが、リンクは一方通行であってもよい。
図7に示す行列Tは、ノード間をリンクに沿ってランダムに遷移する場合における遷移確率を表すものである。例えば、ノード[1]を起点としてリンクに沿ってランダムに他のノードに遷移する場合、1/2の確率でノード[2]に遷移し、1/2の確率でノード[4]に遷移する。これらの遷移確率をまとめて表したものが、行列Tの第1列である。他の行列要素についても同様に構成されている。一般に、ノード[n]とノード[m]がリンクで接続されている場合にAnm=1、ノード[n]とノード[m]がリンクで接続されていない場合にAnm=0となる行列Aを用いて、ノードの総数をNとする場合に、行列Tは、以下に示す式(1)により表される。遷移確率の総和は1であるから、任意のノード[m]について、ΣnTnm=1が成り立つ。
本実施形態に係る算出部32は、複数のノードが分類される複数のクラスタの各々について、複数のノードの各々が各クラスタに分類される割合を示す分類割合を算出し、かつ、複数のクラスタの各々についての重要度を算出する。
本実施形態に係る生成部34は、ネットワーク情報50、制約情報52、上記分類割合、上記重要度、粒度α54、及び重み変数56を用いて、複数のノードについて確率的なクラスタリングを行うための確率モデルを生成する。なお、この確率モデルの具体的な生成方法については後述する。
本実施形態に係る導出部36は、上記確率モデルを最大化する場合における上記分類割合を、一例として、EMアルゴリズム(Expectation-Maximization algorithm)等を用いて導出する。
次に、図8を参照して、第1の実施形態に係る情報処理装置10Aの作用を説明する。
図8は、第1の実施形態に係る情報処理プログラム14Aによる処理の流れの一例を示すフローチャートである。
まず、情報処理装置10Aに対して、ユーザにより確率的クラスタリング処理の開始が指示されると、情報処理プログラム14Aが起動され、以下の各ステップを実行する。本実施形態では、ネットワークに含まれるN個のノードをK個のクラスタに分類することにより、確率的クラスタリング処理を行う。ここで、N及びKは正の整数である。
図8のステップ100では、取得部30が、パラメータ群14Bから、ネットワーク情報50、制約情報52、粒度α54、及び重み変数56を取得する。
図9は、第1の実施形態に係る制約情報52の一例を示す図である。
図9に示すように、本実施形態に係る制約情報52は、ノード対に関するn×mの制約行列Cとして表される。
図9に示すように、本実施形態に係る制約情報52は、ノード対に関するn×mの制約行列Cとして表される。
つまり、制約行列Cは、行方向(横方向)にノード[m](本実施形態では、m=1、2、3、4)、列方向(縦方向)にノード[n](本実施形態では、n=1、2、3、4)とした場合に、各行列要素の値はcnmとして表される。本実施形態の場合、左上角の値がc11、右上角の値がc14、左下角の値がc41、右下角の値がc44に対応している。
図9に示す制約行列Cにおいて、cnmの絶対値は、2つのノード間における制約の強さを示し、マイナスは負の制約を示す。例えば、図9に示す丸で囲むc23の値は「−1」であり、ノード[2]とノード[3]との間には負の制約がかかることを意味する。本実施形態に係る制約行列Cは、cnm=cmnであり、cnm>0の場合には正の制約、cnm=0の場合には制約なし、cnm<0の場合には負の制約を表している。すなわち、
である。
次に、図8に戻り、ステップ102では、算出部32が、分類割合及び重要度を算出する。具体的には、クラスタ[k]について、ノード[n]がクラスタ[k]に分類される分類割合p(n|k)を算出し、クラスタ[k]の重要度π(k)を算出する。なお、分類割合p(n|k)及び重要度π(k)を算出するにあたり、第d番目の通過情報τdに基づいて、複数のクラスタ全体に対するクラスタ[k]が占める割合γd(k)を求める。なお、第d番目の通過情報τdはN次元のベクトルであり、τ1、τ2、・・・、τD(Dは整数)というD個のデータである。
このステップ102では、ネットワーク情報50が表すネットワークのノード間をランダムに遷移する場合における定常確率分布pst(n)を算出する。定常確率分布pst(n)は、以下に示す式(3)により定められる連立N次方程式を解くことにより求められる。定常確率分布pst(n)は、行列Tの固有ベクトルであって、固有値が1とされる。
なお、一方通行のリンクを含むネットワークの場合、いわゆるランクシンク等の問題が発生し、定常確率分布が特定のノードにのみ値を有する場合がある。そのような場合、上記式(3)を変形し、例えば、pst(n)=(1−r)ΣmTnmpst(m)+rという関係によって定常確率分布pst(n)を求めることとしてもよい。ここで、rは0以上1以下の実数である。rは、ノード間をリンクに沿わずにランダムに遷移する確率を表す。
次に、複数のノード間を複数のリンクに沿ってランダムに遷移する場合に通過するノードを示す複数の通過情報τndを生成する。本実施形態では、通過情報は、定常確率分布pst(n)に従って選出されたノード[n]について、τnd=1、かつ、ノード[n]を起点としてノード[m]に遷移する確率を与えるTnmに従って選出されたノード[m]について、τmd=1として生成する。このようなN次元ベクトルを、D回生成する。通過情報τndは、Σnτnd=2を満たす量である。通過情報τndは、仮想エージェントがノード間をリンクに沿ってランダムに遷移する場合に、仮想エージェントをノード[n]とノード[m]とを結ぶリンク上に見出す場合を表している。
本実施形態に係る算出部32は、逐次計算により分類割合p(n|k)及び重要度π(k)をそれぞれ算出する。逐次計算を開始するにあたって、p0(n|k)、π0(k)、γ0(d)(k)を仮決めする。ここで、Σnp0(n|k)=1、Σkπ0(k)=1を満たす値を与えるものとする。p0(n|k)は、k=1〜Kのクラスタについて、n=1〜Nのノードが分類される割合を示すものであるから、仮決めでは(K×N−1)個の正の実数を与えることになる。なお、”−1”はΣnp0(n|k)=1の条件による。また、π0(k)は、k=1〜Kに分類されたネットワークのクラスタについて、重要度を示すものであるから、仮決めでは(K−1)個の正の実数を与えることになる。γ0(d)(k)は、複数のクラスタ全体に対するクラスタ[k]が占める割合を表す係数であり、d=1〜Dの通過情報τndに対応して定まる係数であるから、仮決めでは(K×D)個の正の実数を与えることになる。
逐次計算の第1ステップでは、第t回目の逐次計算による分類割合pt(n|k)を計算する。ここで、tは正の整数であり、逐次計算の回数を表す。pt(n|k)は、1つ前の逐次計算により得られるpt−1(n|k)、πt−1(k)、及びγt−1(d)(k)より算出される。例えば、仮決めの後行われる第1回目の逐次計算では、p0(n|k)、π0(k)、及びγ0(d)(k)を用いてp1(n|k)を求めることになる。
本実施形態に係る算出部32は、以下に示す式(4)で定められる関係により第t回目の逐次計算による分類割合pt(n|k)を算出する。
ここで、αは上述の粒度α54であり、正の実数である。本実施形態では、粒度α54は、αが0に近付くほど分解の粒度が細かくなり、αが無限大に近付くほど分解の粒度が粗くなるパラメータである。また、Dt−1(k)はγt−1(d)(k)から定まる係数であり、Dt−1(k)=Σdγt−1(d)(k)である。
分類割合pt(n|k)は、ノード[n]との間でリンクを有するノード(Tnm≠0であるノード[m])のクラスタ[k]に関する分類割合pt−1(m|k)が大きいほど大きな値となる第1の寄与(右辺第一項)と、複数のクラスタ全体に対するクラスタ[k]が占める割合γt−1(d)(k)が大きいほど大きな値となる第2の寄与(右辺第二項)とから構成される値により算出される。
また、第1の寄与は、粒度α54を粗くする、つまり、αを無限大に近付けると1に近付く第1の係数α/(α+2Dt−1(k))と、ノード[n]との間でリンクを有するノード(Tnm≠0であるノード[m])に関して直前に算出された分類割合pt−1(m|k)と、から定められる。また、第2の寄与は、粒度α54を粗くする、つまり、αを無限大に近付けると0に近付く第2の係数1/(α+2Dt−1(k))と、複数の通過情報τndと、複数の成分全体に対するクラスタ[k]が占める割合γt−1(d)(k)と、から定められる。なお、以下に示すように、複数のクラスタ全体に対するクラスタ[k]が占める割合γt−1(d)(k)は、直前に算出された分類割合pt−1(n|k)及び重要度πt−1(k)から算出される。
次に、直前に算出された分類割合pt−1(n|k)及び重要度πt−1(k)、並びに複数の通過情報τndから、複数のクラスタ全体に対するクラスタ[k]が占める割合γtd(k)を算出する。本実施形態では、以下に示す式(5)により割合γtd(k)を算出する。なお、割合γtd(k)は、クラスタ全体の中で重要度が相対的に大きいクラスタについて大きな値をとる。
さらに、本実施形態に係る算出部32は、ネットワークのクラスタ[k]の重要度πt(k)を算出する。重要度πt(k)は、複数のクラスタ全体に対するクラスタ[k]が占める割合γtd(k)が大きいほど大きな値となるように算出される。本実施形態では、以下に示す式(6)によりクラスタ[k]の重要度πt(k)を算出する。
上記の式(4)、式(5)、及び式(6)により、直前に算出された分類割合pt−1(n|k)、重要度πt−1(k)、及び割合γt−1(d)(k)、並びに通過情報τndから、分類割合pt(n|k)、重要度πt(k)、及び割合γtd(k)が算出される。
次に、ステップ104では、生成部34が、ステップ100で取得したネットワーク情報50、制約情報52、粒度α54、及び重み変数56と、ステップ102で算出した分類割合pt(n|k)及び重要度πt(k)とを用いて、複数のノードについて確率的なクラスタリングを行うための確率モデルQ’を生成する。本実施形態では、この確率モデルQ’は、以下に示す式(7)により算出される。
なお、Wは重み変数54であり、cnmは制約行列Cで表される制約情報52である。Unmは制約情報52を用いて表される制約項である。
この制約項Unmは、ノード対の一方のノードが複数のクラスタの各々に帰属する確率の分布である帰属度と、ノード対の他方のノードが複数のクラスタの各々に帰属する確率の分布である帰属度との間の距離に、制約情報52により示される値を乗じることで得られる。ここで、ノード[n]がクラスタ[k]に帰属する帰属度p(k|n)は、ノード[n]がクラスタ[k]に分類される分類割合p(n|k)が大きいほど、大きな値となる。本実施形態では、帰属度p(k|n)は、以下に示す式(8)により算出される。
上記式(8)から読み取れるように、帰属度p(k|n)は、Σkp(k|n)=1を満たす。すなわち、あるノードが各クラスタに帰属する帰属度の総和は1となる。帰属度p(k|n)は、あるノード[n]が、クラスタ[k]に帰属する度合いをクラスタ全体に関して相対的に測った量である。
ここで、ノード[n]の帰属度p(k|n)と、ノード[m]の帰属度p(k|m)との間の距離は、一例として、KL(Kullback-Leibler)情報量を用いて、以下に示す式(9)のように表される。
従って、上記式(7)に示す制約項Unmは、上記式(9)に基づいて、以下に示す式(10)のように記述することもできる。
上述したように、ネットワークにおける確率的クラスタリング処理では特に負の制約を直接導入することができない。このため、本実施形態では、まず各ノードについてクラスタへの帰属度を計算し、計算した帰属度に対して、正及び負の制約を付与する。この制約のイメージについて図10を参照して説明する。
図10は、本実施形態に係る制約のイメージの説明に供する図である。
図10の右図に示すグラフでは、横軸にノード[n]についてのクラスタ[1]への帰属度p(1|n)を示し、縦軸にノード[n]についてのクラスタ[2]への帰属度p(2|n)を示す。
図10の右図に示すグラフでは、横軸にノード[n]についてのクラスタ[1]への帰属度p(1|n)を示し、縦軸にノード[n]についてのクラスタ[2]への帰属度p(2|n)を示す。
図10に示すように、正の制約の場合、帰属度として表される確率分布を近づける方向に作用する。図10に示す例では、ノード[n]とノード[m]との間には正の制約が作用している。一方、負の制約の場合、帰属度として表される確率分布を遠ざける方向に作用する。図10に示す例では、ノード[m]とノード[l]との間には負の制約が作用している。
次に、図8に戻り、ステップ106では、導出部36が、上述のEMアルゴリズムを用いて、確率モデルQ’を最大化する場合における分類割合p(n|k)を導出し、本情報処理プログラム14Aによる一連の処理を終了する。なお、本実施形態における分類割合p(n|k)は、非線形計画法(Nonlinear programming method)を用いて数値的に求められる。この非線形計画法としては、一例として、主双対内点法(primal-dual interior point method)、外点ペナルティ法(exterior penalty method)、乗数法(multiplier method)等が挙げられる。
ここで、上記の実施形態では、MDMC法における確率モデルを適用した場合について説明したが、実施形態は、以下に示すQの形式(Qの一般式)を満たす確率モデルであれば適用可能とされる。
但し、Tは上記式(1)で示される遷移確率を表す行列であり、πは上記式(6)で示される重要度である。αは粒度α54であり、Cは上記式(2)で示される制約行列である。Wは重み変数56である。{{p(n|k)}}は上記式(4)で示される分類割合を示す。但し、
・・・(12)
である。
なお、上記の実施形態では、粒度α54を変数としたが、変数αを含まないMDMC法以外の確率モデルでは、粒度α54を定数とし、Qの特殊例として導出すればよい。
このように本実施形態によれば、正及び負の制約を考慮して、精度の高い確率的クラスタリング処理が実行される。
[第2の実施形態]
上記第1の実施形態では、分類割合p(n|k)を、非線形計画法を用いて数値的に求める場合について説明したが、本実施形態では、分類割合p(n|k)を解析的に求める場合について説明する。
上記第1の実施形態では、分類割合p(n|k)を、非線形計画法を用いて数値的に求める場合について説明したが、本実施形態では、分類割合p(n|k)を解析的に求める場合について説明する。
図11は、第2の実施形態に係る情報処理装置10Bの機能的な構成の一例を示すブロック図である。
図11に示すように、本実施形態に係る情報処理装置10BのCPU12Aは、取得部30、算出部32、生成部34、及び導出部38として機能する。なお、取得部30、算出部32、及び生成部34については、上記第1の実施形態に係る情報処理装置10Aと同様であるため、ここでの繰り返しの説明は省略する。
図11に示すように、本実施形態に係る情報処理装置10BのCPU12Aは、取得部30、算出部32、生成部34、及び導出部38として機能する。なお、取得部30、算出部32、及び生成部34については、上記第1の実施形態に係る情報処理装置10Aと同様であるため、ここでの繰り返しの説明は省略する。
本実施形態に係る導出部38は、確率モデルQ’(式(7)参照)を最大化する場合における分類割合p(n|k)を、制約行列Cの一方の対角線上に位置するcnmの値を用いて、解析的に導出する。
本実施形態に係る制約行列Cは、cnm=cmn、Σncnm=0であり、cnm>0の場合には正の制約、cnm=0の場合には制約なし、cnm<0の場合には負の制約を表している。すなわち、
である。
また、重み変数Wは、以下に示す式(14)を満たす。
図12は、第2の実施形態に係る制約情報52の一例を示す図である。
図12に示すように、本実施形態に係る制約情報52は、ノード対に関するn×mの制約行列Cとして表されるが、一方の対角線上に位置するcnmの値が図9に示す制約行列Cとは異なる。
図12に示すように、本実施形態に係る制約情報52は、ノード対に関するn×mの制約行列Cとして表されるが、一方の対角線上に位置するcnmの値が図9に示す制約行列Cとは異なる。
本実施形態に係る制約行列Cの各値をcnmとした場合、制約行列Cの一方の対角線上に位置するcnmの値は、特定のノードと周囲のノードとの関係性に基づいて、特定のノードが周囲のノードに対して孤立し易いか否かを表している。つまり、制約行列Cの一方の対角線上に位置するcnmの値が正の場合、特定のノードは周囲のノードから孤立し易く、制約行列Cの一方の対角線上に位置するcnmの値が負の場合、特定のノードは周囲のノードから孤立し難いことを表している。
例えば、図12に示すように、線で囲われた対角要素(c11、c22、c33、c44)の場合、c11の値及びc22の値はいずれも−2(負)であるため、対応するノード[1]及びノード[2]は、周囲のノードから孤立し難い。一方、c33の値は4(正)であるため、対応するノード[3]は、周囲のノードから孤立し易い。なお、c44の値は0であるため、対応するノード[4]の孤立し易さは中立とされる。
本実施形態では、分類割合p(n|k)は、上述のEMアルゴリズムを用いて解析的に求められる。具体的には、以下に示す式(15)を用いて求められる。但し、分類割合pt(n|k)は、第t回目の逐次計算によることを示す。
このように本実施形態によれば、正及び負の制約を考慮して、精度の高い確率的クラスタリング処理が実行され、更に、分類割合が解析的に求められる。
[第3の実施形態]
本実施形態では、ノード対に関する制約行列Cの値(正及び負の値を含む)が部分的にしか与えられていない場合に、ユーザからの入力を介さずに未知の制約を予測する形態について説明する。本実施形態では、例えば、既に制約が与えられているネットワークに、新たにノードを追加してネットワークを拡張する場合等が想定される。
本実施形態では、ノード対に関する制約行列Cの値(正及び負の値を含む)が部分的にしか与えられていない場合に、ユーザからの入力を介さずに未知の制約を予測する形態について説明する。本実施形態では、例えば、既に制約が与えられているネットワークに、新たにノードを追加してネットワークを拡張する場合等が想定される。
図13は、第3の実施形態に係る情報処理装置10Cの機能的な構成の一例を示すブロック図である。
図13に示すように、本実施形態に係る情報処理装置10CのCPU12Aは、取得部30、算出部32、生成部34、導出部38、及び予測部40として機能する。なお、取得部30、算出部32、生成部34、及び導出部38については、上記第2の実施形態に係る情報処理装置10Bと同様であるため、ここでの繰り返しの説明は省略する。
図13に示すように、本実施形態に係る情報処理装置10CのCPU12Aは、取得部30、算出部32、生成部34、導出部38、及び予測部40として機能する。なお、取得部30、算出部32、生成部34、及び導出部38については、上記第2の実施形態に係る情報処理装置10Bと同様であるため、ここでの繰り返しの説明は省略する。
本実施形態に係るノード対は、制約が既知のノードと、制約が未知のノードとを含んでいる。本実施形態に係る予測部40は、制約行列Cにおける、制約が既知のノードと、制約が未知のノードとの間の制約の値を、制約行列Cにおける既知の各値から予測する。
図14は、第3の実施形態に係る制約情報52の一例を示す図である。
図14に示すように、本実施形態に係る制約情報52は、制約が既知である4つのノードに、制約が未知である2つのノードを追加した場合の制約行列Cとして表される。
図14に示すように、本実施形態に係る制約情報52は、制約が既知である4つのノードに、制約が未知である2つのノードを追加した場合の制約行列Cとして表される。
具体的には、制約が未知のノード[x]と、制約が既知のノード[n]との間の未知の制約値cnxは、一例として、PPR(Personalized Page Rank)法に基づいて、以下に示す式(16)により求められる。
但し、SnmはPPR行列Sのn行m列の行列要素である。SnxはPPR行列Sのn行x列の行列要素である。Nは既知のノード数である。cnmはノード[n]とノード[m]との間の既知の制約値である。なお、PPR行列Sは、以下に示す式(17)を再帰的に収束するまで計算して求める。
但し、Tは上記式(1)で示される遷移確率を表す行列である。Nは既知のノード数であり、Xは未知のノード数である。dはランダム遷移パラメータである。Iは(N+X)次元の単位行列である。この単位行列Iは、対角成分が1、その他の成分が全て0の正方行列として表される。
このように本実施形態によれば、ノード対に関する制約行列の値(正及び負の値を含む)が部分的にしか与えられていない場合に、ユーザからの入力を介さずに未知の制約が予測される。
以上、実施形態に係る情報処理装置を例示して説明した。実施形態は、情報処理装置が備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。
その他、上記実施形態で説明した情報処理装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。
10A、10B、10C 情報処理装置
12 制御部
12A CPU
12B ROM
12C RAM
12D I/O
14 記憶部
14A 情報処理プログラム
14B パラメータ群
16 表示部
18 操作部
20 通信部
30 取得部
32 算出部
34 生成部
36、38 導出部
40 予測部
50 ネットワーク情報
52 制約情報
54 粒度α
56 重み変数
12 制御部
12A CPU
12B ROM
12C RAM
12D I/O
14 記憶部
14A 情報処理プログラム
14B パラメータ群
16 表示部
18 操作部
20 通信部
30 取得部
32 算出部
34 生成部
36、38 導出部
40 予測部
50 ネットワーク情報
52 制約情報
54 粒度α
56 重み変数
Claims (11)
- 複数のノード及び前記複数のノードを結ぶ複数のリンクの情報と、前記複数のノードに含まれるノード対の各々に関する正及び負の制約を含む制約情報とを取得する取得部と、
前記複数のノードが分類される複数のクラスタの各々について、前記複数のノードの各々が各クラスタに分類される割合を示す分類割合を算出し、かつ、前記複数のクラスタの各々についての重要度を算出する算出部と、
少なくとも前記リンクの情報、前記制約情報、前記分類割合、及び前記重要度を用いて、前記複数のノードについて確率的なクラスタリングを行うための確率モデルを生成する生成部と、
を備えた情報処理装置。 - 前記取得部は、前記複数のノードを分類するクラスタの大きさを定める変数である粒度と、前記制約情報の重みを定める重み変数とを更に取得し、
前記生成部は、前記リンクの情報、前記制約情報、前記分類割合、前記重要度、前記粒度、及び前記重み変数を用いて、前記確率モデルを生成する請求項1に記載の情報処理装置。 - 前記確率モデルは、前記制約情報を用いて表される制約項を含み、
前記制約項は、前記ノード対の一方のノードが前記複数のクラスタの各々に帰属する確率の分布である帰属度と、前記ノード対の他方のノードが前記複数のクラスタの各々に帰属する確率の分布である帰属度との間の距離に、前記制約情報により示される値を乗じることで得られる請求項1又は2に記載の情報処理装置。 - 前記制約情報は、前記ノード対に関するn×mの制約行列として表されており、
前記制約行列をC、前記制約行列Cの各値をcnmとした場合、前記制約行列Cは、cnm=cmnであり、cnm>0の場合には正の制約、cnm=0の場合には制約なし、cnm<0の場合には負の制約を表している請求項3に記載の情報処理装置。 - 前記確率モデルを最大化する場合における前記分類割合を、予め定められた非線形計画法を用いて導出する導出部を更に備えた請求項4に記載の情報処理装置。
- 前記制約情報は、前記ノード対に関するn×mの制約行列として表されており、
前記制約行列をC、前記制約行列Cの各値をcnmとした場合、前記制約行列Cは、cnm=cmn、Σncnm=0であり、cnm>0の場合には正の制約、cnm=0の場合には制約なし、cnm<0の場合には負の制約を表している請求項3に記載の情報処理装置。 - 前記制約情報は、前記ノード対に関するn×mの制約行列として表されており、
前記制約行列をC、前記制約行列Cの各値をcnmとした場合、前記制約行列Cの一方の対角線上に位置するcnmの値は、特定のノードと周囲のノードとの関係性に基づいて、前記特定のノードが前記周囲のノードに対して孤立し易いか否かを表している請求項3に記載の情報処理装置。 - 前記制約行列Cの一方の対角線上に位置するcnmの値が正の場合、前記特定のノードは前記周囲のノードから孤立し易く、
前記制約行列Cの一方の対角線上に位置するcnmの値が負の場合、前記特定のノードは前記周囲のノードから孤立し難いことを表している請求項7に記載の情報処理装置。 - 前記確率モデルを最大化する場合における前記分類割合を、前記制約行列Cの一方の対角線上に位置するcnmの値を用いて、解析的に導出する導出部を更に備えた請求項6〜8のいずれか1項に記載の情報処理装置。
- 前記ノード対は、制約が既知のノードと、制約が未知のノードとを含み、
前記制約行列Cにおける、制約が既知のノードと、制約が未知のノードとの間の制約の値を、前記制約行列Cにおける既知の各値から予測する予測部を更に備えた請求項6〜9のいずれか1項に記載の情報処理装置。 - コンピュータを、請求項1〜10のいずれか1項に記載の情報処理装置が備える各部として機能させるためのプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018168821A JP2020042488A (ja) | 2018-09-10 | 2018-09-10 | 情報処理装置及びプログラム |
| US16/378,582 US11514262B2 (en) | 2018-09-10 | 2019-04-09 | Information processing apparatus and non-transitory computer readable medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018168821A JP2020042488A (ja) | 2018-09-10 | 2018-09-10 | 情報処理装置及びプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2020042488A true JP2020042488A (ja) | 2020-03-19 |
Family
ID=69719896
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018168821A Pending JP2020042488A (ja) | 2018-09-10 | 2018-09-10 | 情報処理装置及びプログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US11514262B2 (ja) |
| JP (1) | JP2020042488A (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021220365A1 (ja) * | 2020-04-27 | 2021-11-04 |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7039239B2 (en) * | 2002-02-07 | 2006-05-02 | Eastman Kodak Company | Method for image region classification using unsupervised and supervised learning |
| CA2490766A1 (en) * | 2002-06-28 | 2004-01-08 | Applera Corporation | A system and method for snp genotype clustering |
| US9095303B2 (en) * | 2009-03-23 | 2015-08-04 | Flint Hills Scientific, Llc | System and apparatus for early detection, prevention, containment or abatement of spread abnormal brain activity |
| US8566260B2 (en) | 2010-09-30 | 2013-10-22 | Nippon Telegraph And Telephone Corporation | Structured prediction model learning apparatus, method, program, and recording medium |
| JP6390239B2 (ja) | 2014-07-25 | 2018-09-19 | 富士ゼロックス株式会社 | 情報処理装置、及びプログラム |
-
2018
- 2018-09-10 JP JP2018168821A patent/JP2020042488A/ja active Pending
-
2019
- 2019-04-09 US US16/378,582 patent/US11514262B2/en active Active
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021220365A1 (ja) * | 2020-04-27 | 2021-11-04 | ||
| WO2021220365A1 (ja) * | 2020-04-27 | 2021-11-04 | 日本電気株式会社 | 画像分類装置、画像分類方法、およびプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20200082216A1 (en) | 2020-03-12 |
| US11514262B2 (en) | 2022-11-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Park et al. | Bayesian inference in the presence of intractable normalizing functions | |
| JP6516025B2 (ja) | 情報処理方法および情報処理装置 | |
| US11238576B2 (en) | Information processing device, data structure, information processing method, and non-transitory computer readable storage medium | |
| US20210182680A1 (en) | Processing sequential interaction data | |
| KR102488338B1 (ko) | 언어 모델을 압축하기 위한 전자 장치, 추천 워드를 제공하기 위한 전자 장치 및 그 동작 방법들 | |
| JPWO2019229931A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
| CN110543935A (zh) | 处理交互序列数据的方法及装置 | |
| Cheng et al. | Chaotic enhanced colliding bodies optimization algorithm for structural reliability analysis | |
| JP2022162348A (ja) | 情報処理装置、情報処理方法及びプログラム | |
| Hassani et al. | Bayesian reliability-based robust design optimization of mechanical systems under both aleatory and epistemic uncertainties | |
| US20220374682A1 (en) | Supporting Database Constraints in Synthetic Data Generation Based on Generative Adversarial Networks | |
| CN110110209B (zh) | 一种基于局部加权线性回归模型的交叉推荐方法及系统 | |
| JP7401739B2 (ja) | 次数変換装置、次数変換方法、および次数変換プログラム | |
| JP2020042488A (ja) | 情報処理装置及びプログラム | |
| Bolin et al. | Scale invariant proper scoring rules Scale dependence: Why the average CRPS often is inappropriate for ranking probabilistic forecasts | |
| JP2020030702A (ja) | 学習装置、学習方法及び学習プログラム | |
| Zareer et al. | Expressed and private opinions model with asynchronous and synchronous updating | |
| Wei et al. | The posterior probability distribution of traffic flow: a new scheme for the assignment of stochastic traffic flow | |
| US12417344B2 (en) | Training recommendation model based on topic model and word importance | |
| Hirshman et al. | Loading networks in construct | |
| Wei et al. | A probability model and sampling algorithm for the inter‐day stochastic traffic assignment problem | |
| Zhang et al. | Variable selection of nonparametric spatial autoregressive models via deep learning | |
| Sen et al. | Doubly inflated Poisson model using Gaussian copula | |
| Yasami | Anomaly detection in dynamic complex networks | |
| JP2021081869A (ja) | 情報処理装置及び情報処理プログラム |