[go: up one dir, main page]

KR102817872B1 - Apparatus and method for predicting feature of node - Google Patents

Apparatus and method for predicting feature of node Download PDF

Info

Publication number
KR102817872B1
KR102817872B1 KR1020210172385A KR20210172385A KR102817872B1 KR 102817872 B1 KR102817872 B1 KR 102817872B1 KR 1020210172385 A KR1020210172385 A KR 1020210172385A KR 20210172385 A KR20210172385 A KR 20210172385A KR 102817872 B1 KR102817872 B1 KR 102817872B1
Authority
KR
South Korea
Prior art keywords
vertex
predicting
data
latent variable
latent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020210172385A
Other languages
Korean (ko)
Other versions
KR20230083925A (en
Inventor
강유
유재민
전현식
정진홍
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020210172385A priority Critical patent/KR102817872B1/en
Publication of KR20230083925A publication Critical patent/KR20230083925A/en
Application granted granted Critical
Publication of KR102817872B1 publication Critical patent/KR102817872B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

정점의 특성을 예측하는 장치 및 방법을 개시한다. 정점의 특성을 예측하는 장치는, 데이터를 입력 받고, 이를 연산 처리한 결과를 출력하기 위한 입출력부; 정점의 특성을 예측하는 방법을 수행하기 위한 프로그램이 저장되는 저장부; 및 적어도 하나의 프로세서를 포함하며, 상기 프로그램을 실행시킴으로써 상기 입출력부를 통해 수신된 데이터에 포함된 정점의 특성을 예측하는 제어부;를 포함하고, 상기 제어부는, 상기 데이터에 포함된 각 정점에 대해 다변량 가우시안 분포를 갖는 미리 설정된 확률 모델을 사용해 잠재 변수를 생성하고, 상기 생성된 잠재 변수를 모델링하는 것을 특징으로 한다. A device and method for predicting characteristics of a vertex are disclosed. The device for predicting characteristics of a vertex comprises: an input/output unit for receiving data and outputting a result of processing the data; a storage unit for storing a program for performing a method for predicting characteristics of a vertex; and a control unit for predicting characteristics of a vertex included in data received through the input/output unit by executing the program, wherein the control unit is characterized in that it generates a latent variable using a preset probability model having a multivariate Gaussian distribution for each vertex included in the data, and models the generated latent variable.

Description

정점의 특성을 예측하는 장치 및 방법{APPARATUS AND METHOD FOR PREDICTING FEATURE OF NODE}{APPARATUS AND METHOD FOR PREDICTING FEATURE OF NODE}

본 명세서에서 개시되는 실시예들은 정점의 특성을 예측하는 장치 및 방법에 관한 것으로, 더욱 상세하게는, 그래프 형태로 표현되는 데이터에 포함된 정점의 특성을 예측하는 장치 및 방법에 관한 것이다. Embodiments disclosed in this specification relate to a device and method for predicting characteristics of a vertex, and more particularly, to a device and method for predicting characteristics of a vertex included in data expressed in a graph form.

최근 그래프 데이터에 대한 관심도가 나날이 증가하고 있다. 이러한 그래프 데이터에는 사용자 또는 물품을 나타내는 엔터티(entity 또는 node)가 존재하며, 엔터티에는 특성 벡터가 존재한다. 이때, 특성 벡터는 해당 엔터티 및 그래프 데이터 전체를 이해하는 핵심 정보로 활용될 수 있다. 한편, 그래프 데이터는 실세계에서 다양하게 관측된다. 예를 들어, 페이스북이나 트위터 등의 소셜 네트워크 서비스, 웨이브나 넷플릭스 등의 스트리밍 서비스 그리고, 쿠팡이나 지마켓 등의 온라인 쇼핑 서비스 등에서 사용자(또는 물품) 간의 관계를 기반으로 하는 그래프 데이터를 사용한다.Recently, interest in graph data is increasing day by day. In such graph data, there are entities (entities or nodes) representing users or products, and the entities have feature vectors. At this time, the feature vectors can be used as key information for understanding the entities and the entire graph data. Meanwhile, graph data is observed in various ways in the real world. For example, social network services such as Facebook and Twitter, streaming services such as Wave and Netflix, and online shopping services such as Coupang and Gmarket use graph data based on relationships between users (or products).

그래프 데이터에 대한 관심도의 증가와 함께, 그래프 구조를 활용하여 각 엔터티가 가지고 있는 특성 벡터를 결합하고 재생성하는 방식으로 각 엔터티를 저차원 공간에 맵핑(mapping)하는 그래프 신경망(Graph neural Networks, GNN) 모델이 발전하고 있다. With the growing interest in graph data, graph neural networks (GNN) models are being developed that map each entity to a low-dimensional space by combining and regenerating the feature vectors of each entity using the graph structure.

이때, 상술한 그래프 신경망 모델은 그래프 데이터 내의 모든 엔터티가 특성 벡터를 가지고 있다는 가정하에 동작되지만, 실세계의 데이터 그래프에서는 모든 엔터티에 대한 특성을 얻는 것은 어렵다. 예컨대, 온라인 소셜 네트워크의 사용자는 프로필을 비공개로 설정하고, 전자 상거래 판매자는 유익한 설명이 없는 항목을 등록하는 경우가 발생하여, 일부 엔터티만 특성 벡터를 가지고 있는 경우가 많기 때문이다. 따라서, 그래프 데이터의 엔터티 특성을 이용한 작업(예를 들어, 정점 분류 등)의 수행 간에 성능이 저하될 수 있는 문제점이 있다.At this time, the above-described graph neural network model operates under the assumption that all entities in the graph data have feature vectors, but it is difficult to obtain features for all entities in real-world data graphs. For example, users of online social networks set their profiles to private, and e-commerce sellers often register items without useful descriptions, so that only some entities often have feature vectors. Therefore, there is a problem that performance may be degraded when performing tasks (e.g., vertex classification, etc.) using entity features of graph data.

이에 따라, 엔터티의 특성을 예측하기 위한 기법이 연구되고 있으나, 종래의 엔터티의 특성을 예측하는 기법은 과적합(overfitting)을 발생시키는 문제점이 발생하였다. Accordingly, techniques for predicting the characteristics of entities are being studied, but conventional techniques for predicting the characteristics of entities have encountered the problem of causing overfitting.

한국공개특허 제10-2018-007717호(2018.07.09. 공개)Korean Patent Publication No. 10-2018-007717 (Published on July 9, 2018)

본 명세서에서 개시되는 실시예들은, 잠재 변수의 사전 분포를 가우시안 마르코프 랜덤 필드(GMRF)로 모델링하여, 잠재 변수가 주어진 그래프 데이터의 구조에 따라 서로 상관 관계를 갖도록 강제하는 정규화를 수행함으로써 과적합(overfitting) 문제를 해결할 수 있는 정점의 특성을 예측하는 장치 및 방법을 제공하는데 그 목적이 있다.The embodiments disclosed in this specification aim to provide a device and method for predicting the characteristics of a vertex, which can solve the overfitting problem by modeling the prior distribution of latent variables as a Gaussian Markov Random Field (GMRF) and performing regularization to force the latent variables to be correlated with each other according to the structure of the given graph data.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 일 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by an embodiment. In addition, it will be easily understood that the objects and advantages of the present invention can be realized by the means and combinations thereof indicated in the claims.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 정점의 특성을 예측하는 장치는, 데이터를 입력 받고, 이를 연산 처리한 결과를 출력하기 위한 입출력부; 정점의 특성을 예측하는 방법을 수행하기 위한 프로그램이 저장되는 저장부; 및 적어도 하나의 프로세서를 포함하며, 상기 프로그램을 실행시킴으로써 상기 입출력부를 통해 수신된 데이터에 포함된 정점의 특성을 예측하는 제어부;를 포함하고, 상기 제어부는, 상기 데이터에 포함된 각 정점에 대해 다변량 가우시안 분포를 갖는 미리 설정된 확률 모델을 사용해 잠재 변수를 생성하고, 상기 생성된 잠재 변수를 모델링하는 것을 특징으로 한다.As a technical means for achieving the above-described technical task, a device for predicting the characteristics of a vertex comprises: an input/output unit for receiving data and outputting a result of processing the data; a storage unit for storing a program for performing a method for predicting the characteristics of a vertex; and a control unit for predicting the characteristics of a vertex included in data received through the input/output unit by executing the program, wherein the control unit is characterized in that it generates a latent variable using a preset probability model having a multivariate Gaussian distribution for each vertex included in the data, and models the generated latent variable.

다른 실시예에 따르면, 정점의 특성을 예측하는 장치가 수행하는 정점의 특성을 예측하는 방법은, 데이터에 포함된 각 정점에 대해 미리 설정된 확률 모델을 사용해 잠재 변수를 생성하는 단계; 및 상기 생성된 잠재 변수를 모델링하는 단계;를 포함한다. According to another embodiment, a method for predicting a characteristic of a vertex performed by a device for predicting a characteristic of a vertex includes the steps of: generating a latent variable using a preset probability model for each vertex included in data; and modeling the generated latent variable.

또 다른 실시예에 따르면, 기록매체는, 정점의 특성을 예측하는 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체이다. 정점의 특성을 예측하는 장치가 수행하는 정점의 특성을 예측하는 방법은, 데이터에 포함된 각 정점에 대해 미리 설정된 확률 모델을 사용해 잠재 변수를 생성하는 단계; 및 상기 생성된 잠재 변수를 모델링하는 단계;를 포함한다.According to another embodiment, the recording medium is a computer-readable recording medium having recorded thereon a program for performing a method for predicting characteristics of a vertex. The method for predicting characteristics of a vertex, performed by a device for predicting characteristics of a vertex, includes: a step of generating a latent variable using a preset probability model for each vertex included in data; and a step of modeling the generated latent variable.

또 다른 실시예에 따르면, 컴퓨터 프로그램은, 정점의 특성을 예측하는 장치에 의해 수행되며, 정점의 특성을 예측하는 방법을 수행하기 위해 기록 매체에 저장된 컴퓨터 프로그램이다. 정점의 특성을 예측하는 장치가 수행하는 정점의 특성을 예측하는 방법은, 데이터에 포함된 각 정점에 대해 미리 설정된 확률 모델을 사용해 잠재 변수를 생성하는 단계; 및 상기 생성된 잠재 변수를 모델링하는 단계;를 포함한다.According to another embodiment, a computer program is a computer program stored in a recording medium for performing a method of predicting the characteristics of a vertex, which is performed by a device for predicting characteristics of a vertex. The method of predicting characteristics of a vertex, performed by the device for predicting characteristics of a vertex, includes a step of generating a latent variable using a preset probability model for each vertex included in data; and a step of modeling the generated latent variable.

전술한 과제 해결 수단 중 어느 하나에 의하면, 잠재 변수의 사전 분포를 가우시안 마르코프 랜덤 필드(GMRF)로 모델링하여 잠재 변수가 주어진 그래프 데이터의 구조에 따라 서로 상관 관계를 갖도록 강제하는 정규화를 수행함으로써 과적합(overfitting) 문제를 해결하여 정점의 특성을 보다 정확하게 예측할 수 있는 효과가 있다. According to one of the aforementioned problem solving means, the overfitting problem is solved by modeling the prior distribution of latent variables as a Gaussian Markov Random Field (GMRF) and performing regularization to force the latent variables to be correlated with each other according to the structure of the given graph data, thereby enabling more accurate prediction of the characteristics of the vertices.

전술한 과제 해결 수단 중 또 다른 하나에 의하면, 그래프 형태로 표현되는 데이터에 포함된 정점의 특성을 보다 정확하게 예측하여 정점(node) 분류의 성능을 향상시킬 수 있는 효과가 있다. According to another of the aforementioned problem solving methods, there is an effect of improving the performance of node classification by more accurately predicting the characteristics of vertices included in data expressed in a graph form.

개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the disclosed embodiments are not limited to the effects mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art to which the disclosed embodiments belong from the description below.

이하, 첨부되는 도면들은 본 명세서에 개시되는 바람직한 실시예를 예시하는 것이며, 발명을 실시하기 위한 구체적인 내용들과 함께 본 명세서에 개시되는 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 명세서에 개시되는 내용은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 일 실시예에 따른 정점의 특성 예측 장치의 기능 블록도이다.
도 2는 일 실시예에 따른 정점의 특성 예측 장치가 정점의 특성을 예측하는 과정을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 가우시안 마르코프 랜덤 필드(GMRF)를 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 정점의 특성 예측 장치에서의 정점의 특성 예측 방법을 설명하기 위한 흐름도이다.
The attached drawings below illustrate preferred embodiments disclosed in this specification, and serve to further understand the technical ideas disclosed in this specification together with specific contents for carrying out the invention, so the contents disclosed in this specification should not be interpreted as being limited to matters described in such drawings.
FIG. 1 is a functional block diagram of a vertex characteristic prediction device according to one embodiment.
FIG. 2 is a diagram for explaining a process in which a vertex characteristic prediction device according to one embodiment predicts a vertex characteristic.
FIG. 3 is a diagram for explaining a Gaussian Markov Random Field (GMRF) according to one embodiment.
FIG. 4 is a flowchart for explaining a method for predicting a characteristic of a vertex in a vertex characteristic prediction device according to one embodiment.

아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, various embodiments are described in detail with reference to the attached drawings. The embodiments described below may be modified and implemented in various different forms. In order to more clearly explain the features of the embodiments, detailed descriptions of matters that are widely known to those skilled in the art to which the embodiments belong are omitted. In addition, parts in the drawings that are not related to the description of the embodiments are omitted, and similar parts are given similar drawing reference numerals throughout the specification.

명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.Throughout the specification, when a component is said to be "connected" to another component, this includes not only the case where it is "directly connected" but also the case where it is "connected with another component in between." Furthermore, when a component is said to "include" another component, this does not mean that it excludes other components, but rather that it may include other components, unless otherwise specifically stated.

이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings.

다만 이를 설명하기에 앞서, 아래에서 사용되는 용어들의 의미를 먼저 정의한다.But before explaining this, let's first define the meaning of the terms used below.

그래프(graph)는 단순히 정점(node)과 그 정점을 연결하는 간선(edge)을 하나로 모아 놓은 자료 구조를 말한다. 즉, 그래프란 컴퓨터 자료 구조를 일컫는 용어로, 연결되어 있는 객체 간의 관계를 표현할 수 있는 자료 구조를 말하며, 정점과 간선으로 구성된 데이터이다. 다시 말해, 그래프는 여러 개의 정점(node) 및 정점을 연결하는 간선(edge)으로 구성된 데이터이며, 각 정점은 해당 정점의 특성을 나타내는 특성(feature) 벡터를 가지고 있다. 그래프 형태의 데이터는 실세계에서 다양하게 관측될 수 있으며, 예를 들어, 페이스북이나 트위터 등 소셜 네트워크 서비스나, 웨이브 또는 넷플릭스 등의 스트리밍 서비스 및 쿠팡이나 지마켓 등의 쇼핑 사이트 등에서 사용자 간의 관계를 그래프 형태의 데이터로 표현할 수 있다. 또한, 약이나 단백질 등의 화합물의 특성을 파악하고 분류하는 화학 분야에서 그래프 형태의 데이터로 표현될 수 있다. 그래프 형태로 표현된 데이터에 있어서, 정점은 현실 세계의 엔터티(노드)를 나타내며, 이들 사이를 이어주는 간선은 엔터티(노드) 간의 관계를 표현한다. 이에 따라, 실시예들을 설명함에 있어서, 데이터란 그래프 형태로 표현된 데이터를 의미할 수 있다. A graph is simply a data structure that gathers nodes and edges connecting those vertices. In other words, a graph is a term referring to a computer data structure, and it is a data structure that can express relationships between connected objects, and it is data composed of vertices and edges. In other words, a graph is data composed of multiple nodes and edges connecting the vertices, and each vertex has a feature vector that represents the characteristics of the corresponding vertex. Data in the form of a graph can be observed in various ways in the real world, and for example, relationships between users can be expressed as graph data in social network services such as Facebook or Twitter, streaming services such as Wave or Netflix, and shopping sites such as Coupang or Gmarket. In addition, data in the form of a graph can be expressed in the field of chemistry that identifies and classifies the characteristics of compounds such as drugs or proteins. In data expressed in the form of a graph, vertices represent entities (nodes) in the real world, and edges connecting them represent relationships between entities (nodes). Accordingly, in explaining the embodiments, data may mean data expressed in the form of a graph.

위에 정의한 용어 이외에 설명이 필요한 용어는 아래에서 각각 따로 설명하기로 한다.In addition to the terms defined above, terms that require explanation are explained separately below.

도 1은 일 실시예에 따른 정점의 특성 예측 장치의 기능 블록도, 도 2는 일 실시예에 따른 정점의 특성 예측 장치가 정점의 특성을 예측하는 과정을 설명하기 위한 도면, 도 3은 일 실시예에 따른 가우시안 마르코프 랜덤 필드(GMRF)를 설명하기 위한 도면이다.FIG. 1 is a functional block diagram of a vertex characteristic prediction device according to one embodiment, FIG. 2 is a diagram for explaining a process by which a vertex characteristic prediction device according to one embodiment predicts a vertex characteristic, and FIG. 3 is a diagram for explaining a Gaussian Markov random field (GMRF) according to one embodiment.

도 1을 참조하면, 일 실시예에 따른 정점의 특성 예측 장치(100)는 입출력부(110), 저장부(120) 및 제어부(130)를 포함한다.Referring to FIG. 1, a device (100) for predicting characteristics of a vertex according to one embodiment includes an input/output unit (110), a storage unit (120), and a control unit (130).

입출력부(110)는 사용자로부터 입력을 수신하기 위한 입력부와 작업의 수행결과 또는 정점의 특성 예측 장치(100)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 즉, 입출력부(110)는 데이터를 입력받고, 이를 연산 처리한 결과를 출력하기 위한 구성이다. 실시예에 따른 정점의 특성 예측 장치(100)는 입출력부(110)를 통해 그래프 형태의 데이터를 수신할 수 있다. The input/output unit (110) may include an input unit for receiving input from a user and an output unit for displaying information such as the result of performing a task or the status of the vertex characteristic prediction device (100). That is, the input/output unit (110) is configured to receive data and output the result of processing the data. The vertex characteristic prediction device (100) according to the embodiment may receive data in the form of a graph through the input/output unit (110).

저장부(120)는 파일 및 프로그램이 저장될 수 있는 구성으로서, 다양한 종류의 메모리를 통해 구성될 수 있다. 특히, 저장부(120)에는 후술하는 제어부(130)가 이하에서 제시되는 알고리즘에 따라 정점의 특성 예측을 위한 연산을 수행할 수 있도록 하는 데이터 및 프로그램이 저장될 수 있다. The storage unit (120) is a configuration in which files and programs can be stored, and can be configured through various types of memory. In particular, the storage unit (120) can store data and programs that enable the control unit (130) described below to perform operations for predicting the characteristics of a vertex according to the algorithm presented below.

제어부(130)는 CPU, 아두이노 등과 같은 적어도 하나의 프로세서를 포함하는 구성으로서, 정점의 특성 예측 장치(100)의 전체적인 동작을 제어할 수 있다. 즉, 제어부(130)는 정점 특성의 예측을 위한 동작을 수행하도록 정점의 특성 예측 장치(100)에 포함된 다른 구성들을 제어할 수 있다. 제어부(130)는 저장부(120)에 저장된 프로그램을 실행함으로써 이하에서 제시되는 알고리즘에 따라 정점의 특성 예측을 위한 연산을 수행할 수 있다. 제어부(130)가 정점의 특성 예측을 위한 연산을 수행하는 방법에 대해서는 후술하기로 한다. The control unit (130) is a configuration including at least one processor, such as a CPU, Arduino, etc., and can control the overall operation of the vertex characteristic prediction device (100). That is, the control unit (130) can control other configurations included in the vertex characteristic prediction device (100) to perform an operation for predicting the vertex characteristic. The control unit (130) can perform an operation for predicting the vertex characteristic according to the algorithm presented below by executing a program stored in the storage unit (120). The method by which the control unit (130) performs an operation for predicting the vertex characteristic will be described later.

이하에서는 제어부(130)가 저장부(120)에 저장된 프로그램을 실행시킴으로써 일 실시예에 따른 정점의 특성을 예측하는 방법을 수행하는 과정에 대해 상세히 설명하기로 한다. Below, a detailed description will be given of a process for predicting the characteristics of a vertex according to one embodiment by having the control unit (130) execute a program stored in the storage unit (120).

제어부(130)는 이하에서 설명되는 마르코프 그래프 자동인코더(Markov Graph Autoencoder, 이하 MGA)을 이용하여 정점(node)의 특성을 보다 정확하게 예측할 수 있다. The control unit (130) can more accurately predict the characteristics of a node by using a Markov Graph Autoencoder (MGA) described below.

한편, 마르코프 그래프 자동인코더(MGA)는 인코더와 디코더를 포함하는 네트워크로 구성될 수 있으며, 인코더는 각 정점에 대해 잠재 변수(Latent variables)를 생성하고, 디코더는 잠재 변수에서 고차원 특성 벡터를 생성할 수 있다. 한편, 잠재 변수는, 정점의 특성을 예측하기 위한 특징을 포함할 수 있다. 이때, 마르코프 그래프 자동인코더(MGA)는 도 2에 도시된 바와 같이, 하나의 인코더()(210) 및 서로 다른 역할을 수행하는 두 개의 디코더()(220)로 구성될 수 있다. 한편, 두 개의 디코더(220)는 특성 디코더(feature decoder) 및 레이블 디코더(label decoder)를 포함할 수 있다. 마르코프 그래프 자동인코더(MGA)와 관련한 설명은 후술하기로 한다.Meanwhile, a Markov graph autoencoder (MGA) can be composed of a network including an encoder and a decoder, where the encoder generates latent variables for each vertex, and the decoder can generate a high-dimensional feature vector from the latent variables. Meanwhile, the latent variables can include features for predicting the characteristics of the vertices. At this time, the Markov graph autoencoder (MGA) can be composed of one encoder (as shown in Fig. 2). )(210) and two decoders performing different roles ( and )(220). Meanwhile, the two decoders (220) may include a feature decoder and a label decoder. A description related to the Markov Graph Autoencoder (MGA) will be described later.

제어부(130)는 데이터에 포함된 각 정점에 대해 고유한 원-핫(one-hot) 특성 벡터를 생성할 수 있다. 이때, 원-핫 특성 벡터는 특성이 없는 정점에 초기 특성을 할당하는 방법 중 하나일 수 있다. 하지만, 상술한 바와 같은 부분 전가(imputation)는 특성 부여 여부에 따라 정점 간 불균형을 일으켜 과적합의 위험성을 높일 수 있다. 따라서, 이러한 과적합 문제를 해결하기 위한 정규화가 필요할 수 있다. 정규화와 관련한 보다 상세한 설명은 후술하기로 한다. The control unit (130) can generate a unique one-hot feature vector for each vertex included in the data. At this time, the one-hot feature vector can be one of the methods for assigning initial features to vertices without features. However, the partial imputation as described above can cause imbalance between vertices depending on whether features are assigned, thereby increasing the risk of overfitting. Therefore, normalization may be necessary to solve this overfitting problem. A more detailed description of normalization will be provided later.

제어부(130)는 데이터에 포함된 각 정점에 대해 미리 설정된 확률 모델을 사용해 잠재 변수를 생성한다. 보다 구체적으로, 제어부(130)는 인코더를 이용하여 가우시안 마르코프 랜덤 필드(Gaussian Markov random field, 이하 GMRF)를 사용해 상기 데이터에 포함된 각 정점에 대해 잠재 변수를 생성할 수 있다. 이때, 가우시안 마르코프 랜덤 필드(GMRF)는 정규화에 사용되는 확률모델일 수 있으며, 보다 구체적으로 설명하면 아래와 같다.The control unit (130) generates a latent variable using a preset probability model for each vertex included in the data. More specifically, the control unit (130) can generate a latent variable for each vertex included in the data using a Gaussian Markov random field (GMRF) using an encoder. At this time, the Gaussian Markov random field (GMRF) may be a probability model used for normalization, and more specifically, it is described as follows.

<가우시안 마르코프 랜덤 필드(GMRF)><Gaussian Markov Random Field (GMRF)>

가우시안 마르코프 랜덤 필드(GMRF)는 다변량 가우시안 분포를 나타내는 그래픽 모델이다. 정점들이 그래프 구조에 상관(correlated)되는 연속 신호를 갖는 데이터()가 주어지면, 가우시안 마르코프 랜덤 필드(GMRF)는 모든 정점() 및 간선()에 대해 두 가지 잠재적 함수(potential functions)( )를 갖는 신호 분포를 나타낸다. 각 정점의 신호를 가능한 값()을 가진 랜덤 변수()로 가정한다. A Gaussian Markov Random Field (GMRF) is a graphical model representing a multivariate Gaussian distribution. Data (where vertices have continuous signals that are correlated in a graph structure) ), a Gaussian Markov random field (GMRF) is given for all vertices ( ) and main line ( ) for two potential functions ( and ) represents a signal distribution with a possible value ( ) with a random variable ( ) is assumed.

구체적으로, 각 정점()에 대한 정점 잠재적 함수()와 각 간선()에 대한 간선 잠재적 함수()는 각각 아래의 수학식 1 및 수학식 2와 같이 정의된다. Specifically, each vertex ( ) for the vertex potential function ( ) and each edge ( ) for the edge potential function ( ) are defined as mathematical expressions 1 and 2 below, respectively.

여기서, 은 가우시안 마르코프 랜덤 필드(GMRF)의 매개변수(parameter)이고, 은 정점의 수이다. 의 0이 아닌(nonzero) 요소는 도 3에 도시된 바와 같이 데이터의 간선에 해당한다. 도 3에서 가우시안 마르코프 랜덤 필드(GMRF)는 매개변수 로 가우시안 분포 을 설명한다. 여기서, 의 0이 아닌 요소는 데이터()의 간선에 해당한다. 이후, 조인트 확률()은 모든 잠재적 함수의 곱으로 이루어진다. 조인트 확률은 아래의 수학식 3과 같이 나타낼 수 있다. Here, class is a parameter of the Gaussian Markov Random Field (GMRF), is the number of vertices. The nonzero elements of correspond to the edges of the data, as shown in Fig. 3. In Fig. 3, the Gaussian Markov Random Field (GMRF) is a parameter and Gaussian distribution . Here, The non-zero elements of the data ( ) corresponds to the edge of the joint probability ( ) is composed of the product of all potential functions. The joint probability can be expressed as the mathematical expression 3 below.

여기서, 는 정규화 상수이다. 각각의 잠재적 함수는 또는 가 매개변수 를 사용하여 현재의 확률적 가정으로 나타날 가능성을 측정하고, 조인트 확률은 모든 정점과 간선에 대한 포텐셜 함수를 곱하여 계산된다. 실제 그래프 형태의 데이터를 가우시안 마르코프 랜덤 필드(GMRF)로 나타내면 정점 간의 관계를 확률적으로 이해할 수 있다. 즉, 가우시안 마르코프 랜덤 필드(GMRF)에서 그래프 구조를 따르는 변수 간의 상관관계를 모델링하는 다변량 가우시안 분포를 만들 수 있다. Here, is a normalization constant. Each potential function is or A parameter and The probability that the current probabilistic assumption will appear using is measured, and the joint probability is calculated by multiplying the potential function for all vertices and edges. If actual graph-shaped data is represented as a Gaussian Markov Random Field (GMRF), the relationship between vertices can be probabilistically understood. That is, in the Gaussian Markov Random Field (GMRF), a multivariate Gaussian distribution can be created that models the correlation between variables that follow the graph structure.

가우시안 마르코프 랜덤 필드(GMRF)는 확률적 프레임워크에서 실제 데이터를 통합하는 확률모델일 수 있다. 매개변수 의 역할은 이들이 나타내는 분포와 관련하여 이해할 수 있다. 는 공분산(covariance)()의 역(inverse)이며, 이 작으면 한 쌍의 신호()가 관찰될 가능성이 높다. 가 고정된 경우 신호의 평균을 결정하고 계산의 단순성을 위해 신호의 초기 바이어스가 없다고 가정하므로 일반적인 경우, 0으로 설정되는 것이 바람직하다. Gaussian Markov Random Field (GMRF) can be a probabilistic model that integrates real data in a probabilistic framework. Parameters and Their role can be understood in relation to the distributions they represent. is the covariance ( ) is the inverse of If this is small, a pair of signals ( and ) is likely to be observed. Is In the general case, it is desirable to set it to 0, since it determines the average of the signal when it is fixed and for simplicity of calculation, it is assumed that there is no initial bias of the signal.

다시 말해, 제어부(130)는 인코더를 이용하여 잠재 변수의 분포가 사전 분포에 가까워지도록 가우시안 마르코프 랜덤 필드(GMRF)를 사용해 잠재 변수의 사전 분포를 모델링하여, 잠재 변수가 주어진 그래프 데이터의 구조에 따라 서로 상관 관계를 갖도록 정규화를 수행할 수 있다. 여기서, 정규화는 잠재 변수의 분포가 사전 분포에 가까워지도록 가우시안 마르코프 랜덤 필드(GMRF)를 사용해 잠재 변수의 사전 분포를 모델링하여 잠재 변수가 주어진 그래프의 구조에 따라 서로 상관 관계를 갖도록하는 것이다. 다시 말해, 제어부(130)는 확률적 프레임 워크에서 변수 간의 상관 관계를 모델링하기 위해 그래프 구조를 이용하여 잠재 변수의 사전 변수를 가우시안 마르코프 랜덤 필드(GMRF)로 가정함으로써, 잠재 변수의 분포가 사전 분포에 가까워지도록 잠재 변수를 생성할 수 있다. 상술된 바와 같이, 제어부(130)는 잠재 변수의 사전 분포(prior)를 가우시안 마르코프 랜덤 필드(GMRF)로 모델링하여 잠재 변수가 주어진 그래프의 구조에 따라 서로 상관 관계를 갖도록 정규화를 수행함으로써, 과적합 문제가 발생하는 것을 방지할 수 있다.In other words, the control unit (130) can perform normalization by modeling the prior distribution of the latent variables using a Gaussian Markov Random Field (GMRF) so that the distribution of the latent variables approaches the prior distribution by using an encoder, so that the latent variables have correlations with each other according to the structure of the given graph data. Here, the normalization is to model the prior distribution of the latent variables using a Gaussian Markov Random Field (GMRF) so that the distribution of the latent variables approaches the prior distribution, so that the latent variables have correlations with each other according to the structure of the given graph. In other words, the control unit (130) can generate latent variables by assuming the prior variables of the latent variables as Gaussian Markov Random Fields (GMRF) by using the graph structure to model the correlations between variables in a probabilistic framework. As described above, the control unit (130) can prevent the overfitting problem from occurring by modeling the prior distribution of the latent variables as a Gaussian Markov random field (GMRF) and performing normalization so that the latent variables are correlated with each other according to the structure of the given graph.

제어부(130)는 생성된 잠재 변수를 모델링한다. 즉, 제어부(130)는 생성된 잠재 변수를 기초로 각 정점의 특성을 예측할 수 있다. 이때, 정점의 특성을 예측하는 것은, 생성된 잠재 변수를 활용해 각 정점에 대한 고차원 특성 벡터를 예측하는 것일 수 있다. The control unit (130) models the generated latent variables. That is, the control unit (130) can predict the characteristics of each vertex based on the generated latent variables. At this time, predicting the characteristics of the vertex may be predicting a high-dimensional characteristic vector for each vertex by utilizing the generated latent variables.

보다 구체적으로, 제어부(130)는 특성 디코더 및 레이블 디코더를 이용하여 그래프 구조화된 데이터에 대한 변이 추론을 실행하여 상기 잠재 변수를 모델링함으로써 정점의 특성 벡터 및 레이블(label)을 생성할 수 있다. 이때, 제어부(130)는 변이 추론을 실행하여 잠재 변수를 모델링함으로써, 주어진 정점의 특성 및 레이블에 대한 가능성(likelihood)을 최대화할 수 있다. 이때, 변이 추론은 조인트 학습(Joint Learning)을 위한 것일 수 있으며, 보다 구체적으로 설명하면 아래와 같다.More specifically, the control unit (130) can generate a feature vector and a label of a vertex by executing mutation inference on graph-structured data using a feature decoder and a label decoder to model the latent variable. At this time, the control unit (130) can maximize the likelihood of the feature and label of a given vertex by executing mutation inference to model the latent variable. At this time, the mutation inference can be for joint learning, and more specifically, it is described as follows.

<변이 추론(variational inference)><Variational inference>

본 발명은, 데이터()의 인접 행렬 A가 주어지는 경우, 관찰된 특성 와 레이블 의 가능성(likelihood) 을 최대화하는 최적의 매개변수 를 찾는 것이다. 각 정점()에 대해 잠재 변수 를 도입하고, 모든 잠재 변수의 실현을 로 나타낸다. 여기서, 은 정점의 수이고, 는 변수의 크기이다. 잠재 변수 는 각 정점()의 특성()을 예측하기 위한 특징을 포함한다. 그러나, 가능성 =의 직접 최대화에는 에 대한 의 다루기 힘든 기대가 포함된다. 따라서, 실시예에 따르면 변이 추론으로 증거 하한선(evidence lower bound, 이하 ELBO)을 최대화하도록 변경한다. 가능성의 최대화식은 아래의 수학식 4와 같이 나타낼 수 있다. The present invention relates to data ( ) Given an adjacency matrix A, the observed characteristics Wow label Likelihood of The optimal parameters that maximize is to find each vertex ( ) for latent variables , and realization of all latent variables. is expressed as . Here, is the number of vertices, is the size of the variable. Latent variable is each vertex ( ) characteristics ( ) includes features to predict the probability. However, the probability = The direct maximization of for It includes the difficult expectation of handling. Therefore, according to the embodiment, the evidence lower bound (ELBO) is changed to maximize the mutational inference. The equation for maximizing the likelihood can be expressed as the following mathematical expression 4.

여기서, 는 증거 하한선(ELBO), 의 모수화된 분포 그리고, 의 모수화된 분포이다. 각 잠재 변수()가 특성()과 레이블()을 생성하기에 충분한 정점()의 정보를 가질 것으로 기대하고, 주어진 , , 사이에 조건부 독립성을 가정한다. 이후, 상술된 수학식 4에서 의 첫 번째 항은 아래의 수학식 5와 같이 다시 나타낼 수 있다.Here, is the lower bound of evidence (ELBO), Is Parameterized distribution of and, Is and is a parameterized distribution of each latent variable ( ) is a characteristic ( ) and labels ( ) enough vertices to generate ) is expected to have information on the given go , , Assuming conditional independence between . Then, in the mathematical expression 4 described above, The first term of can be re-expressed as in mathematical equation 5 below.

여기서, 는 각각 특성과 레이블이 관찰되는 정점 집합이고, 를 나타낸다. Here, and is a set of vertices where features and labels are observed, respectively. Is It represents .

상술된 수학식 5에 따르면, 가 주어지면, 관찰된 특성 및 레이블의 조건부 가능성을 나타낼 수 있다. 따라서, 수학식 5를 최대화하는 것은 일반적인 오토인코더에서 관측된 변수의 재구성 오차를 최소화하는 것과 같다. 반면, 상술된 수학식 4의 발산항(KL divergence term)은 잠재 변수의 분포()가 사전 분포()에 가까워지도록 하는 정규화기 역할을 할 수 있다. 한편, 정규화의 특성은 프레임워크에서 필수적인 역할을 하는 사전 분포()를 모델링하는 방법에 따라 다를 수 있다. According to the mathematical expression 5 described above, Given, it can represent the conditional likelihood of the observed features and labels. Therefore, maximizing Equation 5 is equivalent to minimizing the reconstruction error of the observed variables in a general autoencoder. On the other hand, Equation 4 described above The KL divergence term is the distribution of the latent variable ( ) is a prior distribution ( ) can act as a regularizer to make it closer to the prior distribution ( ) which plays an essential role in the framework. Meanwhile, the characteristic of regularization is that the prior distribution ( ) may vary depending on how the model is modeled.

다시 말해, 제어부(130)는 상술된 바에 따라 변이 추론을 실행하여 잠재 변수를 모델링함으로써, 주어진 특성 및 레이블에 대한 가능성(likelihood)을 최대화할 수 있다. 즉, 제어부(130)는 변이 추론을 실행하되, 목적 함수를 증거 하한선(ELBO)으로 바꾸어 학습을 수행함으로써, 잠재 변수의 분포를 제약함으로써 가능성 최대화식을 계산함에 있어서, 많은 계산량(지수적인 계산량)이 요구되지 않음으로 보다 빠른 시간 내에 계산을 수행할 수 있다. In other words, the control unit (130) can maximize the likelihood for given features and labels by modeling latent variables by executing mutational inference as described above. That is, the control unit (130) can perform mutational inference, but by changing the objective function to an evidence lower bound (ELBO) to perform learning, thereby restricting the distribution of latent variables, so that a large amount of calculation (exponential calculation) is not required in calculating the likelihood maximization formula, and thus the calculation can be performed in a shorter time.

<사전 분포(prior) 정규화><Prior distribution normalization>

본원 발명에 따르면, 확률 모델링에서 변수 간의 상관 관계를 고려하기 위해, 사전 분포()를 가우시안 마르코프 랜덤 필드(GMRF)로 모델링한다. 이때, 잠재 변수의 분포를 모델링하기 위해 아래와 같은 매개변수화가 적용될 수 있다. According to the present invention, in order to consider the correlation between variables in probability modeling, a prior distribution ( ) is modeled as a Gaussian Markov Random Field (GMRF). At this time, the following parameterization can be applied to model the distribution of latent variables.

1. 기본 매개변수화1. Basic parameterization

실시예에 따르면, 는 다변량 가우시안 분포()로 모델링된다. 여기서, 는 각각 크기 의 공분산 행렬이다. 각 정점의 모든 요소는 동일한 공분산 행렬을 공유한다고 가정한다. 는 학습 가능한 매개변수 집합()을 포함하는 인코더 함수()에서 각각 생성된다. 이후, 매개변수 를 사용하여 사전 분포()를 가우시안 마르코프 랜덤 필드(GMRF) 으로 모델링한다. 대칭 정규화를 사용하여 그래프 라플라리안 행렬(graph Laplacian matrix)인 로부터 정보 행렬 를 만든다. According to the embodiment, is a multivariate Gaussian distribution ( ) is modeled as, where, and are each different sizes and is the covariance matrix of all vertices. The elements are assumed to share the same covariance matrix. and is a set of learnable parameters ( ) containing the encoder function ( and ) are generated respectively. After that, the parameters and Using a prior distribution ( ) as a Gaussian Markov Random Field (GMRF). It is modeled as a graph Laplacian matrix using symmetric regularization. Information matrix from Makes.

<정보 행렬><Information matrix>

여기서, 는 단위 행렬(identity matrix)이고, 인 차수 행렬(degree matrix)이다. 결과 는 데이터()의 구조 정보를 가우시안 마르코프 랜덤 필드(GMRF)의 제약 조건을 충족하는 양의 반확정 행렬(positive-semidefinite)로 유지한다. 대각선을 제외한 의 0이 아닌 항목은 의 항목에 해당한다. 는 고정된 사전 분포를 나타내므로 상수이다. Here, is the identity matrix, Is is a degree matrix. The result is data( ) is maintained as a positive semi-definite matrix that satisfies the constraints of the Gaussian Markov Random Field (GMRF). Except for the diagonal. Non-zero items of It corresponds to the item of . is a constant, since it represents a fixed prior distribution.

의 가우시안 모델링이 주어지면, 발산은 아래의 수학식 6과 같이 나타낼 수 있다. and Given a Gaussian model of , Divergence can be expressed as mathematical expression 6 below.

여기서, 와 관련된 상수이다. Here, Is and is a constant related to .

상술된 수학식 6의 계산이 어려운 부분(computational bottleneck)은 이며, 그 계산은 이다. 따라서, 우리는 공분산을 와 직사각형 행렬 로 분해한다. 여기서, 와 같은 초매개변수(hyperparameters)이다. 한편, 로그 은 아래와 같은 수학식 7과 같이 나타낼 수 있다. The computational bottleneck of the mathematical expression 6 described above is , and the calculation is Therefore, we have the covariance and rectangular matrix It is decomposed into . Here, and silver are hyperparameters. Meanwhile, log can be expressed as mathematical formula 7 below.

여기서, 은 각각 크기의 단위 행렬이다. 수학식 7의 계산은 이며, 이는 전체 공분산 행렬의 보다 효율적이다. Here, class are each class is the unit matrix of size. The calculation of mathematical expression 7 is , which is the entire covariance matrix. It is more efficient.

각 추론에 대해 각각 에서 생성된 를 기반으로 에서 를 무작위로 샘플링한다. 그라디언트 기반 업데이트(gradient based update)는 의 직접 샘플링으로 가능하지 않기 때문에 가변 자동인코더의 재매개변수화 트릭(reparametrization trick)을 사용한다. 이는 아래와 같은 수학식 8과 같이 나타낼 수 있다.For each inference, respectively and Generated from and Based on at Randomly samples the gradient based update. Since direct sampling of the , is not possible, we use the reparametrization trick of the variational autoencoder. This can be expressed as the following mathematical expression (8).

여기서, 는 표준 정규 변수의 행렬로, 역전파를 지원하면서 의 샘플링을 시뮬레이션하기 위해 매번 무직위로 샘플링된다. Here, and is a matrix of standard normal variables, supporting backpropagation. Each time, the sample is randomly sampled to simulate the sampling of .

2. 통합 결정론적 모델링2. Integrated deterministic modeling

재매개변수화 트릭(reparametrization trick)을 사용하면, 각 추론시 서로 다른 를 샘플링하여 상술된 수학식 5의 기대항을 근사화할 수 있다. 하지만, 각 정점에 대해 독립적으로가 아닌 모든 정점에 대해 한번에 추론을 수행하야 하는 문제 및 대상 변수의 일부에만 의미있는 관찰이 있어야한다는 문제의 특징을 고려하면, 샘플링 과정은 훈련을 불안정하게 만들 수 있다. 따라서, 본원발명에 따르면, 상술된 기본 매개변수화를 아래와 같은 내용을 적용시켜 개선할 수 있다. Using the reparametrization trick, each inference time is different. can be approximated by sampling the expected term of the above-described mathematical expression 5. However, considering the characteristics of the problem that inference must be performed for all vertices at once rather than independently for each vertex and that meaningful observations must be made only for a part of the target variables, the sampling process can make the training unstable. Therefore, according to the present invention, the above-described basic parameterization can be improved by applying the following contents.

먼저, 를 Dirac의 델타 함수 로 변경한다. 여기서, 0은 크기의 제로 행렬이다. 이는, 의 샘플링 프로세스를 모든 추론에서 를 반환하는 결정적 함수로 대체하여 훈련의 안정성을 향상시킬 수 있다. 이후, 두 매개변수 행렬 를 단일 행렬 로 통합하고, 통합 인코더 에서 생성한다. 이것은 모두에 대한 정규화가 단일 행렬 에 적용되기 때문에 결정론적 모델링에서도 발산항의 정규화 효과를 유지할 수 있다. 이처럼, 상술된 통합 결정론적 모델링 방법에 의해 라고 가정하면, 상술된 수학식 6의 의 처음 두 항은 동등해진다. first, Dirac's delta function Change to . Here, 0 is It is a zero matrix of size . This is, The sampling process in all inferences The stability of training can be improved by replacing the two parameter matrices with a deterministic function that returns and to a single matrix Integrated with and integrated encoder It is generated in . This is and Normalization for all is a single matrix Because it is applied to deterministic modeling as well, The normalization effect of the divergence term can be maintained. In this way, by the integrated deterministic modeling method described above, Assuming that, the mathematical expression 6 described above The first two terms become equivalent.

한편, 통합 결정론적 모델링과 아래의 정리가 주어지면, 상술된 수학식 6의 발산은 일반 정규화 함수로 변경될 수 있으며, 이는 아래의 수학식 9와 같이 나타낼 수 있다. Meanwhile, given the integrated deterministic modeling and the theorem below, the mathematical expression 6 described above Divergence can be changed into a general regularization function, which can be expressed as Equation 9 below.

<정리><Summary>

여기서, 와 무관한 상수이다. Here, Is is a constant that is independent of .

여기서, 여기서, 는 수학식 6의 와 같은 상수이다. Here, here, is the mathematical formula 6 is a constant such as .

수학식 9의 첫번째 항은 그래프 라플라시안 정규화기(graph Laplacian regularizer)라고 하며, 그래프 학습에 널리 사용되어지고 있다. The first term in Equation 9 is called the graph Laplacian regularizer, which is widely used in graph learning.

한편, 수학식 9의 는 아래의 수학식 10과 같이 나타낼 수 있다. Meanwhile, in mathematical formula 9 can be expressed as mathematical formula 10 below.

여기서, 번째와 번째 행이고, 는 각각 정점 의 차수이다. 수학식 10의 최소화는 인접한 정점이 에서 유사한 표현을 갖도록 하고, 의 대칭 정규화는 정규화에서 다른 정점 차수의 영향을 완화한다. 한편, 상술된 수학식 9의 두번째 항은 잠재 공간에서 가 차지하는 공간의 양을 측정하는 것으로 생각할 수 있다. 즉, 최대화하면 가 띄엄띄엄 분포되어 임베딩을 작은 공간에 압축하는 의 영향을 완화할 수 있다. 한편, 초매개변수 는 목표가 반대인 두 항 사이의 균형을 제어한다. Here, and Is The second and It is the th row, and are each vertex and is the degree of . The minimization of Equation 10 is the degree of the adjacent vertices. To have similar expressions in , The symmetric regularization of alleviates the influence of different vertex degrees in the regularization. Meanwhile, the second term of the above-mentioned mathematical expression 9 is can be thought of as measuring the amount of space that an object occupies. That is, if we maximize are distributed sparsely, compressing the embedding into a small space. can alleviate the influence of hyperparameters. Meanwhile, controls the balance between two terms with opposing goals.

도 2를 참조하면, 본 발명에 따른 제어부(130)는, 마르코프 그래프 자동인코더(MGA)를 이용하여 심층 신경망에 의해 목표 분포 , 를 표현할 수 있다. 일 실시예에 따른 마르코프 그래프 자동인코더(MGA)는 인코더(210) 및 디코더(220)를 포함하는 네트워크 구조를 형성할 수 있으며, 이와 관련한 보다 상세한 설명은 아래와 같다. Referring to FIG. 2, the control unit (130) according to the present invention uses a Markov graph autoencoder (MGA) to distribute the target by a deep neural network. , and can be expressed. A Markov graph autoencoder (MGA) according to one embodiment can form a network structure including an encoder (210) and a decoder (220), and a more detailed description thereof is as follows.

1. 인코더 1. Encoder

인코더()는 매개변수()를 사용하여 를 표현할 수 있다. 실시예에 따르면, 인코더()를 모델링하기 위해 그래프 컨볼루션 네트워크(GCN)를 사용할 수 있다. 하지만, 이에 한하지 않으며 다양한 그래프 신경망을 대신 사용할 수도 있다. 인코더()의 출력은 분포()의 매개변수 로 사용되며, 이는 상술한 통합 결정론적 모델링으로 인해 잠재 변수 가 된다. 두 개의 레이어가 있는 그래프 컨볼루션 네트워크(GCN)를 사용하는 경우, 인코더()는 로 정의된다. 여기서, 는 정규화된 인접 행렬, , 는 활성화 함수, 는 정점 특성 행렬, 계층에 대한 가중치 행렬인 차수 행렬이다. 한편, 그래프 컨볼루션 네트워크(GCN)를 기초로하는 인코더를 사용할 때는 정점 특성에 대한 부분적인 관찰만 가지고 있기 때문에, 입력 행렬 가 불완전하다는 문제가 있다. 따라서, 원-핫 특성 벡터를 생성하는 것과 같이 특성이 없는 정점에 초기 특성을 할당할 수 있다. 하지만, 이러한 부분 전가(partial imutation)는 특성 부여 여부에 따라 정점 간의 불균형을 일으켜 과적합의 위험을 높일 수 있다. 따라서, 실시예에 따르면, 단위 행렬 로 채택하여, 인코더()의 입력에서 모든 관측값을 삭제할 수 있다. 이것은, 여부에 관계없이 가중치 행렬 번째 행에 있는 각 정점()에 대해 인코더()가 독립적인 임베딩 벡터 를 학습하도록 할 수 있다. 한편, 가중치 행렬 에 많은 수의 매개변수가 있어 훈련 과정을 불안정하게 만들 수 있기 때문에, 항등 특성 행렬을 도입하는 것은 제한이 발생할 수 있다. 따라서, 인코더()에서 생성된 정점 표현 를 정점()의 각 벡터를 로 정규화하여 단위 하이퍼스피어(unit hypersphere)로 투영한다. 이에 따라, 고차원 특성을 생성하기 위한 충분한 정보를 제공하는 정점의 다양한 표현을 만드는 주요 기능을 변경하지는 않지만, 출력 공간을 제한하여 훈련의 안정성을 향상시킬 수 있다. Encoder( ) is a parameter ( ) using can be expressed. According to an embodiment, the encoder ( ) can be used to model the graph convolutional network (GCN). However, it is not limited to this and various graph neural networks can be used instead. Encoder ( ) output is distributed ( ) parameters , which is used as a latent variable due to the integrated deterministic modeling described above. becomes. When using a graph convolutional network (GCN) with two layers, the encoder ( )Is is defined as, where, is a normalized adjacency matrix, Is , is the activation function, is the vertex feature matrix, Is The order matrix is the weight matrix for the layer. On the other hand, when using an encoder based on a graph convolutional network (GCN), since we only have partial observations of the vertex features, the input matrix There is a problem that the initial feature can be assigned to the vertices without features, such as generating a one-hot feature vector. However, this partial imputation can cause imbalance between vertices depending on whether or not the feature is assigned, which can increase the risk of overfitting. Therefore, according to the embodiment, the identity matrix second By adopting the encoder ( ) can delete all observations from the input. This is Weight matrix regardless of whether of Each vertex in the th row ( ) for the encoder( ) is an independent embedding vector can be learned. Meanwhile, the weight matrix Introducing the identity feature matrix may cause limitations, since it may make the training process unstable due to the large number of parameters in the encoder. Therefore, ) generated vertex representation The vertex ( ) for each vector Normalized to unit hypersphere, it does not change the main function of creating a diverse representation of vertices that provides sufficient information for generating high-dimensional features, but it can improve the stability of training by restricting the output space.

2. 디코더 2. Decoder

실시예에 따르면, 두 개의 디코더 를 사용하여 각각 를 모델링한다. 이때, 잠재 변수 는 관찰된 특성과 레이블을 구성하기에 충분한 정보를 가지고 있다고 가정한다. 이에 따르면, 와 같은 가장 단순한 선형 변환을 선택하여 디코더의 복잡성을 최소화할 수 있다. 여기서, , , 는 학습 가능한 가중치 및 바이어스, 은 특성의 수, 는 클래스의 수이다. 디코더의 출력을 사용하여 분포 를 모델링하는 방법은 데이터 세트의 속성에 따라 달라질 수 있다. 정점 분류를 위한 많은 그래프 데이터 세트에는 이진 특성과 각 정점에 대한 단일 레이블이 있다. 따라서, 를 다변량 베르누이 분포(multivariate Bernoulli distribution)로 가정하고, 를 범주형 분포(categorical distribution)로 가정한다. 이에 따라, 수학식 11 및 수학식 12에 나타낸 바와 같이 손실 조건(loss terms)을 생성할 수 있다. According to an embodiment, two decoders and Using each and Modeling. At this time, latent variables It is assumed that the observed features and labels have sufficient information to construct them. According to this, The complexity of the decoder can be minimized by choosing the simplest linear transformation, such as: , , and are learnable weights and biases, The number of silver characteristics, is the number of classes. Distribution using the output of the decoder. and How to model can vary depending on the properties of the data set. Many graph data sets for vertex classification have binary features and a single label for each vertex. Therefore, Assuming a multivariate Bernoulli distribution, is assumed to be a categorical distribution. Accordingly, loss terms can be generated as shown in Equations 11 and 12.

여기서, 는 디코더의 출력이고, 는 로지스틱 시그모이드 함수이며, 조건이 유지되면 1을 반환하고 그렇지 않으면 0을 반환한다. Here, and is the output of the decoder, is a logistic sigmoid function, which returns 1 if the condition holds, and 0 otherwise.

본 실시예에 따르면, 한 개의 인코더 및 두 개의 디코더를 그라디언트 기반 최적화기(gradient-based optimizer)를 사용하여 종단 간(end-to-end) 방식으로 업데이트할 수 있으며, 손실 조건을 최소화하기 위해 전체 목적 함수를 아래의 수학식 13과 같이 나타낼 수 있다.According to the present embodiment, one encoder and two decoders can be updated in an end-to-end manner using a gradient-based optimizer, and the overall objective function can be expressed as shown in the following mathematical expression 13 to minimize the loss condition.

여기서, 는 상술된 수학식 9에 표시된 정규화기이다. Here, is a regularizer as shown in the mathematical expression 9 described above.

한편, 수학식 4의 증거 하한선(ELBO)에서 두 가지를 변경할 수 있다. 먼저, 초매개변수 를 사용하여 정규화의 양을 조정한다. 이후, 이진 교차 엔트로피(binary cross entropy, BCE) 손실 의 수정된 버전을 사용하여 발생에 따라 클래스 가중치를 조정하여 실제 특성의 0과 0이 아닌 항목을 균형있게 조정할 수 있다. Meanwhile, two things can be changed in the proof lower bound (ELBO) of Equation 4. First, the hyperparameter Adjust the amount of regularization using . After that, binary cross entropy (BCE) loss A modified version of this can be used to balance the 0 and non-0 items of the real feature by adjusting the class weights according to occurrence.

상술된 본원발명에 따르면, 잠재 변수의 사전 분포를 가우시안 마르코프 랜덤 필드(GMRF)로 모델링하여 잠재 변수가 주어진 그래프 데이터의 구조에 따라 서로 상관 관계를 갖도록 강제하는 정규화를 수행함으로써 과적합(overfitting) 문제를 해결하여 정점의 특성을 보다 정확하게 예측할 수 있는 효과가 있다. 또한, 그래프 형태로 표현되는 데이터에 포함된 정점의 특성을 보다 정확하게 예측하여 정점(node) 분류의 성능을 향상시킬 수 있는 효과가 있다.According to the above-described present invention, by modeling the prior distribution of latent variables as a Gaussian Markov Random Field (GMRF) and performing regularization to force the latent variables to be correlated with each other according to the structure of the given graph data, the overfitting problem is solved, thereby enabling more accurate prediction of the characteristics of the vertices. In addition, there is an effect of improving the performance of the vertex classification by more accurately predicting the characteristics of the vertices included in the data expressed in the form of a graph.

도 4는 일 실시예에 따른 데이터 정점의 특성을 예측하는 장치에서의 정점의 특성을 예측하는 방법을 설명하기 위한 흐름도이다. FIG. 4 is a flowchart illustrating a method for predicting characteristics of a vertex in a device for predicting characteristics of a data vertex according to one embodiment.

도 4에 도시된 실시예에 따른 정점의 특성을 예측하는 방법은 도 1 내지 도 3에 도시된 정점의 특성을 예측하는 장치(100)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도, 도 1 내지 도 3에 도시된 정점의 특성을 예측하는 장치(100)에 관하여 이상에서 기술한 내용은 도 4에 도시된 실시예에 따른 정점의 특성을 예측하는 방법에도 적용될 수 있다. The method for predicting the characteristics of a vertex according to the embodiment illustrated in FIG. 4 includes steps that are processed in time series in the device (100) for predicting the characteristics of a vertex illustrated in FIGS. 1 to 3. Therefore, even if the content is omitted below, the content described above with respect to the device (100) for predicting the characteristics of a vertex illustrated in FIGS. 1 to 3 can also be applied to the method for predicting the characteristics of a vertex according to the embodiment illustrated in FIG. 4.

도 4를 참조하면, S410 단계에서 정점의 특성을 예측하는 장치(100)는 데이터에 포함된 각 정점에 대해 미리 설정된 확률 모델을 사용해 잠재 변수를 생성한다. 이때, 미리 설정된 확률 모델은 가우시안 마르코프 랜덤 필드(GMRF)일 수 있다. 한편, 정점의 특성을 예측하는 장치(100)는 인코더와 디코더를 포함하는 네트워크로 구성된 마르코프 그래프 자동인코더(MGA)를 포함할 수 있다. 이때, 인코더는 각 정점에 대해 잠재 변수(Latent variables)를 생성하고, 디코더는 잠재 변수에서 고차원 특성 벡터를 생성할 수 있다. 정점의 특성을 예측하는 장치(100)는 인코더를 이용하여 가우시안 마르코프 랜덤 필드(GMRF)를 사용해 상기 데이터에 포함된 각 정점에 대해 잠재 변수를 생성할 수 있다.Referring to FIG. 4, in step S410, a device (100) for predicting the characteristics of a vertex generates a latent variable using a preset probability model for each vertex included in the data. At this time, the preset probability model may be a Gaussian Markov Random Field (GMRF). Meanwhile, the device (100) for predicting the characteristics of a vertex may include a Markov graph autoencoder (MGA) configured as a network including an encoder and a decoder. At this time, the encoder may generate latent variables for each vertex, and the decoder may generate a high-dimensional feature vector from the latent variables. The device (100) for predicting the characteristics of a vertex may generate a latent variable for each vertex included in the data using a Gaussian Markov Random Field (GMRF) by using an encoder.

S420 단계에서 정점의 특성을 예측하는 장치(100)는 S410 단계에서 생성된 잠재 변수를 모델링한다. 정점의 특성을 예측하는 장치(100)는 생성된 잠재 변수를 기초로 각 정점의 특성을 예측할 수 있다. 이때, 정점의 특성을 예측하는 것은, 생성된 잠재 변수를 활용해 각 정점에 대한 고차원 특성 벡터를 예측하는 것일 수 있다. 보다 구체적으로, 정점의 특성을 예측하는 장치(100)는 특성 디코더 및 레이블 디코더를 이용하여 그래프 구조화된 데이터에 대한 변이 추론을 실행하여 상기 잠재 변수를 모델링함으로써 정점의 특성 벡터 및 레이블(label)을 생성할 수 있다. 이때, 정점의 특성을 예측하는 장치(100)는 변이 추론을 실행하여 잠재 변수를 모델링함으로써, 주어진 정점의 특성 및 레이블에 대한 가능성(likelihood)을 최대화할 수 있다.In step S420, the device (100) for predicting the characteristics of a vertex models the latent variables generated in step S410. The device (100) for predicting the characteristics of a vertex can predict the characteristics of each vertex based on the generated latent variables. At this time, predicting the characteristics of a vertex may be predicting a high-dimensional feature vector for each vertex by utilizing the generated latent variables. More specifically, the device (100) for predicting the characteristics of a vertex can generate the feature vector and label of a vertex by executing mutation inference on graph-structured data using a feature decoder and a label decoder to model the latent variables. At this time, the device (100) for predicting the characteristics of a vertex can maximize the likelihood of the characteristics and labels of a given vertex by executing mutation inference to model the latent variables.

이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.The term '~ unit' used in the above embodiments means a software or a hardware component such as an FPGA (field programmable gate array) or an ASIC, and the '~ unit' performs certain roles. However, the '~ unit' is not limited to software or hardware. The '~ unit' may be configured to be in an addressable storage medium and may be configured to reproduce one or more processors. Thus, as an example, the '~ unit' includes components such as software components, object-oriented software components, class components, and task components, and processes, functions, attributes, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.

구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.The functionality provided within the components and '~subunits' may be combined into a smaller number of components and '~subunits' or separated into additional components and '~subunits'.

뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.Additionally, the components and '~parts' may be implemented to trigger one or more CPUs within the device or secure multimedia card.

한편, 본 명세서를 통해 설명된 일실시예에 따른 정점의 특성을 예측하는 방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다.Meanwhile, the method for predicting the characteristics of a vertex according to an embodiment described through this specification may also be implemented in the form of a computer-readable medium that stores instructions and data executable by a computer. At this time, the instructions and data may be stored in the form of program codes, and when executed by a processor, may generate a predetermined program module to perform a predetermined operation. In addition, the computer-readable medium may be any available medium that may be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may be a computer recording medium, and the computer recording medium may include both volatile and nonvolatile, removable and non-removable media implemented by any method or technology for storing information such as computer-readable instructions, data structures, program modules, or other data. For example, the computer recording medium may be a magnetic storage medium such as an HDD and an SSD, an optical recording medium such as a CD, a DVD, and a Blu-ray disc, or a memory included in a server accessible through a network.

또한, 본 명세서를 통해 설명된 일실시예에 따른 정점의 특성을 예측하는 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다. In addition, the method for predicting the characteristics of a vertex according to an embodiment described through this specification may be implemented as a computer program (or a computer program product) including instructions executable by a computer. The computer program includes programmable machine instructions processed by a processor, and may be implemented in a high-level programming language, an object-oriented programming language, an assembly language, a machine language, etc. In addition, the computer program may be recorded on a tangible computer-readable recording medium (e.g., a memory, a hard disk, a magnetic/optical medium, or a solid-state drive (SSD)).

따라서, 본 명세서를 통해 설명된 일실시예에 따른 정점의 특성을 예측하는 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 마더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다. Accordingly, the method for predicting the characteristics of a vertex according to an embodiment described through this specification can be implemented by executing the computer program as described above by a computing device. The computing device can include at least some of a processor, a memory, a storage device, a high-speed interface connecting the memory and a high-speed expansion port, and a low-speed interface connecting the low-speed bus and the storage device. Each of these components is connected to each other using various buses, and can be mounted on a common motherboard or mounted in another suitable manner.

여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다. Here, the processor may process instructions within the computing device, such as instructions stored in a memory or storage device for displaying graphical information for providing a GUI (Graphical User Interface) on an external input/output device, such as a display connected to a high-speed interface. In other embodiments, multiple processors and/or multiple buses may be utilized, as appropriate, together with multiple memories and memory types. Additionally, the processor may be implemented as a chipset comprising multiple independent analog and/or digital processors.

또한, 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다. Additionally, memory stores information within a computing device. For example, memory may be comprised of volatile memory units or a collection thereof. For another example, memory may be comprised of nonvolatile memory units or a collection thereof. Memory may also be another form of computer-readable media, such as, for example, a magnetic or optical disk.

그리고, 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.And, the storage device can provide a large storage space to the computing device. The storage device can be a computer-readable medium or a configuration including such a medium, and can include, for example, devices within a storage area network (SAN) or other configurations, and can be a floppy disk device, a hard disk device, an optical disk device, a tape device, flash memory, or other semiconductor memory devices or arrays of devices.

상술한 실시예들은 예시를 위한 것이며, 상술한 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술한 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above-described embodiments are for illustrative purposes, and those skilled in the art will understand that the above-described embodiments can be easily modified into other specific forms without changing the technical idea or essential features of the above-described embodiments. Therefore, it should be understood that the above-described embodiments are exemplary and not restrictive in all respects. For example, each component described as a single entity may be implemented in a distributed manner, and likewise, components described as distributed may be implemented in a combined manner.

본 명세서를 통해 보호받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of protection sought by this specification is indicated by the claims described below rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention.

100 : 정점의 특성을 예측하는 장치
110 : 입출력부
120 : 저장부
130 : 제어부
100: A device for predicting the characteristics of a vertex
110 : Input/output section
120 : Storage
130 : Control Unit

Claims (12)

데이터를 입력 받고, 이를 연산 처리한 결과를 출력하기 위한 입출력부;
정점의 특성을 예측하는 방법을 수행하기 위한 프로그램이 저장되는 저장부;
적어도 하나의 프로세서를 포함하며, 상기 프로그램을 실행시킴으로써 상기 입출력부를 통해 수신된 데이터에 포함된 정점의 특성을 예측하는 제어부; 및
하나의 인코더와 서로 다른 역할을 하는 특성 디코더 및 레이블 디코더를 포함하는 네트워크를 포함하고,
상기 제어부는,
상기 데이터에 포함된 각 정점에 대해 다변량 가우시안 분포를 갖는 미리 설정된 확률 모델을 사용해 잠재 변수를 생성하되, 상기 인코더를 이용하여 가우시안 마르코프 랜덤 필드(GMRF)를 사용해 상기 데이터에 포함된 각 정점에 대해 잠재 변수를 생성하고, 상기 잠재 변수의 분포가 사전 분포에 가까워지도록 상기 가우시안 마르코프 랜덤 필드(GMRF)를 사용해 상기 잠재 변수의 사전 분포를 모델링하여 상기 잠재 변수가 주어진 그래프 데이터의 구조에 따라 서로 상관 관계를 갖도록 정규화하고, 상기 생성된 잠재 변수를 모델링하는 것을 특징으로 하는 정점의 특성을 예측하는 것을 특징으로 하는 정점의 특성을 예측하는 장치.
An input/output unit for receiving data, processing it, and outputting the results;
A storage unit in which a program for performing a method of predicting the characteristics of a vertex is stored;
A control unit including at least one processor, and predicting the characteristics of vertices included in data received through the input/output unit by executing the program; and
A network comprising an encoder and a feature decoder and a label decoder with different roles,
The above control unit,
A device for predicting characteristics of a vertex, characterized in that it predicts characteristics of a vertex, wherein a latent variable is generated for each vertex included in the data using a preset probability model having a multivariate Gaussian distribution, wherein the encoder is used to generate a latent variable for each vertex included in the data using a Gaussian Markov Random Field (GMRF), and the prior distribution of the latent variable is modeled using the Gaussian Markov Random Field (GMRF) so that the distribution of the latent variable approaches the prior distribution, and the latent variables are normalized so that they have a correlation with each other according to the structure of the given graph data, and the generated latent variable is modeled.
삭제delete 삭제delete 제 1 항에 있어서,
상기 제어부는,
상기 생성된 잠재 변수를 모델링하되,
상기 특성 디코더 및 레이블 디코더를 이용하여 그래프 구조화된 데이터에 대한 변이 추론을 실행하여 상기 잠재 변수를 모델링함으로써 정점의 특성 벡터 및 레이블을 생성하는 것을 특징으로 하는 정점의 특성을 예측하는 장치.
In paragraph 1,
The above control unit,
Modeling the latent variables generated above,
A device for predicting the characteristics of a vertex, characterized in that it generates a characteristic vector and label of a vertex by modeling the latent variable by executing mutation inference on graph-structured data using the above-mentioned characteristic decoder and label decoder.
제 1 항에 있어서,
상기 잠재 변수는,
정점의 특성을 예측하기 위한 특징을 포함하는 것을 특징으로 하는 정점의 특성을 예측하는 장치.
In paragraph 1,
The above latent variables are,
A device for predicting characteristics of a vertex, characterized in that it includes features for predicting characteristics of a vertex.
하나의 인코더와 서로 다른 역할을 하는 특성 디코더 및 레이블 디코더를 포함하는 네트워크를 포함하는 정점의 특성을 예측하는 장치가 수행하는 정점의 특성을 예측하는 방법에 있어서,
데이터에 포함된 각 정점에 대해 미리 설정된 확률 모델을 사용해 잠재 변수를 생성하는 단계; 및
상기 생성된 잠재 변수를 모델링하는 단계;를 포함하고,
상기 잠재 변수를 생성하는 단계는,
상기 인코더를 이용하여 가우시안 마르코프 랜덤 필드(GMRF)를 사용해 상기 데이터에 포함된 각 정점에 대해 잠재 변수를 생성하는 단계; 및
상기 인코더를 이용하여 상기 잠재 변수의 분포가 사전 분포에 가까워지도록 상기 가우시안 마르코프 랜덤 필드(GMRF)를 사용해 상기 잠재 변수의 사전 분포를 모델링하여 상기 잠재 변수가 주어진 그래프 데이터의 구조에 따라 서로 상관 관계를 갖도록 정규화하는 단계를 포함하는 정점의 특성을 예측하는 방법.
A method for predicting a feature of a vertex, wherein the device for predicting a feature of a vertex comprises a network including an encoder and a feature decoder and a label decoder having different roles,
A step of generating a latent variable using a preset probability model for each vertex included in the data; and
A step of modeling the generated latent variable; comprising:
The steps for generating the above latent variables are:
A step of generating a latent variable for each vertex included in the data using a Gaussian Markov Random Field (GMRF) using the above encoder; and
A method for predicting the characteristics of a vertex, comprising the step of modeling the prior distribution of the latent variable using the Gaussian Markov Random Field (GMRF) so that the distribution of the latent variable approaches the prior distribution by using the encoder, and normalizing the latent variables so that they are correlated with each other according to the structure of the given graph data.
삭제delete 삭제delete 제 6 항에 있어서,
상기 생성된 잠재 변수를 모델링하는 단계는,
특성 디코더 및 레이블 디코더를 이용하여 그래프 구조화된 데이터에 대한 변이 추론을 실행하여 상기 잠재 변수를 모델링함으로써 정점의 특성 벡터 및 레이블을 생성하는 단계를 포함하는 것을 특징으로 하는 정점의 특성을 예측하는 방법.
In paragraph 6,
The step of modeling the generated latent variable is:
A method for predicting a feature of a vertex, comprising the step of generating a feature vector and a label of the vertex by modeling the latent variable by performing variational inference on graph-structured data using a feature decoder and a label decoder.
제 6 항에 있어서,
상기 잠재 변수는,
정점의 특성을 예측하기 위한 특징을 포함하는 것을 특징으로 하는 정점의 특성을 예측하는 방법.
In paragraph 6,
The above latent variables are,
A method for predicting characteristics of a vertex, characterized in that it includes features for predicting characteristics of a vertex.
제 6 항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for performing the method described in Article 6. 정점의 특성을 예측하는 장치에 의해 수행되며, 제 6 항에 기재된 방법을 수행하기 위해 기록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a recording medium for performing the method described in claim 6, performed by a device for predicting the characteristics of a vertex.
KR1020210172385A 2021-12-03 2021-12-03 Apparatus and method for predicting feature of node Active KR102817872B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210172385A KR102817872B1 (en) 2021-12-03 2021-12-03 Apparatus and method for predicting feature of node

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210172385A KR102817872B1 (en) 2021-12-03 2021-12-03 Apparatus and method for predicting feature of node

Publications (2)

Publication Number Publication Date
KR20230083925A KR20230083925A (en) 2023-06-12
KR102817872B1 true KR102817872B1 (en) 2025-06-05

Family

ID=86769997

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210172385A Active KR102817872B1 (en) 2021-12-03 2021-12-03 Apparatus and method for predicting feature of node

Country Status (1)

Country Link
KR (1) KR102817872B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102784508B1 (en) 2024-01-23 2025-03-19 서울대학교산학협력단 Link prediction method and apparatus using accurate edge prediction model based on positive-unlabeled data learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210081717A1 (en) * 2018-05-18 2021-03-18 Benevolentai Technology Limited Graph neutral networks with attention

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101954439B1 (en) 2016-07-13 2019-03-06 (주)이더블유비엠 Soc having double security features, and double security method for soc

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210081717A1 (en) * 2018-05-18 2021-03-18 Benevolentai Technology Limited Graph neutral networks with attention

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Michael Poli, "Continuous-Depth Neural Models for Dynamic Graph Prediction", arXiv preprint arXiv:2106.11581 (2021.06.22.)*
Oh-Hyun Kwon, "A Deep Generative Model for Graph Layout", IEEE Transactions on visualization and Computer Graphics 26.1 (2019.08.19.)*

Also Published As

Publication number Publication date
KR20230083925A (en) 2023-06-12

Similar Documents

Publication Publication Date Title
US20210303970A1 (en) Processing data using multiple neural networks
US10824674B2 (en) Label propagation in graphs
US11373117B1 (en) Artificial intelligence service for scalable classification using features of unlabeled data and class descriptors
Shastri et al. Stock Price Prediction using Artificial Neural Model: An Application of Big Data.
US9361586B2 (en) Method and system for invariant pattern recognition
EP3451190B1 (en) Model-based analysis in a relational database
US20220027757A1 (en) Tuning classification hyperparameters
Ouf et al. A proposed hybrid framework to improve the accuracy of customer churn prediction in telecom industry
CN113222177A (en) Model migration method and device and electronic equipment
Bishwas et al. An investigation on support vector clustering for big data in quantum paradigm: AK Bishwas et al.
Kumagai et al. Few-shot learning for feature selection with hilbert-schmidt independence criterion
KR102817872B1 (en) Apparatus and method for predicting feature of node
Srivastava et al. Generative and discriminative training of Boltzmann machine through quantum annealing
CN117077813A (en) A training method and training system for machine learning models
Shen et al. StructBoost: Boosting methods for predicting structured output variables
US20240330650A1 (en) Scalable evolving inception graph neural networks for dynamic graphs
US12423937B2 (en) Automated data pre-processing for machine learning
Yaseen et al. Parallel generalized Hebbian algorithm for large scale data analytics
Ghosh et al. A comparative study to the bank market prediction
JP7465497B2 (en) Learning device, learning method, and program
CN115409081A (en) Classification and prediction of online user behavior using HMM and LSTM
Haut et al. Cloud implementation of extreme learning machine for hyperspectral image classification
US20250348774A1 (en) Automated meta-learning in clustering using a machine learning clustering meta learning model
US20250005372A1 (en) Transfer learning for generating a target domain anomaly detection model using source domain data
Nimma et al. Leveraging ensemble learning with deep learning for accurate customer churn prediction in subscription-based mode

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18 Changes to party contact information recorded

Free format text: ST27 STATUS EVENT CODE: A-5-5-R10-R18-OTH-X000 (AS PROVIDED BY THE NATIONAL OFFICE)

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000