[go: up one dir, main page]

WO2022141869A1 - 模型训练方法、调用方法、装置、计算机设备和存储介质 - Google Patents

模型训练方法、调用方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
WO2022141869A1
WO2022141869A1 PCT/CN2021/084172 CN2021084172W WO2022141869A1 WO 2022141869 A1 WO2022141869 A1 WO 2022141869A1 CN 2021084172 W CN2021084172 W CN 2021084172W WO 2022141869 A1 WO2022141869 A1 WO 2022141869A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
graph
neural network
structure data
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/CN2021/084172
Other languages
English (en)
French (fr)
Inventor
王俊
李朋勇
高鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Publication of WO2022141869A1 publication Critical patent/WO2022141869A1/zh
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Definitions

  • the present application relates to the field of artificial intelligence, and in particular, to a model training method, calling method, apparatus, computer equipment and storage medium.
  • Graph-structured data is a kind of data that contains nodes and edges
  • graph neural network is a branch of deep learning on graph-structured data.
  • many learning tasks are dealing with graph-structured data, and it is necessary to learn and extract the feature information of graph-structured data through a graph neural network model.
  • the existing methods are generally used to learn and train graph neural network models through supervised machine learning methods, which require the use of a large number of manually labeled graph-structured data.
  • supervised machine learning methods which require the use of a large number of manually labeled graph-structured data.
  • it is difficult to obtain a large amount of graph-structured data with labels which makes it difficult for supervised machine learning methods to demonstrate strong learning capabilities, thus reducing the training efficiency of graph neural network models.
  • the present application provides a model training method, a calling method, an apparatus, a computer device and a storage medium to solve the problem of low training efficiency of a graph neural network model.
  • a model training method comprising:
  • the first data set includes first node information and a first attribute label corresponding to the target graph structure data
  • the second data set includes second node information and a second attribute label corresponding to the comparison map structure data
  • the graph neural network model to be trained is loaded, and the graph neural network model is iteratively trained according to the first data set and the second data set until the graph neural network model converges.
  • a model calling method the model is the above graph neural network model, and the method includes:
  • a target prediction model corresponding to the prediction task is determined, the graph feature vector is input into the target prediction model for prediction, and a prediction result corresponding to the prediction task is obtained.
  • a model training device includes:
  • a first data acquisition module configured to acquire a first data set, wherein the first data set includes first node information and a first attribute label corresponding to the target graph structure data;
  • comparison diagram structure data determination module used for determining the comparison diagram structure data corresponding to the target diagram structure data
  • a second data acquisition module configured to determine a second data set according to the comparison map structure data, wherein the second data set includes second node information and a second attribute label corresponding to the comparison map structure data;
  • the model training module is used for loading the graph neural network model to be trained, and performing iterative training on the graph neural network model according to the first data set and the second data set until the graph neural network model converges.
  • a computer device comprising a memory and a processor; the memory for storing a computer program; the processor for executing the computer program and implementing when executing the computer program:
  • the first data set includes first node information and a first attribute label corresponding to the target graph structure data
  • the second data set includes second node information and a second attribute label corresponding to the comparison map structure data
  • the graph neural network model to be trained is loaded, and the graph neural network model is iteratively trained according to the first data set and the second data set until the graph neural network model converges.
  • a computer device includes a memory and a processor; the memory is used to store a computer program; the model is the graph neural network model described in the above model training method, and the processor is used for The computer program is executed and when the computer program is executed:
  • a target prediction model corresponding to the prediction task is determined, the graph feature vector is input into the target prediction model for prediction, and a prediction result corresponding to the prediction task is obtained.
  • a computer-readable storage medium storing a computer program that, when executed by a processor, causes the processor to implement:
  • the first data set includes first node information and a first attribute label corresponding to the target graph structure data
  • the second data set includes second node information and a second attribute label corresponding to the comparison map structure data
  • the graph neural network model to be trained is loaded, and the graph neural network model is iteratively trained according to the first data set and the second data set until the graph neural network model converges.
  • a computer-readable storage medium stores a computer program
  • the model is the graph neural network model described in the above-mentioned model training method
  • the computer program is executed by a processor.
  • a target prediction model corresponding to the prediction task is determined, the graph feature vector is input into the target prediction model for prediction, and a prediction result corresponding to the prediction task is obtained.
  • the first node information corresponding to the target graph structure data and the automatically added first attribute label can be obtained; by determining the comparison diagram structure data corresponding to the target diagram structure data, and determining according to the comparison diagram structure data
  • the second node information corresponding to the comparison graph structure data and the automatically added second attribute label can be obtained, which solves the problem that the graph structure data relies on manually adding labels;
  • the iterative training of the graph neural network model does not need to manually add labels to the first data set and the second data set, which improves the training efficiency of the graph neural network model and the fitting ability of the graph neural network model to mine the feature information of the graph structure data. , so that the trained graph neural network model has high generalization.
  • FIG. 1 is a schematic flowchart of a model training method provided by an embodiment of the present application.
  • FIG. 2 is a schematic diagram of a graph structure data provided by an embodiment of the present application.
  • FIG. 3 is a schematic diagram of generating comparison graph structure data according to target graph structure data according to an embodiment of the present application
  • FIG. 4 is a schematic flowchart of a sub-step of determining a second data set according to the structure data of the comparison chart provided by an embodiment of the present application;
  • FIG. 5 is a schematic flowchart of a sub-step of determining training sample data for each round of training provided by an embodiment of the present application
  • FIG. 6 is a schematic flowchart of a sub-step of iteratively training a graph neural network model provided by an embodiment of the present application
  • FIG. 7 is a schematic flowchart of a sub-step of determining a loss function value provided by an embodiment of the present application.
  • FIG. 8 is a schematic flowchart of a model invocation method provided by an embodiment of the present application.
  • FIG. 9 is a schematic diagram of a call graph neural network model for classification prediction provided by an embodiment of the present application.
  • FIG. 10 is a schematic block diagram of a model training apparatus provided by an embodiment of the present application.
  • FIG. 11 is a schematic structural block diagram of a computer device provided by an embodiment of the present application.
  • Embodiments of the present application provide a model training method, a calling method, an apparatus, a computer device, and a storage medium.
  • the model training method can be applied to the server or the terminal to realize the automatic pre-training of the input graph neural network model after adding labels to the target graph structure data and the comparison graph structure data, which improves the training efficiency of the graph neural network model and makes the graph neural network model more efficient.
  • the trained graph neural network model has high generalization.
  • the server may be an independent server or a server cluster.
  • Terminals can be electronic devices such as smart phones, tablet computers, notebook computers, and desktop computers.
  • the model training method includes steps S10 to S40.
  • Step S10 acquiring a first data set, wherein the first data set includes first node information and a first attribute label corresponding to the target graph structure data.
  • the graph neural network model learns how to distinguish the types of graph-structured data and mine the feature information of graph-structured data without manually adding labels to the graph-structured data. Therefore, not only the training efficiency of the graph neural network model can be improved, but also the trained graph neural network model can have high generalization.
  • the target graph structure data may include, but are not limited to, social network graphs, molecular structure graphs, transportation network graphs, and electronic shopping graphs, among others.
  • the target graph structure data may include at least one graph structure data, and each graph structure data includes a plurality of nodes and edges between the nodes; wherein, the nodes are also called vertices.
  • the graph structure data is composed of a finite non-empty set of vertices and a set of edges between vertices, usually expressed as: G(V, E), where G represents a graph structure data, and V is a graph structure The set of vertices in the data G, E is the set of edges in the graph structure data G.
  • graph structure data there may be a relationship between any two vertices, the logical relationship between vertices is represented by edges, and the edge set can be empty; therefore, vertex table can be used to represent the vertex information of graph structure data and use The adjacency matrix is used to represent the connection relationship between each node of the graph structure data.
  • the vertex table can be used to represent the information of the vertices of the graph structure data A, as shown in Table 1.
  • the adjacency matrix of graph-structured data is a two-dimensional array A.arcs[i][j], defined as:
  • i represents the i-th row of the array
  • j represents the j-th column of the array.
  • a first data set generated by default and stored in a database may be acquired, where the first data set may include first node information corresponding to the target graph structure data.
  • the first node information includes an adjacency matrix of the target graph structure data and feature vectors of each node.
  • FIG. 2 is a schematic diagram of a graph structure data provided by an embodiment of the present application.
  • the graph structure data can be a molecular structure graph, and the molecular structure graph includes node V1, node V2, node V3, node V4, and node V5;
  • the matrix A.arcs[i][j] is represented as follows:
  • the target graph structure data may be vectorized in advance to obtain a node feature vector corresponding to the target graph structure data.
  • each node in the target graph structure data may be encoded according to one-hot encoding (one-hot encoding), so as to obtain a node feature vector corresponding to the target graph structure data.
  • node feature vector refers to the feature vector corresponding to each node in the target graph structure data, not the feature vector corresponding to the entire target graph structure data.
  • the first data set may further include a first attribute label corresponding to the target graph structure data.
  • the first attribute label is generated according to the attribute type of the target graph structure data.
  • the attribute type may include two types: original data and constructed data.
  • the original data refers to the original, unmodified data of the graph structure data.
  • Structural data refers to the graph-structured data obtained by modifying the original graph-structured data.
  • the target graph structure data is the original graph structure data
  • the first attribute label corresponding to the target graph structure data can be generated; for the comparison graph structure data obtained by modifying the target graph structure data, a comparison can be generated.
  • the second attribute tag corresponding to the graph structure data is the first attribute label corresponding to the target graph structure data.
  • the first attribute tag may be represented by field 1
  • the second attribute tag may be represented by field 0.
  • the first data set is determined according to the first node information and the first attribute label.
  • a first attribute label may be marked on the first node information, and the first node information carrying the first attribute label may be used as the first data set.
  • the first node information is labeled with field 1, and the first data set carrying the label of field 1 is obtained.
  • the node feature vector corresponding to the target graph structure data can be obtained, and by generating the first attribute label according to the attribute type of the target graph structure data, the first data set carrying the first attribute label can be obtained.
  • Step S20 Determine the comparison graph structure data corresponding to the target graph structure data.
  • determining the comparison graph structure data corresponding to the target graph structure data may include: deleting a plurality of nodes in the target graph structure data based on a preset deletion ratio value to obtain a comparison corresponding to the target graph structure data Graph structured data.
  • deletion ratio value may be set according to the actual situation, and the specific value is not limited herein.
  • the deletion ratio value can be 20%.
  • delete the nodes on the left or right 20% of the target graph structure data can be 20%.
  • FIG. 3 is a schematic diagram of generating comparison map structure data according to target map structure data according to an embodiment of the present application.
  • the comparison graph structure data can be obtained, and then positive and negative can be constructed according to the first data set corresponding to the target graph structure data and the second data set corresponding to the comparison graph structure data. samples to train the graph neural network model.
  • the attribute type of the comparison diagram structure data is construction data.
  • the method may further include: generating a second attribute label according to the attribute type of the comparison diagram structure data.
  • the field corresponding to the second attribute tag is 0.
  • the second attribute label can be marked on the second data set of the comparison chart structure data subsequently, so as to carry out the comparison with the first data set of the target chart structure data. distinguish.
  • Step S30 Determine a second data set according to the comparison map structure data, wherein the second data set includes second node information and a second attribute label corresponding to the comparison map structure data.
  • FIG. 4 is a schematic flowchart of a sub-step of determining the second data set according to the structure data of the comparison diagram provided by an embodiment of the present application.
  • the specific step S30 may include the following steps S301 to S303.
  • Step S301 performing vectorization on the comparison graph structure data to obtain a node feature vector corresponding to the comparison graph structure data.
  • each node in the comparison graph structure data may be encoded according to one-hot encoding to obtain a feature vector corresponding to the comparison graph structure data.
  • Step S302 Determine the adjacency matrix of the node feature vector and the comparison graph structure data as the second node information, wherein the adjacency matrix is used to represent the relationship between each node in the comparison graph structure data. connection relationship.
  • an adjacency matrix corresponding to the structure data of the control map can be generated according to the connection relationship between the nodes in the structure data of the control map; Two node information.
  • Step S303 Acquire the second attribute label generated according to the attribute type of the comparison map structure data.
  • the second attribute tag is generated according to the attribute type of the comparison diagram structure data after the comparison diagram structure data corresponding to the target diagram structure data is determined, the second attribute tag corresponding to the comparison diagram structure data can be obtained.
  • Step S304 Determine the second data set according to the second node information and the second attribute label.
  • the second data set may be determined according to the second node information and the second attribute label.
  • the second node information may be marked with a second attribute label, and the second node information carrying the second attribute label may be used as the second data set.
  • the second node information is labeled with field 0, and a second data set carrying the label of field 0 is obtained.
  • the node feature vector corresponding to the comparison graph structure data can be obtained, and by acquiring the second attribute label generated according to the attribute type of the comparison graph structure data, the second data carrying the second attribute label can be obtained. set.
  • Step S40 Load the graph neural network model to be trained, and perform iterative training on the graph neural network model according to the first data set and the second data set until the graph neural network model converges.
  • the graph neural network model is a model that combines graph structure data and neural network; the input of the graph neural network model is usually a graph structure data with nodes or edges. By extraction, the graph feature vector of the entire graph structure data can be obtained.
  • the graph feature vector is used to represent the information between adjacent nodes in the graph structure data and the information of the whole graph structure data.
  • graph neural networks may include, but are not limited to, graph convolutional networks (Graph Convolution Networks, GCN), graph attention networks (Graph Attention Networks), graph autoencoders (Graph Autoencoders), graph generation networks (Graph Generative Networks) ) and Graph Spatial-temporal Networks, etc.
  • FIG. 5 is a schematic flowchart of a sub-step of determining training sample data for each round of training provided by an embodiment of the present application.
  • the specific step S40 may include the following steps S401 to S403.
  • Step S401 Determine one anchor point data according to the first data set or the second data set.
  • one of the N first data sets may be sequentially determined as the anchor point data, or one of the N second data sets may be sequentially determined as the anchor point data. Therefore, the anchor point data is the first node information carrying the first attribute label or the second node information carrying the second attribute label.
  • anchor point data can be understood as the real value in the model training process, which is used to subsequently calculate the loss function value corresponding to the graph feature vector obtained by training the positive sample data and the negative sample data.
  • the loss function value can be determined during the training process of the graph neural network model to adjust the parameters of the graph neural network model.
  • Step S402 select a positive sample data from the first data set/the second data set where the anchor data is located, and select a positive sample data from the second data set/the first data set where the anchor data is not located
  • the dataset selects at least one negative sample data.
  • the anchor point data is the first node information carrying the first attribute label in the first data set
  • the anchor point data is the second node information carrying the second attribute label in the second data set
  • the graph neural network model can be used to distinguish positive samples from negative samples, so as to improve the learning of graph neural network model without manual labeling of graph structure data. And the fitting ability to mine the feature information of different graph-structured data.
  • Step S403 Determine training sample data for each round of training according to the positive sample data and the at least one negative sample data.
  • the positive sample data and at least one negative sample data may be determined as the training sample data for each round of training.
  • the training sample data includes information of a first node carrying a first attribute label and at least one information of a second node carrying a second attribute label, or includes information of a second node carrying a second attribute label and at least one information of a second node carrying a first attribute label The first node information of the attribute tag.
  • the loss function value calculated according to the cross entropy loss function can be made as small as possible, so that the graph neural network model can quickly converge.
  • FIG. 6 is a schematic flowchart of sub-steps of iteratively training the graph neural network model according to the first data set and the second data set in step S40.
  • the specific step S40 may include the following steps S404 to S406.
  • Step S404 Input the current round of training sample data into the graph neural network to update node information, and obtain a plurality of graph feature vectors corresponding to the current round of training sample data.
  • the node information update refers to performing information aggregation and information update on each node in the node information corresponding to the graph structure data to obtain a graph feature vector corresponding to the graph structure data.
  • the node information may include an adjacency matrix of graph structure data and feature vectors of each node.
  • node information update may be performed on each node information in the training sample data.
  • inputting the current round of training sample data into the graph neural network to update the node information may include: acquiring, based on a preset message function, a feature vector of adjacent nodes corresponding to each node in each node information; Based on the preset update function, the feature vector corresponding to each node is updated according to the feature vector of adjacent nodes, and the graph feature vector corresponding to each node information is obtained.
  • the graph feature vector corresponding to the node information can be used as the graph feature vector corresponding to the graph structure data.
  • the graph neural network can be trained based on the forward propagation mechanism.
  • forward propagation includes message passing (message passing) stage and readout (reading) stage.
  • message passing messages passing
  • reading readout
  • the calculation formulas of the message passing (message passing) stage and the readout (reading) stage are as follows:
  • M t represents the message function.
  • U t represents the update function; Represents the information received by node v at time step t; N(v) is all adjacent nodes of node v; is the eigenvector of node v at time step t; e vw is the eigenvector of the edge between node v and node w.
  • the update function U t is used to convert the original node state and information As input, get the new node state
  • the read function R is as follows:
  • T is the final output graph feature vector
  • the current round of training sample data is input into the graph neural network to update node information, and multiple graph feature vectors corresponding to the current round of training sample data can be obtained.
  • the plurality of graph feature vectors include a first graph feature vector corresponding to the positive sample data and a second graph feature vector corresponding to the plurality of negative sample data.
  • node information can be updated with the current round of training sample data, and multiple graph feature vectors corresponding to the current round of training sample data can be obtained.
  • Step S405 Determine a loss function value according to a plurality of graph feature vectors corresponding to the current round of training sample data and feature vectors corresponding to the anchor point data.
  • FIG. 7 is a schematic flowchart of a sub-step of determining a loss function value provided by an embodiment of the present application.
  • the specific step S405 may include the following steps S4051 to S4054.
  • Step S4051 based on a preset metric function, determine the first similarity between the first image feature vector corresponding to the positive sample data and the feature vector of the anchor point data, and determine that each of the negative sample data corresponds to The second similarity between the graph feature vector of and the feature vector corresponding to the anchor point data.
  • the purpose is to make the similarity between the positive sample data and the anchor point data as large as possible, and make the similarity between the negative sample data and the anchor point data as small as possible.
  • the preset metric function may include a score function; the score function is used to evaluate the similarity between two features.
  • the score function is defined as follows:
  • f(x) represents the feature vector of the anchor point data
  • x + is a data point similar or the same as x, used to represent positive sample data
  • x - is a data point not similar to x, used to represent negative sample data
  • f(x + ) represents the first image feature vector corresponding to the positive sample data
  • f(x ⁇ ) represents the second image feature vector corresponding to the negative sample data.
  • the feature vector of the anchor point data may be an average value of all node feature vectors in the graph structure data corresponding to the first data set/second data set.
  • the similarity between the feature vector of the first image corresponding to the positive sample data and the feature vector of the anchor point data can be calculated by the score function to obtain the first similarity; and the corresponding value of each negative sample data can be determined by the score function.
  • the second similarity between the graph feature vector of and the feature vector corresponding to the anchor point data can be expressed as ⁇ 1 ; the second similarity can be expressed as ⁇ 2 .
  • the similarity between the positive sample data and the anchor data can be determined, and the similarity between each negative sample data and the anchor data can be determined, so that the prediction corresponding to the positive sample data and the negative sample data can be further determined. probability.
  • Step S4052 Determine the first prediction probability of the positive sample data according to the first similarity and the attribute label corresponding to the anchor point data, wherein the attribute label is the first attribute label or the first attribute label. Two attribute labels.
  • the first predicted probability is the probability that the attribute labels corresponding to the positive sample data and the anchor point data are the same attribute label.
  • the attribute label corresponding to the anchor data is the first attribute label
  • the anchor data is the second node information in the second data set
  • the anchor data is the second attribute label
  • the attribute label corresponding to the anchor point data is the first attribute label
  • the first predicted probability corresponding to the positive sample data is the first similarity ⁇ 1 .
  • the first prediction probability corresponding to the positive sample data is (1- ⁇ 1 ).
  • Step S4053 Determine the second prediction probability of each of the negative sample data according to the second similarity corresponding to each of the negative sample data and the attribute label corresponding to the anchor point data.
  • the second prediction probability is the probability that the attribute labels corresponding to the negative sample data and the anchor point data are the same attribute label.
  • the second predicted probability corresponding to the negative sample data is the second similarity ⁇ 2 .
  • the second prediction probability corresponding to the negative sample data is (1- ⁇ 2 ).
  • Step S4054 Based on a preset loss function, determine the loss function value according to the first predicted probability and a plurality of the second predicted probabilities.
  • the preset loss function may include a cross-entropy loss function.
  • the cross entropy loss function can be defined as:
  • f(x) T f(x + ) represents the first prediction probability of positive sample data
  • j represents the jth negative sample data
  • f(x) T f(x j ) represents the second prediction of negative sample data probability
  • Step S406 if the loss function value is greater than the preset loss value threshold, adjust the parameters of the graph neural network model, and perform the next round of training, until the obtained loss function value is less than or equal to the loss value threshold, After the training is completed, the trained graph neural network model is obtained, wherein the trained graph neural network model is stored in the blockchain.
  • the preset loss value threshold may be set according to the actual situation, and the specific value is not limited herein.
  • a backpropagation algorithm may be used to calculate the gradient of the graph neural network model, and a gradient descent algorithm may be used to update the parameters of the graph neural network model.
  • the gradient descent algorithm may include, but is not limited to, Batch Gradient Descent, Stochastic Gradient Descent, Mini-batch Gradient Descent, and the like.
  • the next round of training is performed and the loss function value of each round is calculated.
  • the training ends, and the trained graph neural network model is obtained.
  • the above trained graph neural network model can also be stored in a node of a blockchain.
  • the graph neural network model can be rapidly converged, thereby improving the training efficiency of the graph neural network model.
  • the node feature vector corresponding to the target graph structure data can be obtained, and by generating the first attribute label according to the attribute type of the target graph structure data, the first attribute label can be obtained.
  • the corresponding second data set constructs positive and negative samples, and trains the graph neural network model; by vectorizing the comparison diagram structure data, the node feature vector corresponding to the comparison diagram structure data can be obtained, and by obtaining the attributes according to the comparison diagram structure data
  • the second attribute label generated by the type can obtain the second data set carrying the second attribute label; by determining the anchor point data, the loss function value can be determined during the training process of the graph neural network model to adjust the parameters of the graph neural network model ;
  • the graph neural network model can be used to distinguish positive samples and negative samples, so as to improve the graph neural network model when the graph structure data does not have manual labels.
  • the loss function value calculated according to the cross entropy loss function can be made It is as small as possible to make the graph neural network model converge quickly; based on the message function and the update function, the node information can be updated with the current round of training sample data, and multiple graph feature vectors corresponding to the current round of training sample data can be obtained; through the metric function , the similarity between the positive sample data and the anchor point data can be determined, and the similarity between each negative sample data and the anchor point data can be determined, so that the prediction probability corresponding to the positive sample data and the negative sample data can be further determined; Updating the parameters of the graph neural network model according to the preset loss function and gradient descent algorithm can make the graph neural network model converge quickly, thereby improving the training efficiency of the graph neural network model.
  • FIG. 8 is a schematic flowchart of a model invocation method provided by an embodiment of the present application.
  • the graph feature vector output by the pre-trained graph neural network can be input into the target prediction model for prediction in the server or the terminal, thereby improving the prediction efficiency of the prediction model.
  • the model calling method includes steps S501 to S503.
  • Step S501 acquiring the to-be-predicted graph structure data corresponding to the prediction task.
  • the pre-trained graph neural network model has the fitting ability to learn and mine the feature information of different graph structure data, and can be applied to different downstream tasks, and does not need to be used for each A downstream task trains a completely new predictive model from scratch, thereby improving the predictive efficiency of the predictive model.
  • the prediction task may be classification prediction, regression prediction and other tasks.
  • the graph structure data to be predicted may include, but not limited to, a social network graph, a molecular structure graph, a traffic network graph, an electronic shopping graph, and the like.
  • Step S502 Call the graph neural network model from the blockchain, input the graph structure data to be predicted into the graph neural network model to update node information, and obtain a graph feature vector corresponding to the graph structure data to be predicted.
  • the graph neural network model is a pre-trained model and is stored in the blockchain.
  • the pre-trained graph neural network model can be called from the blockchain, and based on the preset message function and update function, the graph structure data to be predicted is input into the pre-trained graph neural network model to update node information, The graph feature vector corresponding to the graph structure data to be predicted is obtained.
  • the graph feature vector can be used in prediction tasks such as binary classification, multi-classification, multi-label classification, and regression.
  • the graph feature vector including the adjacent nodes and the entire graph structure data can be easily obtained, and the graph feature vector can be applied to the target models of different downstream tasks. .
  • Step S503 Determine a target prediction model corresponding to the prediction task, input the graph feature vector into the target prediction model for prediction, and obtain a prediction result corresponding to the prediction task.
  • the target prediction model may include, but is not limited to, a multi-layer perceptron (Multi-Layer Perceptron, MLP), a random forest, a support vector machine (Support Vector Machine, SVM) and other classification models or regression models.
  • MLP Multi-Layer Perceptron
  • SVM Support Vector Machine
  • the target prediction model may be a multilayer perceptron.
  • the graph feature vector corresponding to the graph structure data to be predicted is input into the multilayer perceptron for classification and prediction, and the prediction result is obtained.
  • the predicted result can be 0 or 1.
  • FIG. 9 is a schematic diagram of classification prediction by a call graph neural network model provided by an embodiment of the present application.
  • the graph structure data to be predicted can be the graph structure data of chemical molecules, including real molecules and false molecules; input the graph structure data to be predicted into the graph neural network model to update the node information, and input the output graph feature vector into The classification prediction is performed in the target prediction model, and the prediction result is obtained.
  • the prediction results include real molecules and false molecules.
  • a graph feature vector including adjacent nodes and the entire graph structure data can be easily obtained, and the graph feature vector can be subsequently It is applied to the target models of different downstream tasks; by inputting the graph feature vector into the target prediction model for prediction, it can avoid training a new prediction model from scratch for each downstream task, improve the prediction efficiency, and realize the large scale of graph structure data. Scale and replicable industrial deployment.
  • FIG. 10 is a schematic block diagram of a model training apparatus 1000 further provided by an embodiment of the present application, and the model training apparatus is configured to execute the aforementioned model training method.
  • the model training device may be configured in a server or a terminal.
  • the model training apparatus 1000 includes: a first data acquisition module 1001 , a comparison graph structure data determination module 1002 , a second data acquisition module 1003 and a model training module 1004 .
  • the first data acquisition module 1001 is configured to acquire a first data set, wherein the first data set includes first node information and a first attribute label corresponding to the target graph structure data.
  • the comparison diagram structure data determination module 1002 is configured to determine the comparison diagram structure data corresponding to the target diagram structure data.
  • the second data acquisition module 1003 is configured to determine a second data set according to the comparison map structure data, wherein the second data set includes second node information and a second attribute label corresponding to the comparison map structure data.
  • the model training module 1004 is configured to load the graph neural network model to be trained, and iteratively train the graph neural network model according to the first data set and the second data set until the graph neural network model converges.
  • the above-mentioned apparatus can be implemented in the form of a computer program that can be executed on a computer device as shown in FIG. 11 .
  • FIG. 11 is a schematic structural block diagram of a computer device provided by an embodiment of the present application.
  • the computer device can be a server or a terminal.
  • the computer device includes a processor and a memory connected through a system bus, wherein the memory may include a non-volatile storage medium and an internal memory.
  • the processor is used to provide computing and control capabilities to support the operation of the entire computer equipment.
  • the internal memory provides an environment for running the computer program in the non-volatile storage medium.
  • the processor can execute any model training method.
  • the processor may be a central processing unit (Central Processing Unit, CPU), and the processor may also be other general-purpose processors, digital signal processors (Digital Signal Processors, DSP), application specific integrated circuits (Application Specific Integrated circuits) Circuit, ASIC), Field-Programmable Gate Array (FPGA) or other programmable logic devices, discrete gate or transistor logic devices, discrete hardware components, etc.
  • the general-purpose processor can be a microprocessor or the processor can also be any conventional processor or the like.
  • the processor is configured to run a computer program stored in the memory to implement the following steps:
  • first data set Acquiring a first data set, wherein the first data set includes first node information and a first attribute label corresponding to the target graph structure data; determining the comparison graph structure data corresponding to the target graph structure data; according to the comparison graph
  • the structural data determines a second data set, wherein the second data set includes the second node information and the second attribute label corresponding to the comparison graph structural data; loads the graph neural network model to be trained, according to the first data Iteratively trains the graph neural network model with the second data set until the graph neural network model converges.
  • the target graph structure data includes a plurality of nodes; when the processor determines the comparison graph structure data corresponding to the target graph structure data, the processor is configured to:
  • a plurality of nodes in the target graph structure data are deleted to obtain the comparison graph structure data corresponding to the target graph structure data.
  • the processor determines a second data set according to the comparison map structure data, for implementing:
  • the comparison graph structure data to obtain the node feature vector corresponding to the comparison graph structure data; determining the adjacency matrix of the node feature vector and the comparison graph structure data as the second node information, wherein, the adjacency matrix is used to represent the connection relationship between the nodes in the comparison graph structure data; obtain the second attribute label generated according to the attribute type of the comparison graph structure data; according to the second attribute label The node information and the second attribute label determine the second data set.
  • the processor before implementing the iterative training of the graph neural network model according to the first data set and the second data set, the processor is further configured to:
  • the processor is configured to perform iterative training on the graph neural network model according to the first data set and the second data set until the graph neural network model converges.
  • the graph feature vector includes a first graph feature vector corresponding to the positive sample data and a plurality of second graph feature vectors corresponding to the negative sample data;
  • the multiple graph feature vectors corresponding to the round training sample data and the feature vectors corresponding to the anchor point data, when determining the loss function value, are used to realize:
  • the first similarity between the first graph feature vector corresponding to the positive sample data and the feature vector of the anchor point data determines the graph feature corresponding to each of the negative sample data the second similarity between the vector and the feature vector corresponding to the anchor point data; according to the first similarity degree and the attribute label corresponding to the anchor point data, determine the first prediction probability of the positive sample data, wherein , the attribute label is the first attribute label or the second attribute label; according to the second similarity corresponding to each negative sample data and the attribute label corresponding to the anchor data, determine a second predicted probability of each of the negative sample data; and based on a preset loss function, the loss function value is determined according to the first predicted probability and a plurality of the second predicted probabilities.
  • the processor is further configured to implement:
  • Obtain the to-be-predicted graph structure data corresponding to the prediction task call the graph neural network model from the blockchain, input the to-be-predicted graph structure data into the graph neural network model to update node information, and obtain the to-be-predicted graph structure data
  • the corresponding graph feature vector determine the target prediction model corresponding to the prediction task, input the graph feature vector into the target prediction model for prediction, and obtain the prediction result corresponding to the prediction task.
  • the embodiments of the present application further provide a computer-readable storage medium, where the computer-readable storage medium stores a computer program, the computer program includes program instructions, and the processor executes the program instructions to implement the present application Any one of the model training methods or model invocation methods provided in the embodiments.
  • the computer-readable storage medium may be non-volatile or volatile, and may specifically be an internal storage unit of the computer device described in the foregoing embodiments, such as a hard disk or a memory of the computer device.
  • the computer-readable storage medium may also be an external storage device of the computer device, such as a plug-in hard disk equipped on the computer device, a smart memory card (Smart Media Card, SMC), a Secure Digital Card (Secure Digital Card) , SD Card), flash memory card (Flash Card), etc.
  • the computer-readable storage medium may mainly include a storage program area and a storage data area, wherein the storage program area may store an operating system, an application program required by at least one function, and the like; The data created by the use of the node, etc.
  • the blockchain referred to in this application is a new application mode of computer technologies such as distributed data storage, point-to-point transmission, consensus mechanism, and encryption algorithm.
  • Blockchain essentially a decentralized database, is a series of data blocks associated with cryptographic methods. Each data block contains a batch of network transaction information to verify its Validity of information (anti-counterfeiting) and generation of the next block.
  • the blockchain can include the underlying platform of the blockchain, the platform product service layer, and the application service layer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种模型训练方法、调用方法、装置、计算机设备和存储介质,涉及人工智能领域,通过自动对目标图结构数据和对照图结构数据添加标签后输入图神经网络模型进行预训练,提高了模型的训练效率,并使得训练后的模型具有较高的泛化性。此外,还涉及区块链技术,图神经网络模型可存储于区块链中。该方法包括:获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签(S10);确定所述目标图结构数据对应的对照图结构数据(S20);根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签(S30);加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛(S40)。

Description

模型训练方法、调用方法、装置、计算机设备和存储介质
本申请要求于2020年12月31日提交的、申请号为202011642092.5、发明名称为“模型训练方法、调用方法、装置、计算机设备和存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及人工智能领域,尤其涉及一种模型训练方法、调用方法、装置、计算机设备和存储介质。
背景技术
图结构数据是一种包含节点和边的数据,图神经网络是深度学习在图结构数据上的一个分支。现在许多学习任务在处理图结构数据,需要通过图神经网络模型学习和提取图结构数据的特征信息。
现有的一般是通过有监督的机器学习方法对图神经网络模型进行学习和训练,需要使用大量人工添加标签的图结构数据。但是在大多数情况下,很难获得大量携带标签的图结构数据,导致有监督的机器学习方法很难体现出强大的学习能力,从而降低了图神经网络模型的训练效率。
技术问题
有鉴于此,本申请提供了一种模型训练方法、调用方法、装置、计算机设备和存储介质,用以解决图神经网络模型的训练效率较低的问题。
技术解决方案
具体技术方案如下:
一种模型训练方法,所述方法包括:
获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;
确定所述目标图结构数据对应的对照图结构数据;
根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;
加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
一种模型调用方法,所述模型为上述图神经网络模型,所述方法包括:
获取预测任务对应的待预测图结构数据;
从区块链中调用图神经网络模型,将所述待预测图结构数据输入所述图神经网络模型进行节点信息更新,得到所述待预测图结构数据对应的图特征向量;
确定所述预测任务对应的目标预测模型,将所述图特征向量输入所述目标预测模型中进行预测,得到所述预测任务对应的预测结果。
一种模型训练装置,所述装置包括:
第一数据获取模块,用于获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;
对照图结构数据确定模块,用于确定所述目标图结构数据对应的对照图结构数据;
第二数据获取模块,用于根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;
模型训练模块,用于加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
一种计算机设备,所述计算机设备包括存储器和处理器;所述存储器,用于存储计算机程序;所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现:
获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;
确定所述目标图结构数据对应的对照图结构数据;
根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;
加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
一种计算机设备,所述计算机设备包括存储器和处理器;所述存储器,用于存储计算机程序;所述模型为上述的模型训练方法中所述的图神经网络模型,所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现:
获取预测任务对应的待预测图结构数据;
从区块链中调用图神经网络模型,将所述待预测图结构数据输入所述图神经网络模型进行节点信息更新,得到所述待预测图结构数据对应的图特征向量;
确定所述预测任务对应的目标预测模型,将所述图特征向量输入所述目标预测模型中进行预测,得到所述预测任务对应的预测结果。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现:
获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;
确定所述目标图结构数据对应的对照图结构数据;
根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;
加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述模型为上述的模型训练方法中所述的图神经网络模型,所述计算机程序被处理器执行时使所述处理器实现:
获取预测任务对应的待预测图结构数据;
从区块链中调用图神经网络模型,将所述待预测图结构数据输入所述图神经网络模型进行节点信息更新,得到所述待预测图结构数据对应的图特征向量;
确定所述预测任务对应的目标预测模型,将所述图特征向量输入所述目标预测模型中进行预测,得到所述预测任务对应的预测结果。
有益效果
本申请通过获取第一数据集,可以得到目标图结构数据对应的第一节点信息和自动添加的第一属性标签;通过确定目标图结构数据对应的对照图结构数据,并根据对照图结构数据确定第二数据集,可以得到对照图结构数据对应的第二节点信息和自动添加的第二属性标签,解决了图结构数据依赖人工添加标签的问题;通过根据第一数据集与第二数据集对图神经网络模型进行迭代训练,无须人工对第一数据集和第二数据集添加标签,提高了图神经网络模型的训练效率,以及提高图神经网络模型挖掘图结构数据的特征信息的拟合能力,从而使得训练后的图神经网络模型具有较高的泛化性。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种模型训练方法的示意性流程图;
图2是本申请实施例提供的一种图结构数据的示意图;
图3是本申请实施例提供的一种根据目标图结构数据生成对照图结构数据的示意图;
图4是本申请实施例提供的一种根据对照图结构数据确定第二数据集的子步骤的示意性流程图;
图5是本申请实施例提供的一种确定每一轮训练的训练样本数据的子步骤的示意性流程图;
图6是本申请实施例提供的一种对图神经网络模型进行迭代训练的子步骤的示意性流程图;
图7是本申请实施例提供的一种确定损失函数值的子步骤的示意性流程图;
图8是本申请实施例提供的一种模型调用方法的示意性流程图;
图9是本申请实施例提供的一种调用图神经网络模型进行分类预测的示意图;
图10是本申请实施例提供的一种模型训练装置的示意性框图;
图11是本申请实施例提供的一种计算机设备的结构示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
本申请的实施例提供了一种模型训练方法、调用方法、装置、计算机设备和存储介质。其中,该模型训练方法可以应用于服务器或终端中,实现自动对目标图结构数据和对照图结构数据添加标签后输入图神经网络模型进行预训练,提高了图神经网络模型的训练效率,并使得训练后的图神经网络模型具有较高的泛化性。
其中,服务器可以为独立的服务器,也可以为服务器集群。终端可以是智能手机、平板电脑、笔记本电脑和台式电脑等电子设备。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
如图1所示,模型训练方法包括步骤S10至步骤S40。
步骤S10、获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签。
需要说明的是,在本申请实施例中,通过获取自动添加不同属性标签的第一数据集和第二数据集,根据第一数据集和第二数据集对图神经网络模型进行训练,可以使得图神经网络模型在图结构数据没有人工添加标签的情况下,学习如何区分图结构数据的类型以及挖掘图结构数据的特征信息。因此,不仅可以提高图神经网络模型的训练效率,还可以训练后的图神经网络模型具有较高的泛化性。
示例性的,目标图结构数据可以包括但不限于社交网络图、分子结构图、交通网络图以及电子购物图等等。
其中,目标图结构数据可以包括至少一个图结构数据,每个图结构数据包括多个节点和各节点之间的边;其中,节点还称为顶点(Vertex)。需要说明的是,图结构数据是由顶点的有穷非空集合和顶点之间边的集合组成,通常表示为:G(V,E),其中,G表示一个 图结构数据,V是图结构数据G中顶点的集合,E是图结构数据G中边的集合。在图结构数据中,任意两个顶点之间都可能有关系,顶点之间的逻辑关系用边来表示,边集可以是空的;因此可以用顶点表来表示图结构数据的顶点信息以及用邻接矩阵来表示图结构数据的各节点之间的连接关系。
示例性的,设图结构数据A=(V,E)有n个顶点,则可以用顶点表来表示图结构数据A的顶点的信息,如表1所示。
表1
i 0 1 2 n-1
Vexs[i] V 1 V 2 V 3 v n
示例性的,图结构数据的邻接矩阵是一个二维数组A.arcs[i][j],定义为:
Figure PCTCN2021084172-appb-000001
式中,i表示数组的第i行,j表示数组第j列。
在一些实施例中,可以获取预设生成并存储至数据库的第一数据集,其中,第一数据集可以包括目标图结构数据对应的第一节点信息。
示例性的,第一节点信息包括目标图结构数据的邻接矩阵以及各节点的特征向量。
请参阅图2,图2是本申请实施例提供的一种图结构数据的示意图。如图2所示,图结构数据可以是分子结构图,分子结构图包括节点V1、节点V2、节点V3、节点V4以及节点V5;分子结构图中的各节点之间的连接关系,可以用邻接矩阵A.arcs[i][j]来表示,如下所示:
Figure PCTCN2021084172-appb-000002
在上述邻接矩阵中,A.arcs[1][2]=1表示节点V1与节点V2之间存在边;A.arcs[1][3]=0表示节点V1与节点V3之间不存在边;A.arcs[1][4]=1表示节点V1与节点V4之间存在边。
在一些实施例中,可以预先对目标图结构数据进行向量化,得到目标图结构数据对应的节点特征向量。例如,可以根据one-hot编码(独热编码)对目标图结构数据中的各个节点进行编码,从而得到目标图结构数据对应的节点特征向量。
需要说明的是,这里的节点特征向量是指目标图结构数据中的各个节点对应的特征向量,并不是整个目标图结构数据对应的特征向量。
在本申请实施例中,第一数据集还可以包括目标图结构数据对应的第一属性标签。其中,第一属性标签为根据目标图结构数据的属性类型生成。
需要说明的是,在本申请实施例中,属性类型可以包括原始数据与构造数据两种类型。其中,原始数据是指图结构数据为原始的、未经修改的数据。构造数据是指图结构数据是对原始的图结构数据进行修改而得到的。
在本申请实例中,由于目标图结构数据为原始的图结构数据,因此可以生成目标图结构数据对应的第一属性标签;对于根据目标图结构数据进行修改得到的对照图结构数据, 可以生成对照图结构数据对应的第二属性标签。
示例性的,第一属性标签可以用字段1来表示,第二属性标签用字段0来表示。
在一些实施方式中,在根据目标图结构数据的属性类型生成第一属性标签之后,根据第一节点信息和第一属性标签,确定第一数据集。示例性的,可以对第一节点信息标注第一属性标签,将携带第一属性标签的第一节点信息作为第一数据集。例如,第一节点信息标注字段1,得到携带字段1标签的第一数据集。
示例性的,当目标图结构数据为N个时,对应有N个携带第一属性标签的第一数据集。
通过对目标图结构数据进行向量化,可以得到目标图结构数据对应的节点特征向量,通过根据目标图结构数据的属性类型生成第一属性标签,可以得到携带第一属性标签的第一数据集。
步骤S20、确定所述目标图结构数据对应的对照图结构数据。
在一些实施例中,确定目标图结构数据对应的对照图结构数据,可以包括:基于预设的删除比例值,对目标图结构数据中的多个节点进行删除,得到目标图结构数据对应的对照图结构数据。
示例性的,删除比例值可以根据实际情况设定,具体数值在此不作限定。
例如,删除比例值可以是20%。例如,删除目标图结构数据的左侧或右侧20%的节点。
请参阅图3,图3是本申请实施例提供的一种根据目标图结构数据生成对照图结构数据的示意图。
示例性的,当目标图结构数据为N个时,生成的对照图结构数据对应有N个。
通过根据删除比例值对目标图结构数据中的节点进行删除,可以得到对照图结构数据,后续可以根据目标图结构数据对应的第一数据集和对照图结构数据对应的第二数据集构造正负样本,对图神经网络模型进行训练。
需要说明的是,由于对照图结构数据是对目标图结构数据进行修改而得到的,因此,对照图结构数据的属性类型为构造数据。
在一些实施例中,在确定目标图结构数据对应的对照图结构数据之后,还可以包括:根据对照图结构数据的属性类型生成第二属性标签。示例性的,第二属性标签对应的字段为0。
可以理解的是,通过根据对照图结构数据的属性类型生成第二属性标签,后续可以对对照图结构数据的第二数据集标注第二属性标签,以和目标图结构数据的第一数据集进行区分。
步骤S30、根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签。
请参阅图4,图4是本申请实施例提供的一种根据对照图结构数据确定第二数据集的子步骤的示意性流程图,具体步骤S30可以包括以下步骤S301至步骤S303。
步骤S301、对所述对照图结构数据进行向量化,得到所述对照图结构数据对应的节点特征向量。
示例性的,可以根据one-hot编码对对照图结构数据中的各个节点进行编码,得到对照图结构数据对应的特征向量。
步骤S302、将所述节点特征向量与所述对照图结构数据的邻接矩阵,确定为所述第二节点信息,其中,所述邻接矩阵用于表示所述对照图结构数据中的各节点之间的连接关系。
在本申请实施例中,可以根据对照图结构数据中的各节点之间的连接关系,生成对照图结构数据对应的邻接矩阵;然后根据对照图结构数据对应的邻接矩阵和特征向量,确定为第二节点信息。
步骤S303、获取根据所述对照图结构数据的属性类型生成的所述第二属性标签。
示例性的,由于在确定目标图结构数据对应的对照图结构数据之后,根据对照图结构数据的属性类型生成第二属性标签,因此可以获取对照图结构数据对应的第二属性标签。
步骤S304、根据所述第二节点信息与所述第二属性标签,确定所述第二数据集。
在一些实施例中,可以根据第二节点信息和第二属性标签,确定为第二数据集。示例性的,可以对第二节点信息标注第二属性标签,将携带第二属性标签的第二节点信息作为第二数据集。例如,第二节点信息标注字段0,得到携带字段0标签的第二数据集。
示例性的,当对照图结构数据为N个时,对应有N个携带第二属性标签的第二数据集。
通过对对照图结构数据进行向量化,可以得到对照图结构数据对应的节点特征向量,通过获取根据对照图结构数据的属性类型生成的第二属性标签,可以得到携带第二属性标签的第二数据集。
步骤S40、加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
需要说明的是,图神经网络模型是一种将图结构数据和神经网络进行结合的模型;图神经网络模型的输入通常是一个带节点或连边的图结构数据,通过对每个节点进行信息抽取,可以获得整个图结构数据的图特征向量。
其中,图特征向量用于表示图结构数据中的相邻节点之间的信息和整个图结构数据的信息。
示例性的,图神经网络可以包括但不限于图卷积网络(Graph Convolution Networks,GCN)、图注意力网络(Graph Attention Networks)、图自编码器(Graph Autoencoders)、图生成网络(Graph Generative Networks)以及图时空网络(Graph Spatial-temporal Networks)等等。
在本申请实施例中,在根据第一数据集与第二数据集对图神经网络模型进行迭代训练之前,需要确定每一轮训练的训练样本数据。
请参阅图5,图5是本申请实施例提供的一种确定每一轮训练的训练样本数据的子步骤的示意性流程图,具体步骤S40可以包括以下步骤S401至步骤S403。
步骤S401、根据所述第一数据集或所述第二数据集确定一个锚点数据。
示例性的,可以依次从N个第一数据集中确定其中一个作为锚点数据,也可以依次从N个第二数据集中确定其中一个为锚点数据。因此锚点数据是携带第一属性标签的第一节点信息或携带第二属性标签的第二节点信息。
需要说明的是,锚点数据可以理解为模型训练过程中的真实值,用于后续计算正样本数据、负样本数据训练得到的图特征向量对应的损失函数值。
通过确定锚点数据,可以在图神经网络模型训练过程中,确定损失函数值,以调整图神经网络模型的参数。
步骤S402、从所述锚点数据所在的所述第一数据集/所述第二数据集选取一个正样本数据,以及从所述锚点数据不在的所述第二数据集/所述第一数据集选取至少一个负样本数据。
示例性的,若锚点数据为第一数据集中的携带第一属性标签的第一节点信息时,则从第一数据集中选取一个携带第一属性标签的第一节点信息作为正样本数据,从第二数据集中选取至少一个携带第二属性标签的第二节点信息作为负样本数据。
示例性的,若锚点数据为第二数据集中的携带第二属性标签的第二节点信息时,则从第二数据集中选取一个携带第二属性标签的第二节点信息作为正样本数据,从第一数据集中选取至少一个携带第一属性标签的第一节点信息作为负样本数据。
通过根据第一数据集与第二数据集构造正负样本,可以对图神经网络模型进行如何区分正样本和负样本,实现在图结构数据没有人工标注标签的情况下,提高图神经网络模型学习和挖掘不同的图结构数据的特征信息的拟合能力。
步骤S403、根据所述正样本数据与所述至少一个负样本数据,确定每一轮训练的训练样本数据。
示例性的,可以将根据正样本数据与至少一个负样本数据,确定为每一轮训练的训练 样本数据。例如,训练样本数据包括一个携带第一属性标签的第一节点信息和至少一个携带第二属性标签的第二节点信息,或者包括一个携带第二属性标签的第二节点信息和至少一个携带第一属性标签的第一节点信息。
通过选取一个正样本数据和至少一个负样本数据作为每一轮训练的训练样本,可以使得根据交叉熵损失函数计算得到的损失函数值尽可能地小,以使图神经网络模型快速收敛。
请参阅图6,图6是步骤S40中根据第一数据集与第二数据集对图神经网络模型进行迭代训练的子步骤的示意性流程图,具体步骤S40可以包括以下步骤S404至步骤S406。
步骤S404、将当前轮训练样本数据输入所述图神经网络中进行节点信息更新,得到所述当前轮训练样本数据对应的多个图特征向量。
需要说明的是,节点信息更新是指对图结构数据对应的节点信息中的各节点进行信息聚合和信息更新,得到图结构数据对应的图特征向量。
其中,节点信息可以包括图结构数据的邻接矩阵以及各节点的特征向量。
示例性的,可以对训练样本数据中的每个节点信息进行节点信息更新。
在一些实施例中,将当前轮训练样本数据输入图神经网络中进行节点信息更新,可以包括:基于预设的消息函数,获取每个节点信息中的各节点对应的相邻节点的特征向量;基于预设的更新函数,根据相邻节点的特征向量对每个节点对应的特征向量进行更新,得到每个节点信息对应的图特征向量。
可以理解的是,由于节点信息用于表示图结构数据,因此节点信息对应的图特征向量可以作为图结构数据对应的图特征向量。
在本申请实施例中,可以基于前向传播机制,对图神经网络进行训练。其中,前向传播包括message passing(消息传递)阶段和readout(读取)阶段。示例性的,对于图结构数据G=(V,E),其中,V是所有节点,E是所有边,message passing(消息传递)阶段与readout(读取)阶段的计算公式,如下所示:
Figure PCTCN2021084172-appb-000003
Figure PCTCN2021084172-appb-000004
式中,M t表示消息函数。U t表示更新函数;
Figure PCTCN2021084172-appb-000005
表示节点v在时间步t所接收到的信息;N(v)是节点v的所有邻结点;
Figure PCTCN2021084172-appb-000006
是节点v在t时间步的特征向量;e vw是节点v和节点w之间的边的特征向量。更新函数U t用于将原节点状态
Figure PCTCN2021084172-appb-000007
和信息
Figure PCTCN2021084172-appb-000008
作为输入,得到新的节点状态
Figure PCTCN2021084172-appb-000009
需要说明的是,在readout阶段中,需要计算一个特征向量用于整个图结构数据的特征向量,可以通过读取函数R实现,读取函数R如下所示:
Figure PCTCN2021084172-appb-000010
其中,
Figure PCTCN2021084172-appb-000011
是最终输出的图特征向量;T表示整个时间步数。
示例性的,将当前轮训练样本数据输入图神经网络中进行节点信息更新,可以得到当前轮训练样本数据对应的多个图特征向量。其中,多个图特征向量包括正样本数据对应的第一图特征向量和多个负样本数据对应的第二图特征向量。
通过基于消息函数与更新函数,可以当前轮训练样本数据进行节点信息更新,得到当 前轮训练样本数据对应的多个图特征向量。
步骤S405、根据所述当前轮训练样本数据对应的多个图特征向量与所述锚点数据对应的特征向量,确定损失函数值。
请参阅图7,图7是本申请实施例提供的一种确定损失函数值的子步骤的示意性流程图,具体步骤S405可以包括以下步骤S4051至步骤S4054。
步骤S4051、基于预设的度量函数,确定所述正样本数据对应的第一图特征向量与所述锚点数据的特征向量之间的第一相似度,以及确定每个所述负样本数据对应的图特征向量与所述锚点数据对应的特征向量之间的第二相似度。
在本申请实施例中,通过训练图神经网络模型,目的是使得正样本数据与锚点数据之间的相似度尽可能大,使负样本数据与锚点数据之间的相似度尽可能小。
示例性的,预设的度量函数可以包括score函数;score函数用于评价两个特征间的相似性。score函数定义如下:
score(f(x),f(x +))>>score(f(x),f(x -))
式中,f(x)表示锚点数据的特征向量;x +是与x相似或相同的数据点,用于表示正样本数据;x -是与x不相似的数据点,用于表示负样本数据;f(x +)表示正样本数据对应的第一图特征向量;f(x -)表示负样本数据对应的第二图特征向量。
其中,锚点数据的特征向量可以是第一数据集/第二数据集对应的图结构数据中的全部节点特征向量的均值。
示例性的,可以通过score函数,计算正样本数据对应的第一图特征向量与锚点数据的特征向量之间的相似度,得到第一相似度;以及通过score函数确定每个负样本数据对应的图特征向量与锚点数据对应的特征向量之间的第二相似度。其中,第一相似度可以表示为δ 1;第二相似度可以表示为δ 2
通过度量函数,可以确定正样本数据与锚点数据之间的相似度,以及确定每个负样本数据与锚点数据之间的相似度,从而可以进一步确定正样本数据、负样本数据对应的预测概率。
步骤S4052、根据所述第一相似度和所述锚点数据对应的属性标签,确定所述正样本数据的第一预测概率,其中,所述属性标签为所述第一属性标签或所述第二属性标签。
需要说明的是,第一预测概率为正样本数据与锚点数据对应的属性标签为同一属性标签的概率。
示例性的,当锚点数据为第一数据集中的第一节点信息时,锚点数据对应的属性标签为第一属性标签;当锚点数据为第二数据集中的第二节点信息时,锚点数据对应的属性标签为第二属性标签。
示例性的,当锚点数据对应的属性标签为第一属性标签时,正样本数据对应的第一预测概率为第一相似度δ 1
示例性的,当锚点数据对应的属性标签为第二属性标签时,正样本数据对应的第一预测概率为(1-δ 1)。
可以理解的是,当正样本数据与锚点数据对应的属性标签为同一属性标签时,第一相似度越大,则第一预测概率越大;当正样本数据与锚点数据对应的属性标签为不同属性标签时,第一相似度越大,则第一预测概率越小。
步骤S4053、根据每个所述负样本数据对应的所述第二相似度和所述锚点数据对应的所述属性标签,确定每个所述负样本数据的第二预测概率。
需要说明的是,第二预测概率为负样本数据与锚点数据对应的属性标签为同一属性标签的概率。
示例性的,当锚点数据对应的属性标签为第一属性标签时,负样本数据对应的第二预测概率为第二相似度δ 2
示例性的,当锚点数据对应的属性标签为第二属性标签时,负样本数据对应的第二预测概率为(1-δ 2)。
可以理解的是,当负样本数据与锚点数据对应的属性标签为同一属性标签时,第二相似度越大,则第二预测概率越大;当负样本数据与锚点数据对应的属性标签为不同属性标签时,第二相似度越大,则第二预测概率越小。
步骤S4054、基于预设的损失函数,根据所述第一预测概率和多个所述第二预测概率,确定所述损失函数值。
示例性的,预设的损失函数可以包括交叉熵损失函数。其中,交叉熵损失函数,可以定义为:
Figure PCTCN2021084172-appb-000012
式中,f(x) Tf(x +)表示正样本数据的第一预测概率;j表示第j个负样本数据;f(x) Tf(x j)表示负样本数据的第二预测概率;
Figure PCTCN2021084172-appb-000013
表示全部负样本数据的第二预测概率之和。
可以理解的是,当第一预测概率越接近1、并且第二预测概率越接近0时,损失函数值越小。
步骤S406、若所述损失函数值大于预设的损失值阈值,则调整所述图神经网络模型的参数,并进行下一轮训练,直至得到的损失函数值小于或等于所述损失值阈值,结束训练,得到训练后的所述图神经网络模型,其中,训练后的所述图神经网络模型存储在区块链中。
示例性的,预设的损失值阈值可以根据实际情况进行设定,具体数值在此不作限定。
在一些实施例中,当损失函数值大于预设的损失值阈值时,可以采用反向传播算法计算图神经网络模型的梯度,采用梯度下降算法更新图神经网络模型的参数。
示例性的,梯度下降算法可以包括但不限于批量梯度下降法(Batch Gradient Descent)、随机梯度下降法(Stochastic Gradient Descent)以及小批量梯度下降法(Mini-batch Gradient Descent)等等。
在更新图神经网络模型的参数后,进行下一轮的训练并计算每一轮的损失函数值。当计算得到的损失函数值小于或等于损失值阈值时,则训练结束,得到训练后的图神经网络模型。
需要强调的是,为进一步保证上述训练后的图神经网络模型的私密和安全性,上述训练后的图神经网络模型还可以存储于一区块链的节点中。
通过根据预设的损失函数和梯度下降算法对图神经网络模型进行参数更新,可以使得图神经网络模型快速收敛,进而提高了图神经网络模型的训练效率。
上述实施例提供的模型训练方法,通过对目标图结构数据进行向量化,可以得到目标图结构数据对应的节点特征向量,通过根据目标图结构数据的属性类型生成第一属性标签, 可以得到携带第一属性标签的第一数据集;通过根据删除比例值对目标图结构数据中的节点进行删除,可以得到对照图结构数据,后续可以根据目标图结构数据对应的第一数据集和对照图结构数据对应的第二数据集构造正负样本,对图神经网络模型进行训练;通过对对照图结构数据进行向量化,可以得到对照图结构数据对应的节点特征向量,通过获取根据对照图结构数据的属性类型生成的第二属性标签,可以得到携带第二属性标签的第二数据集;通过确定锚点数据,可以在图神经网络模型训练过程中,确定损失函数值,以调整图神经网络模型的参数;通过根据第一数据集与第二数据集构造正负样本,可以对图神经网络模型进行如何区分正样本和负样本,实现在图结构数据没有人工标注标签的情况下,提高图神经网络模型学习和挖掘不同的图结构数据的特征信息的拟合能力;通过选取一个正样本数据和至少一个负样本数据作为每一轮训练的训练样本,可以使得根据交叉熵损失函数计算得到的损失函数值尽可能地小,以使图神经网络模型快速收敛;通过基于消息函数与更新函数,可以当前轮训练样本数据进行节点信息更新,得到当前轮训练样本数据对应的多个图特征向量;通过度量函数,可以确定正样本数据与锚点数据之间的相似度,以及确定每个负样本数据与锚点数据之间的相似度,从而可以进一步确定正样本数据、负样本数据对应的预测概率;通过根据预设的损失函数和梯度下降算法对图神经网络模型进行参数更新,可以使得图神经网络模型快速收敛,进而提高了图神经网络模型的训练效率。
请参阅图8,图8是本申请实施例提供的一种模型调用方法的示意性流程图。该模型调用方法,可以服务器或终端中,通过将预训练后的图神经网络输出的图特征向量输入目标预测模型中进行预测,提高了预测模型的预测效率。该模型调用方法,包括步骤S501至步骤S503。
步骤S501、获取预测任务对应的待预测图结构数据。
需要说明的是,在本申请实施例中,预训练后的图神经网络模型具有学习和挖掘不同的图结构数据的特征信息的拟合能力,可以应用于不同的下游任务中,不需要为每一个下游任务从零开始训练全新的预测模型,从而提高预测模型的预测效率。
示例性的,预测任务可以是分类预测、回归预测等任务。
示例性的,待预测图结构数据可以包括但不限于社交网络图、分子结构图、交通网络图以及电子购物图等等。
步骤S502、从区块链中调用图神经网络模型,将所述待预测图结构数据输入所述图神经网络模型进行节点信息更新,得到所述待预测图结构数据对应的图特征向量。
需要说明的是,图神经网络模型为预训练后的模型,存储于区块链中。
示例性的,可以从区块链中调用预训练后的图神经网络模型,基于预设的消息函数和更新函数,将待预测图结构数据输入预训练后的图神经网络模型进行节点信息更新,得到待预测图结构数据对应的图特征向量。
示例性的,图特征向量可以用于二分类、多分类、多标签分类以及回归等预测任务中。
通过调用预训练后的图神经网络对待预测图结构数据进行节点更新,可以便捷地得到包含相邻节点和整个图结构数据的图特征向量,可以将图特征向量应用于不同下游任务的目标模型中。
步骤S503、确定所述预测任务对应的目标预测模型,将所述图特征向量输入所述目标预测模型中进行预测,得到所述预测任务对应的预测结果。
示例性的,目标预测模型可以包括但不限于多层感知机(Multi-Layer Perceptron,MLP)、随机森林、支持向量机(Support Vector Machine,SVM)等分类模型或者回归模型。
示例性的,当预测任务为二分类任务时,目标预测模型可以为多层感知机。例如,将待预测图结构数据对应的图特征向量输入多层感知机进行分类预测,得到预测结果。例如,预测结果可以是0或1。
请参阅图9,图9是本申请实施例提供的一种调用图神经网络模型进行分类预测的示意图。如图9所示,待预测图结构数据可以是化学分子的图结构数据,包括真实分子和虚 假分子;将待预测图结构数据输入图神经网络模型进行节点信息更新,将输出的图特征向量输入目标预测模型中进行分类预测,得到预测结果。其中,预测结果包括真实分子和虚假分子。
通过将图特征向量输入目标预测模型中预测,可以避免为每一个下游任务从零开始训练全新的预测模型,提高了预测效率,实现了图结构数据的大规模、可复制的工业施展方式。
上述实施例提供的模型调用方法,通过调用预训练后的图神经网络对待预测图结构数据进行节点更新,可以便捷地得到包含相邻节点和整个图结构数据的图特征向量,后续将图特征向量应用于不同下游任务的目标模型中;通过将图特征向量输入目标预测模型中预测,可以避免为每一个下游任务从零开始训练全新的预测模型,提高了预测效率,实现了图结构数据的大规模、可复制的工业施展方式。
请参阅图10,图10是本申请的实施例还提供一种模型训练装置1000的示意性框图,该模型训练装置用于执行前述的模型训练方法。其中,该模型训练装置可以配置于服务器或终端中。
如图10所示,该模型训练装置1000,包括:第一数据获取模块1001、对照图结构数据确定模块1002、第二数据获取模块1003和模型训练模块1004。
第一数据获取模块1001,用于获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签。
对照图结构数据确定模块1002,用于确定所述目标图结构数据对应的对照图结构数据。
第二数据获取模块1003,用于根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签。
模型训练模块1004,用于加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和各模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
上述的装置可以实现为一种计算机程序的形式,该计算机程序可以在如图11所示的计算机设备上运行。
请参阅图11,图11是本申请实施例提供的一种计算机设备的结构示意性框图。该计算机设备可以是服务器或终端。
请参阅图11,该计算机设备包括通过系统总线连接的处理器和存储器,其中,存储器可以包括非易失性存储介质和内存储器。
处理器用于提供计算和控制能力,支撑整个计算机设备的运行。
内存储器为非易失性存储介质中的计算机程序的运行提供环境,该计算机程序被处理器执行时,可使得处理器执行任意一种模型训练方法。
应当理解的是,处理器可以是中央处理单元(Central Processing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
其中,在一个实施例中,所述处理器用于运行存储在存储器中的计算机程序,以实现如下步骤:
获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;确定所述目标图结构数据对应的对照图结构数据;根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集 对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
在一个实施例中,所述目标图结构数据包括多个节点;所述处理器在实现确定所述目标图结构数据对应的对照图结构数据时,用于实现:
基于预设的删除比例值,对所述目标图结构数据中的多个节点进行删除,得到所述目标图结构数据对应的所述对照图结构数据。
在一个实施例中,所述处理器在实现根据所述对照图结构数据确定第二数据集,用于实现:
对所述对照图结构数据进行向量化,得到所述对照图结构数据对应的节点特征向量;将所述节点特征向量与所述对照图结构数据的邻接矩阵,确定为所述第二节点信息,其中,所述邻接矩阵用于表示所述对照图结构数据中的各节点之间的连接关系;获取根据所述对照图结构数据的属性类型生成的所述第二属性标签;根据所述第二节点信息与所述第二属性标签,确定所述第二数据集。
在一个实施例中,所述处理器在实现根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练之前,还用于实现:
根据所述第一数据集或所述第二数据集确定一个锚点数据;从所述锚点数据所在的所述第一数据集/所述第二数据集选取一个正样本数据,以及从所述锚点数据不在的所述第二数据集/所述第一数据集选取至少一个负样本数据;根据所述正样本数据与所述至少一个负样本数据,确定每一轮训练的训练样本数据。
在一个实施例中,所述处理器在实现根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛时,用于实现:
将当前轮训练样本数据输入所述图神经网络中进行节点信息更新,得到所述当前轮训练样本数据对应的多个图特征向量;根据所述当前轮训练样本数据对应的多个图特征向量与所述锚点数据对应的特征向量,确定损失函数值;若所述损失函数值大于预设的损失值阈值,则调整所述图神经网络模型的参数,并进行下一轮训练,直至得到的损失函数值小于或等于所述损失值阈值,结束训练,得到训练后的所述图神经网络模型,其中,训练后的所述图神经网络模型存储在区块链中。
在一个实施例中,所述图特征向量包括所述正样本数据对应的第一图特征向量和多个所述负样本数据对应的第二图特征向量;所述处理器在实现根据所述当前轮训练样本数据对应的多个图特征向量与所述锚点数据对应的特征向量,确定损失函数值时,用于实现:
基于预设的度量函数,确定所述正样本数据对应的第一图特征向量与所述锚点数据的特征向量之间的第一相似度,以及确定每个所述负样本数据对应的图特征向量与所述锚点数据对应的特征向量之间的第二相似度;根据所述第一相似度和所述锚点数据对应的属性标签,确定所述正样本数据的第一预测概率,其中,所述属性标签为所述第一属性标签或所述第二属性标签;根据每个所述负样本数据对应的所述第二相似度和所述锚点数据对应的所述属性标签,确定每个所述负样本数据的第二预测概率;基于预设的损失函数,根据所述第一预测概率和多个所述第二预测概率,确定所述损失函数值。
在一个实施例中,所述处理器在实现还用于实现:
获取预测任务对应的待预测图结构数据;从区块链中调用图神经网络模型,将所述待预测图结构数据输入所述图神经网络模型进行节点信息更新,得到所述待预测图结构数据对应的图特征向量;确定所述预测任务对应的目标预测模型,将所述图特征向量输入所述目标预测模型中进行预测,得到所述预测任务对应的预测结果。
本申请的实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序中包括程序指令,所述处理器执行所述程序指令,实现本申请实施例提供的任一项模型训练方法或模型调用方法。
其中,所述计算机可读存储介质可以是非易失性,也可以是易失性,具体可以是前述实施例所述的计算机设备的内部存储单元,例如所述计算机设备的硬盘或内存。所述计算 机可读存储介质也可以是所述计算机设备的外部存储设备,例如所述计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字卡(Secure Digital Card,SD Card),闪存卡(Flash Card)等。
进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (17)

  1. 一种模型训练方法,其中,包括:
    获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;
    确定所述目标图结构数据对应的对照图结构数据;
    根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;
    加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
  2. 根据权利要求1所述的模型训练方法,其中,所述目标图结构数据包括多个节点;所述确定所述目标图结构数据对应的对照图结构数据,包括:
    基于预设的删除比例值,对所述目标图结构数据中的多个节点进行删除,得到所述目标图结构数据对应的所述对照图结构数据。
  3. 根据权利要求1所述的模型训练方法,其中,所述根据所述对照图结构数据确定第二数据集,包括:
    对所述对照图结构数据进行向量化,得到所述对照图结构数据对应的节点特征向量;
    将所述节点特征向量与所述对照图结构数据的邻接矩阵,确定为所述第二节点信息,其中,所述邻接矩阵用于表示所述对照图结构数据中的各节点之间的连接关系;
    获取根据所述对照图结构数据的属性类型生成的所述第二属性标签;
    根据所述第二节点信息与所述第二属性标签,确定所述第二数据集。
  4. 根据权利要求1所述的模型训练方法,其中,所述根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练之前,还包括:
    根据所述第一数据集或所述第二数据集确定一个锚点数据;
    从所述锚点数据所在的所述第一数据集/所述第二数据集选取一个正样本数据,以及从所述锚点数据不在的所述第二数据集/所述第一数据集选取至少一个负样本数据;
    根据所述正样本数据与所述至少一个负样本数据,确定每一轮训练的训练样本数据;
    所述根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛,包括:
    将当前轮训练样本数据输入所述图神经网络中进行节点信息更新,得到所述当前轮训练样本数据对应的多个图特征向量;
    根据所述当前轮训练样本数据对应的多个图特征向量与所述锚点数据对应的特征向量,确定损失函数值;
    若所述损失函数值大于预设的损失值阈值,则调整所述图神经网络模型的参数,并进行下一轮训练,直至得到的损失函数值小于或等于所述损失值阈值,结束训练,得到训练后的所述图神经网络模型,其中,训练后的所述图神经网络模型存储在区块链中。
  5. 根据权利要求4所述的模型训练方法,其中,所述图特征向量包括所述正样本数据对应的第一图特征向量和多个所述负样本数据对应的第二图特征向量;所述根据所述当前轮训练样本数据对应的多个图特征向量与所述锚点数据对应的特征向量,确定损失函数值,包括:
    基于预设的度量函数,确定所述正样本数据对应的第一图特征向量与所述锚点数据的特征向量之间的第一相似度,以及确定每个所述负样本数据对应的图特征向量与所述锚点数据对应的特征向量之间的第二相似度;
    根据所述第一相似度和所述锚点数据对应的属性标签,确定所述正样本数据的第一预测概率,其中,所述属性标签为所述第一属性标签或所述第二属性标签;
    根据每个所述负样本数据对应的所述第二相似度和所述锚点数据对应的所述属性标 签,确定每个所述负样本数据的第二预测概率;
    基于预设的损失函数,根据所述第一预测概率和多个所述第二预测概率,确定所述损失函数值。
  6. 根据权利要求1-5任一项所述的模型训练方法,其中,所述第一属性标签为根据所述目标图结构数据的属性类型生成,所述第二属性标签为根据所述对照图结构数据的属性类型生成。
  7. 一种模型调用方法,其中,所述模型为如权利要求1至6中任一项所述的图神经网络模型,所述方法包括:
    获取预测任务对应的待预测图结构数据;
    从区块链中调用图神经网络模型,将所述待预测图结构数据输入所述图神经网络模型进行节点信息更新,得到所述待预测图结构数据对应的图特征向量;
    确定所述预测任务对应的目标预测模型,将所述图特征向量输入所述目标预测模型中进行预测,得到所述预测任务对应的预测结果。
  8. 一种模型训练装置,其中,包括:
    第一数据获取模块,用于获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;
    对照图结构数据确定模块,用于确定所述目标图结构数据对应的对照图结构数据;
    第二数据获取模块,用于根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;
    模型训练模块,用于加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
  9. 一种计算机设备,其中,所述计算机设备包括存储器和处理器;
    所述存储器,用于存储计算机程序;
    所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现:
    获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;
    确定所述目标图结构数据对应的对照图结构数据;
    根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;
    加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
  10. 根据权利要求9所述的计算机设备,其中,所述目标图结构数据包括多个节点;所述确定所述目标图结构数据对应的对照图结构数据,包括:
    基于预设的删除比例值,对所述目标图结构数据中的多个节点进行删除,得到所述目标图结构数据对应的所述对照图结构数据。
  11. 根据权利要求9所述的计算机设备,其中,所述根据所述对照图结构数据确定第二数据集,包括:
    对所述对照图结构数据进行向量化,得到所述对照图结构数据对应的节点特征向量;
    将所述节点特征向量与所述对照图结构数据的邻接矩阵,确定为所述第二节点信息,其中,所述邻接矩阵用于表示所述对照图结构数据中的各节点之间的连接关系;
    获取根据所述对照图结构数据的属性类型生成的所述第二属性标签;
    根据所述第二节点信息与所述第二属性标签,确定所述第二数据集。
  12. 根据权利要求9所述的计算机设备,其中,所述根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练之前,还包括:
    根据所述第一数据集或所述第二数据集确定一个锚点数据;
    从所述锚点数据所在的所述第一数据集/所述第二数据集选取一个正样本数据,以及从 所述锚点数据不在的所述第二数据集/所述第一数据集选取至少一个负样本数据;
    根据所述正样本数据与所述至少一个负样本数据,确定每一轮训练的训练样本数据;
    所述根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛,包括:
    将当前轮训练样本数据输入所述图神经网络中进行节点信息更新,得到所述当前轮训练样本数据对应的多个图特征向量;
    根据所述当前轮训练样本数据对应的多个图特征向量与所述锚点数据对应的特征向量,确定损失函数值;
    若所述损失函数值大于预设的损失值阈值,则调整所述图神经网络模型的参数,并进行下一轮训练,直至得到的损失函数值小于或等于所述损失值阈值,结束训练,得到训练后的所述图神经网络模型,其中,训练后的所述图神经网络模型存储在区块链中。
  13. 根据权利要求12所述的计算机设备,其中,所述图特征向量包括所述正样本数据对应的第一图特征向量和多个所述负样本数据对应的第二图特征向量;所述根据所述当前轮训练样本数据对应的多个图特征向量与所述锚点数据对应的特征向量,确定损失函数值,包括:
    基于预设的度量函数,确定所述正样本数据对应的第一图特征向量与所述锚点数据的特征向量之间的第一相似度,以及确定每个所述负样本数据对应的图特征向量与所述锚点数据对应的特征向量之间的第二相似度;
    根据所述第一相似度和所述锚点数据对应的属性标签,确定所述正样本数据的第一预测概率,其中,所述属性标签为所述第一属性标签或所述第二属性标签;
    根据每个所述负样本数据对应的所述第二相似度和所述锚点数据对应的所述属性标签,确定每个所述负样本数据的第二预测概率;
    基于预设的损失函数,根据所述第一预测概率和多个所述第二预测概率,确定所述损失函数值。
  14. 根据权利要求9-13任一项所述的计算机设备,其中,所述第一属性标签为根据所述目标图结构数据的属性类型生成,所述第二属性标签为根据所述对照图结构数据的属性类型生成。
  15. 一种计算机设备,其中,所述计算机设备包括存储器和处理器;
    所述存储器,用于存储计算机程序;
    所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现:
    如权利要求7所述的模型调用方法。
  16. 一种计算机可读存储介质,其中,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现:
    如权利要求1至6任一项所述的模型训练方法。
  17. 一种计算机可读存储介质,其中,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现:
    如权利要求7所述的模型调用方法。
PCT/CN2021/084172 2020-12-31 2021-03-30 模型训练方法、调用方法、装置、计算机设备和存储介质 Ceased WO2022141869A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011642092.5 2020-12-31
CN202011642092.5A CN112734034A (zh) 2020-12-31 2020-12-31 模型训练方法、调用方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
WO2022141869A1 true WO2022141869A1 (zh) 2022-07-07

Family

ID=75609157

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/084172 Ceased WO2022141869A1 (zh) 2020-12-31 2021-03-30 模型训练方法、调用方法、装置、计算机设备和存储介质

Country Status (2)

Country Link
CN (1) CN112734034A (zh)
WO (1) WO2022141869A1 (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115221976A (zh) * 2022-08-18 2022-10-21 抖音视界有限公司 一种基于图神经网络的模型训练方法及装置
CN115222044A (zh) * 2022-07-13 2022-10-21 深圳市腾讯信息技术有限公司 模型训练方法、图数据处理方法、装置、设备及存储介质
CN115293082A (zh) * 2022-09-30 2022-11-04 深圳鸿芯微纳技术有限公司 时序预测模型的训练、预测方法、装置、设备及存储介质
CN115375911A (zh) * 2022-09-15 2022-11-22 北京爱笔科技有限公司 基于重排序的特征提取、特征提取模型的训练方法和装置
CN115550023A (zh) * 2022-09-26 2022-12-30 安徽大学 一种抑制图拆解的图攻击方法及图结构的防护系统、装置
CN115860581A (zh) * 2023-02-28 2023-03-28 北京市农林科学院信息技术研究中心 农作物品种适宜性评价方法、装置、设备及存储介质
CN115935027A (zh) * 2023-01-19 2023-04-07 北京百度网讯科技有限公司 目标对象拓扑图的数据处理方法及图分类模型的训练方法
CN116029447A (zh) * 2023-02-13 2023-04-28 拉扎斯网络科技(上海)有限公司 预测模型训练方法和装置、介质和计算机设备
CN116245139A (zh) * 2023-04-23 2023-06-09 中国人民解放军国防科技大学 图神经网络模型训练方法和装置、事件检测方法和装置
CN116469484A (zh) * 2023-04-17 2023-07-21 东北大学 一种基于双模态的药物靶标多标签分类方法
CN117609870A (zh) * 2024-01-23 2024-02-27 北京燧原智能科技有限公司 结构识别模型训练、模型结构识别方法、设备及介质
WO2024087844A1 (zh) * 2022-10-26 2024-05-02 北京火山引擎科技有限公司 图神经网络的训练方法、训练系统及异常账号识别方法
CN118536427A (zh) * 2024-05-31 2024-08-23 中国长江三峡集团有限公司 管网节点流量预测模型构建和管网节点流量预测方法
CN119440923A (zh) * 2024-09-24 2025-02-14 山东云海国创云计算装备产业创新中心有限公司 闪存特性预测模型训练方法、闪存特性预测方法及装置

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819154B (zh) * 2021-01-20 2024-05-28 上海上湖信息技术有限公司 一种应用于图学习领域的预训练模型的生成方法及装置
CN113779317B (zh) * 2021-05-20 2025-08-26 深圳市腾讯计算机系统有限公司 一种信息预测方法、装置、存储介质及计算机设备
CN115409151B (zh) * 2021-05-27 2025-12-12 清华大学 图神经网络训练、任务处理方法、装置、电子设备及存储介质
CN113435521A (zh) * 2021-06-30 2021-09-24 平安科技(深圳)有限公司 神经网络模型训练方法、装置及计算机可读存储介质
CN113361658B (zh) * 2021-07-15 2022-06-14 支付宝(杭州)信息技术有限公司 一种基于隐私保护的图模型训练方法、装置及设备
CN113656699B (zh) * 2021-08-25 2024-02-13 平安科技(深圳)有限公司 用户特征向量确定方法、相关设备及介质
CN114169938A (zh) * 2021-12-13 2022-03-11 平安国际智慧城市科技股份有限公司 信息推送方法、装置、设备及存储介质
CN114638278B (zh) * 2021-12-14 2025-08-29 浙江大华技术股份有限公司 一种数据清洗方法、装置及系统
CN114707641B (zh) * 2022-03-23 2024-11-08 平安科技(深圳)有限公司 双视角图神经网络模型的训练方法、装置、设备及介质
CN115456748A (zh) * 2022-08-16 2022-12-09 度小满科技(北京)有限公司 一种基于征信报告的图神经网络建模方法和装置
CN115981620A (zh) * 2022-12-09 2023-04-18 西安超越申泰信息科技有限公司 一种可视化人工智能算法编排方法、装置、设备及介质
CN115965058B (zh) * 2022-12-28 2024-03-29 连连(杭州)信息技术有限公司 神经网络训练方法、实体信息分类方法、装置及存储介质
CN116861345A (zh) * 2023-05-04 2023-10-10 支付宝(杭州)信息技术有限公司 数据处理方法、装置及设备
CN116776144A (zh) * 2023-05-17 2023-09-19 奇安信科技集团股份有限公司 样本行为特征确定方法、特征提取模型的训练方法及装置
CN117785490B (zh) * 2024-02-27 2024-05-10 苏州元脑智能科技有限公司 一种图神经网络模型的训练架构、方法、系统及服务器
CN118887459B (zh) * 2024-07-09 2025-07-25 广州医科大学 一种基于血栓影像重构图数据的方法、设备及程序产品

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190188562A1 (en) * 2017-12-15 2019-06-20 International Business Machines Corporation Deep Neural Network Hardening Framework
CN110705709A (zh) * 2019-10-14 2020-01-17 支付宝(杭州)信息技术有限公司 训练图神经网络模型的方法和装置
CN111626119A (zh) * 2020-04-23 2020-09-04 北京百度网讯科技有限公司 目标识别模型训练方法、装置、设备以及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111210024B (zh) * 2020-01-14 2023-09-15 深圳供电局有限公司 模型训练方法、装置、计算机设备和存储介质
CN112069398B (zh) * 2020-08-24 2025-05-13 腾讯科技(深圳)有限公司 一种基于图网络的信息推送方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190188562A1 (en) * 2017-12-15 2019-06-20 International Business Machines Corporation Deep Neural Network Hardening Framework
CN110705709A (zh) * 2019-10-14 2020-01-17 支付宝(杭州)信息技术有限公司 训练图神经网络模型的方法和装置
CN111626119A (zh) * 2020-04-23 2020-09-04 北京百度网讯科技有限公司 目标识别模型训练方法、装置、设备以及存储介质

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115222044A (zh) * 2022-07-13 2022-10-21 深圳市腾讯信息技术有限公司 模型训练方法、图数据处理方法、装置、设备及存储介质
CN115221976A (zh) * 2022-08-18 2022-10-21 抖音视界有限公司 一种基于图神经网络的模型训练方法及装置
CN115221976B (zh) * 2022-08-18 2024-05-24 抖音视界有限公司 一种基于图神经网络的模型训练方法及装置
CN115375911A (zh) * 2022-09-15 2022-11-22 北京爱笔科技有限公司 基于重排序的特征提取、特征提取模型的训练方法和装置
CN115375911B (zh) * 2022-09-15 2025-11-21 爱笔(北京)智能科技有限公司 基于重排序的特征提取、特征提取模型的训练方法和装置
CN115550023A (zh) * 2022-09-26 2022-12-30 安徽大学 一种抑制图拆解的图攻击方法及图结构的防护系统、装置
CN115293082A (zh) * 2022-09-30 2022-11-04 深圳鸿芯微纳技术有限公司 时序预测模型的训练、预测方法、装置、设备及存储介质
CN115293082B (zh) * 2022-09-30 2023-01-20 深圳鸿芯微纳技术有限公司 时序预测模型的训练、预测方法、装置、设备及存储介质
WO2024087844A1 (zh) * 2022-10-26 2024-05-02 北京火山引擎科技有限公司 图神经网络的训练方法、训练系统及异常账号识别方法
CN117993455A (zh) * 2022-10-26 2024-05-07 北京火山引擎科技有限公司 图神经网络的训练方法、训练系统及异常账号识别方法
CN115935027A (zh) * 2023-01-19 2023-04-07 北京百度网讯科技有限公司 目标对象拓扑图的数据处理方法及图分类模型的训练方法
CN116029447A (zh) * 2023-02-13 2023-04-28 拉扎斯网络科技(上海)有限公司 预测模型训练方法和装置、介质和计算机设备
CN115860581B (zh) * 2023-02-28 2023-05-26 北京市农林科学院信息技术研究中心 农作物品种适宜性评价方法、装置、设备及存储介质
CN115860581A (zh) * 2023-02-28 2023-03-28 北京市农林科学院信息技术研究中心 农作物品种适宜性评价方法、装置、设备及存储介质
CN116469484A (zh) * 2023-04-17 2023-07-21 东北大学 一种基于双模态的药物靶标多标签分类方法
CN116245139A (zh) * 2023-04-23 2023-06-09 中国人民解放军国防科技大学 图神经网络模型训练方法和装置、事件检测方法和装置
CN116245139B (zh) * 2023-04-23 2023-07-07 中国人民解放军国防科技大学 图神经网络模型训练方法和装置、事件检测方法和装置
CN117609870A (zh) * 2024-01-23 2024-02-27 北京燧原智能科技有限公司 结构识别模型训练、模型结构识别方法、设备及介质
CN117609870B (zh) * 2024-01-23 2024-04-23 北京燧原智能科技有限公司 结构识别模型训练、模型结构识别方法、设备及介质
CN118536427A (zh) * 2024-05-31 2024-08-23 中国长江三峡集团有限公司 管网节点流量预测模型构建和管网节点流量预测方法
CN119440923A (zh) * 2024-09-24 2025-02-14 山东云海国创云计算装备产业创新中心有限公司 闪存特性预测模型训练方法、闪存特性预测方法及装置

Also Published As

Publication number Publication date
CN112734034A (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
WO2022141869A1 (zh) 模型训练方法、调用方法、装置、计算机设备和存储介质
US11922308B2 (en) Generating neighborhood convolutions within a large network
US9990558B2 (en) Generating image features based on robust feature-learning
CN111615702B (zh) 一种从图像中提取结构化数据的方法、装置和设备
JP7293387B2 (ja) データ分類方法、分類器訓練方法及びシステム
CN112215248B (zh) 深度学习模型训练方法、装置、电子设备及存储介质
US20190303535A1 (en) Interpretable bio-medical link prediction using deep neural representation
CN112085615B (zh) 图神经网络的训练方法及装置
US20220269928A1 (en) Stochastic noise layers
CN112101042B (zh) 文本情绪识别方法、装置、终端设备和存储介质
US11636308B2 (en) Differentiable set to increase the memory capacity of recurrent neural net works
CN115293919B (zh) 面向社交网络分布外泛化的图神经网络预测方法及系统
CN113515625B (zh) 测试结果分类模型训练方法、分类方法及装置
CN104699660A (zh) 概述非线性回归问题中的结构化矩阵
CN111709415A (zh) 目标检测方法、装置、计算机设备和存储介质
CN109033148A (zh) 一种面向多分类的不平衡数据预处理方法、装置及设备
CN114241411A (zh) 基于目标检测的计数模型处理方法、装置及计算机设备
US20230070443A1 (en) Contrastive time series representation learning via meta-learning
CN113987223B (zh) 标签补全方法及标签补全装置
KR20180028610A (ko) 관련도 벡터 머신을 이용한 기계학습방법, 이를 구현하는 컴퓨터 프로그램 및 이를 수행하도록 구성되는 정보처리장치
CN114898184A (zh) 模型训练方法、数据处理方法、装置及电子设备
US20230077998A1 (en) Systems and Methods for Smart Instance Selection
EP4293534A1 (en) Blockchain address classification method and apparatus
CN113240304B (zh) 特征构建方法、装置、设备以及存储介质
HK40041537A (zh) 模型训练方法、调用方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21912639

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21912639

Country of ref document: EP

Kind code of ref document: A1