[go: up one dir, main page]

JP2022129061A - Information processing system, information processing apparatus, information processing method, and program - Google Patents

Information processing system, information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2022129061A
JP2022129061A JP2021027606A JP2021027606A JP2022129061A JP 2022129061 A JP2022129061 A JP 2022129061A JP 2021027606 A JP2021027606 A JP 2021027606A JP 2021027606 A JP2021027606 A JP 2021027606A JP 2022129061 A JP2022129061 A JP 2022129061A
Authority
JP
Japan
Prior art keywords
information processing
inference
learning
model
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021027606A
Other languages
Japanese (ja)
Other versions
JP7661059B2 (en
JP2022129061A5 (en
Inventor
孝太郎 梅澤
Kotaro Umezawa
竜太 植田
Ryuta Ueda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021027606A priority Critical patent/JP7661059B2/en
Priority to PCT/JP2022/006264 priority patent/WO2022181426A1/en
Publication of JP2022129061A publication Critical patent/JP2022129061A/en
Publication of JP2022129061A5 publication Critical patent/JP2022129061A5/ja
Application granted granted Critical
Publication of JP7661059B2 publication Critical patent/JP7661059B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioethics (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】医用データのプライバシー及び推論モデルの秘匿性を担保しつつ、推論モデルの学習を行う。【解決手段】情報処理システム800は、教師データの提供者が操作する第一の情報処理装置900と、推論モデルの提供者が管理する第二の情報処理装置1000と、を備える。第一の情報処理装置900は、教師データを取得する教師データ取得部902と、教師データを、推論モデルのうち入力層と、中間層の一部の中間層とで構成される第一の部分モデルに入力することにより第一の学習処理を行う第一の学習部903を有する。第二の情報処理装置1000は、第一の学習処理による出力を、推論モデルのうち第一の部分モデルと異なる層から構成される第二の部分モデルへ入力することにより第二の学習処理を行う第二の学習部1002と、を有する。【選択図】図8Kind Code: A1 An inference model is learned while ensuring privacy of medical data and confidentiality of the inference model. An information processing system (800) includes a first information processing device (900) operated by a teacher data provider and a second information processing device (1000) managed by an inference model provider. The first information processing device 900 includes a teacher data acquisition unit 902 that acquires teacher data, and the teacher data as a first part composed of an input layer of an inference model and an intermediate layer that is part of an intermediate layer. It has a first learning unit 903 that performs a first learning process by inputting to the model. The second information processing device 1000 performs the second learning process by inputting the output from the first learning process to the second partial model configured from a layer different from the first partial model in the inference model. and a second learning unit 1002 that performs [Selection drawing] Fig. 8

Description

本発明は、推論モデルに対して学習処理を行う情報処理システム、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing system, an information processing apparatus, an information processing method, and a program for performing learning processing on an inference model.

医用撮像装置(モダリティ)によって取得された医用画像や医療情報システムから取得した医用情報などの医用データに対して機械学習技術を適用し、所定の疾患に関する推論(疾患検出、良悪性鑑別、予後予測、リスク予測など)を行うシステムが知られている。 Machine learning technology is applied to medical data such as medical images acquired by medical imaging equipment (modality) and medical information acquired from medical information systems, and inferences about specific diseases (disease detection, benign/malignant discrimination, prognosis prediction) , risk prediction, etc.) are known.

非特許文献1には、医用画像を入力としてエンコーダ・デコーダからなるモデルを学習し、推論モデル(エンコーダ部)を使用して特徴抽出を実施する技術が開示されている。 Non-Patent Document 1 discloses a technique of learning a model consisting of an encoder/decoder using medical images as an input, and performing feature extraction using an inference model (encoder).

Behzad Bozorgtabar et al.,“SALAD: Self-SuperviSed Aggregation Learning for Anomaly Detection on X-RayS”,International Conference on Medical Image Computing and Computer-ASSiSted Intervention-MICCAI2020.Behzad Bozorgtabar et al. , "SALAD: Self-Supervised Aggregation Learning for Anomaly Detection on X-RayS", International Conference on Medical Image Computing and Computer-ASSiSted Intervention-MICCAI20.

非特許文献1に記載の技術では、推論モデルの学習を、推論モデルの提供者側の情報処理装置で行うことになるため、推論モデルのユーザが管理する教師データを、推論モデルの提供者側の情報処理装置に送信する必要があり、プライバシーを保護することが難しい。一方で、推論モデルのユーザが管理する情報処理装置に、推論モデルがある場合には、ユーザが推論モデルを複製して第三者への頒布や、推論モデルを改変する等の不正利用を防止することが難しいため、推論モデルの秘匿性を担保することができない。 In the technique described in Non-Patent Document 1, learning of an inference model is performed by an information processing device on the side of the inference model provider. It is difficult to protect privacy because it is necessary to transmit to the information processing device of the third party. On the other hand, if the inference model is stored in an information processing device managed by the user of the inference model, it prevents the user from duplicating the inference model and distributing it to a third party, or from illegally using the inference model by altering it. Since it is difficult to do so, the confidentiality of the inference model cannot be guaranteed.

本発明は、教師データのプライバシーおよび推論モデルの秘匿性を担保しつつ、推論モデルの学習を行うことができる情報処理システムを提供することを目的とする。 An object of the present invention is to provide an information processing system capable of learning an inference model while ensuring the privacy of teacher data and the confidentiality of an inference model.

上記課題を解決するため、本発明の一態様による情報処理システムは、教師データの管理者が操作する第一の情報処理装置と、該第一の情報処理装置とネットワークを介して通信可能な第二の情報処理装置と、を備え、入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルを学習する学習処理を行う情報処理システムであって、前記第一の情報処理装置は、教師データを取得する教師データ取得部と、前記教師データを、前記推論モデルのうち前記入力層と、前記中間層の一部の中間層とで構成される第一の部分モデルに入力することにより第一の学習処理を行う第一の学習部を有し、前記第二の情報処理装置は、前記第一の学習処理による出力を、前記の推論モデルのうち前記第一の部分モデルと異なる層から構成される第二の部分モデルへ入力することにより第二の学習処理を行う第二の学習部と、を有する。 To solve the above problems, an information processing system according to one aspect of the present invention includes: a first information processing device operated by an administrator of training data; and two information processing devices, and performing a learning process for learning an inference model based on a neural network composed of an input layer, an intermediate layer and an output layer, wherein the first information processing device is a teacher data acquisition unit that acquires teacher data; and inputting the teacher data to a first partial model composed of the input layer of the inference model and an intermediate layer that is part of the intermediate layers. The second information processing device has a first learning unit that performs a first learning process by using and a second learning unit that performs a second learning process by inputting to a second partial model composed of layers.

本発明によれば、教師データのプライバシーおよび推論モデルの秘匿性を担保しつつ、推論モデルの学習を行うことができる。 According to the present invention, the inference model can be learned while ensuring the privacy of the teacher data and the confidentiality of the inference model.

第1の実施形態に係る情報処理システムの構成を示す図。1 is a diagram showing the configuration of an information processing system according to a first embodiment; FIG. 第1の実施形態に係る推論モデルの概略図。Schematic diagram of an inference model according to the first embodiment. 第1の実施形態に係る第一の情報処理装置のハードウェア構成を示す図。2 is a diagram showing the hardware configuration of the first information processing apparatus according to the first embodiment; FIG. 第1の実施形態に係る情報処理システムの推論処理を示すフロー図。FIG. 4 is a flowchart showing inference processing of the information processing system according to the first embodiment; 第2の実施形態に係る情報処理システムの構成を示す図。The figure which shows the structure of the information processing system which concerns on 2nd Embodiment. 第2の実施形態に係る推論モデルの概略図。Schematic diagram of an inference model according to the second embodiment. 第2の実施形態に係る情報処理システムの推論処理を示すフロー図。FIG. 11 is a flowchart showing inference processing of the information processing system according to the second embodiment; 第3の実施形態に係る情報処理システムの構成を示す図。The figure which shows the structure of the information processing system which concerns on 3rd Embodiment. 第3の実施形態に係る推論モデルの概略図。Schematic diagram of an inference model according to the third embodiment. 第3の実施形態に係る情報処理システムの学習処理を示すフロー図。FIG. 11 is a flowchart showing learning processing of the information processing system according to the third embodiment; 第4の実施形態に係る情報処理システムの概略図。Schematic diagram of an information processing system according to a fourth embodiment. 第4の実施形態に係る推論モデルの概略図。Schematic diagram of an inference model according to the fourth embodiment. 第4の実施形態に係る情報処理システムの学習処理を示すフロー図。The flowchart which shows the learning process of the information processing system which concerns on 4th Embodiment.

本発明は、モダリティで取得した生データ(信号データ)や、生データから画像再構成によって生成された診断用の医用画像データ等の医用データに対して、好ましく適用できる。モダリティは、例えば、X線CT装置、MRI装置、SPECT装置、PET装置、心電計を含む。なお、推論対象のデータおよび教師データは、医用データのみならず、患者のプライバシーに関連する、年齢や性別、疾患情報等の情報も対象としてもよい。 The present invention can be preferably applied to medical data such as raw data (signal data) acquired by a modality and diagnostic medical image data generated by image reconstruction from raw data. Modalities include, for example, X-ray CT devices, MRI devices, SPECT devices, PET devices, and electrocardiographs. The inference target data and teacher data may be not only medical data but also information related to patient privacy, such as age, gender, and disease information.

以下、本発明の情報処理システムにおける推論モデルによる推論工程に関して、第1の実施形態および第2の実施形態で説明をする。また第3の実施形態および第4の実施形態において、本発明の情報処理システムにおける推論モデルの学習工程に関して説明をする。なお、後述するが、推論工程において用いられる推論モデルは、本発明の第3の実施形態および第4の実施形態の学習工程を経て生成される推論モデルに限らない。推論工程において用いられる推論モデルは、公知の手法もしくは、本発明に記載する学習工程によって機械学習や深層学習に基づいて学習された学習済みの推論モデルである。ここで学習済みの推論モデルとは、所定の条件を満たすように学習処理が実施されていればよく、学習済みの推論モデルを、追加学習や、転移学習、ファインチューニング等の対象として用いてもよい。故に、公知の手法において学習した学習済みの推論モデルの追加学習として、後述する学習工程による学習処理が実施されてもよいし、その逆の手順で学習処理が実施されてもよい。 An inference process based on an inference model in the information processing system of the present invention will be described below in terms of a first embodiment and a second embodiment. In the third and fourth embodiments, the inference model learning process in the information processing system of the present invention will be described. As will be described later, the inference model used in the inference process is not limited to the inference model generated through the learning process of the third and fourth embodiments of the present invention. The inference model used in the inference process is a trained inference model that has been trained based on machine learning or deep learning by a known technique or the learning process described in the present invention. Here, the learned inference model may be a learned inference model that has been subjected to a learning process that satisfies a predetermined condition. good. Therefore, as additional learning of an inference model that has already been trained by a known method, a learning process may be performed in a learning process described later, or the learning process may be performed in reverse order.

以下、添付図面を参照して本発明の好適な実施形態について説明する。 Preferred embodiments of the present invention will now be described with reference to the accompanying drawings.

[第1の実施形態]
ここで、図1を用いて、本発明の情報処理システム1について説明をする。本発明における情報処理システム1は、第一の情報処理装置2と第二の情報処理装置3と、両情報処理装置を通信可能に接続するネットワーク4から構成される。
[First embodiment]
Here, the information processing system 1 of the present invention will be explained using FIG. An information processing system 1 according to the present invention comprises a first information processing device 2, a second information processing device 3, and a network 4 that communicably connects the two information processing devices.

ここで、図2を参照しながら、本発明における情報処理システム1の構成について説明をする。情報処理システム1は、第一の情報処理装置2および第二の情報処理装置3から構成される。第一の情報処理装置2および第二の情報処理装置3は、推論対象の医用データに対して、推論処理をし、実行結果を出力する推論モデルの一部である部分モデルをそれぞれ有している。ここでの推論モデルとは、入力層、中間層、出力層から構成されるニューラルネットワークに基づく学習済みのモデルである。学習処理によって、推論結果を出力するためのパラメータを決定し、該パラメータとネットワークモデルとを対にしたモデルを推論モデルとして定義する。 Here, the configuration of the information processing system 1 according to the present invention will be described with reference to FIG. The information processing system 1 comprises a first information processing device 2 and a second information processing device 3 . The first information processing device 2 and the second information processing device 3 each have a partial model that is a part of an inference model that performs inference processing on medical data to be inferred and outputs an execution result. there is The inference model here is a trained model based on a neural network composed of an input layer, an intermediate layer, and an output layer. Through learning processing, parameters for outputting an inference result are determined, and a model in which the parameters and the network model are paired is defined as an inference model.

第一の情報処理装置2は、上述した学習済みの推論モデルのうち、入力層と、中間層のうちすくなくとも一部の中間層とで構成される第一の部分モデルを用いて第一の推論処理を実行し、第二の情報処理装置3は、上述した学習済みの推論モデルのうち、第一の部分モデルとは異なる層から構成される第二の部分モデルを用いて第二の推論を実行する。以下、各情報処理装置の構成について説明をする。 The first information processing device 2 performs a first inference using a first partial model composed of an input layer and at least a part of the intermediate layers among the learned inference models described above. The second information processing device 3 performs the second inference using the second partial model configured from a layer different from the first partial model among the learned inference models described above. Run. The configuration of each information processing device will be described below.

ここで第一の情報処理装置2は、推論対象の医用データを管理する権限を有した推論モデルのユーザである、例えば医療従事者が操作できる情報処理装置である。一方、第二の情報処理装置3は、推論に用いる推論モデルを管理する権限を有したモデルの提供者が保有する情報処理装置である。第二の情報処理装置3は、第一の情報処理装置2の外部のサーバに存在し、ネットワーク4を介して通信可能に構成されている。 Here, the first information processing device 2 is an information processing device that can be operated by, for example, a medical worker who is a user of an inference model who has authority to manage medical data to be inferred. On the other hand, the second information processing device 3 is an information processing device owned by a model provider who has the authority to manage the inference model used for inference. The second information processing device 3 resides in a server outside the first information processing device 2 and is configured to be communicable via the network 4 .

第一の情報処理装置2は、推論対象の医用データを取得する取得部11と、医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく学習済みの推論モデルのうち、入力層と、中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを用いて、前記推論対象の医用データに対して該推論処理のうち第一の推論処理を実施する第一の推論部12と、第一の推論処理による第一の推論結果を、前記推論処理のうち前記第一の部分モデルを構成する層と異なる層から構成される第二の部分モデルを有する他の情報処理装置である第二の情報処理装置3へと出力する出力部13とを含み構成される。 The first information processing device 2 includes an acquisition unit 11 that acquires medical data to be inferred, and a learned neural network that is configured from an input layer, an intermediate layer, and an output layer that performs inference processing on the medical data. of the inference model, a first partial model composed of an input layer and at least a partial intermediate layer of the intermediate layers is used to perform the first inference processing on the inference target medical data and the first inference result of the first inference processing is transferred to a first inference unit 12 configured from a layer different from the layer constituting the first partial model of the inference processing. and an output unit 13 for outputting to the second information processing device 3, which is another information processing device having two partial models.

また第一の情報処理装置2は、学習済みの推論モデルの一部である第一の部分モデルや、推論対象の医用データを記憶する記憶部10を有する。また他の情報処理装置である第二の情報処理装置3による第二の推論の結果を取得する推論結果取得部14と、取得した推論結果を表示装置に表示させるための表示制御部15を有する。 The first information processing device 2 also has a storage unit 10 that stores a first partial model, which is a part of a learned inference model, and medical data to be inferred. It also has an inference result obtaining unit 14 for obtaining a second inference result by the second information processing apparatus 3, which is another information processing apparatus, and a display control unit 15 for displaying the obtained inference result on a display device. .

(記憶部10)
記憶部10は、学習済みの推論モデルの入力層を含む第一の部分モデルや、推論対象の医用データを記憶する。記憶部10は、第一の部分モデルとして、該部分モデルに対応するネットワークと、ネットワークに対応する学習済みのパラメータを対応づけて記憶している。また、推論対象の医用データは、モダリティや外部の画像サーバから自動で転送された医用データでもよい。なお、学習済みの推論モデルの一部とは、ある層から別の層までの連続した部分を指すが、これに限らず、あるニューロンから別のニューロンまでの連続した部分や、孤立したニューロンであってもよい。また、部分モデルは、学習済みの推論モデル中の隣接しない複数の部分であってもよい。
(storage unit 10)
The storage unit 10 stores a first partial model including an input layer of a learned inference model and medical data to be inferred. The storage unit 10 associates and stores a network corresponding to the partial model and a learned parameter corresponding to the network as a first partial model. In addition, medical data to be inferred may be medical data automatically transferred from a modality or an external image server. Note that the part of the trained inference model refers to a continuous part from one layer to another layer, but is not limited to this, a continuous part from one neuron to another neuron, or an isolated neuron There may be. Also, the partial model may be a plurality of non-adjacent parts in the learned inference model.

(取得部11)
取得部11は、推論対象の医用データを記憶部10から取得し、取得した推論対象の医用データを第一の推論部12に送信する。
(Acquisition unit 11)
The acquisition unit 11 acquires inference target medical data from the storage unit 10 and transmits the acquired inference target medical data to the first inference unit 12 .

(第一の推論部12)
第一の推論部12は、記憶部10から第一の部分モデルを取得し、推論対象の医用データに対して、第一の部分モデルによる第一の推論を実施する。第一の部分モデルによる第一の推論結果を出力部13に送信する。本実施形態においては、第一の部分モデルは、学習済みの推論モデルのうち、入力層と、中間層のうちすくなくとも一部の中間層とで構成される第一の部分モデルであり、出力部13へは中間層からの出力を送信する。ここで中間層の出力とは、テンソルの情報であり、推論モデルがCNNに基づくモデルである場合には、該出力は特徴マップである。
(First reasoning unit 12)
The first inference unit 12 acquires the first partial model from the storage unit 10 and performs first inference using the first partial model on medical data to be inferred. A first inference result from the first partial model is sent to the output unit 13 . In this embodiment, the first partial model is a first partial model composed of an input layer and at least a part of the intermediate layers among the learned inference models, and the output unit 13 sends the output from the hidden layer. Here, the output of the hidden layer is tensor information, and if the inference model is a CNN-based model, the output is a feature map.

(出力部13)
出力部13は、他の情報処理装置である第二の情報処理装置3に、第一の推論結果を送信する。また推論モデルが複数ある場合は、第一の推論に用いた部分モデルが対応する推論モデルの情報を第二の情報処理装置に出力をする。
(Output unit 13)
The output unit 13 transmits the first inference result to the second information processing device 3, which is another information processing device. When there are a plurality of inference models, the information of the inference model corresponding to the partial model used in the first inference is output to the second information processing device.

(推論結果取得部14)
推論結果取得部14は、第二の情報処理装置3から推論対象の医用画像データに対する第二の推論処理の推論結果を取得する。推論結果取得部14は、推論結果を取得すると、表示制御部15に送信をする。
(Inference result acquisition unit 14)
The inference result acquisition unit 14 acquires the inference result of the second inference processing for the inference target medical image data from the second information processing device 3 . After acquiring the inference result, the inference result acquisition unit 14 transmits the inference result to the display control unit 15 .

(表示制御部15)
表示制御部15は、推論結果取得部14で取得した推論結果を表示装置に表示する制御を行う。表示装置は、情報処理装置に付属するディスプレイや外部サーバを経由した病院関係者のモバイル端末等である。
(Display control unit 15)
The display control unit 15 controls display of the inference result acquired by the inference result acquisition unit 14 on the display device. The display device is a display attached to the information processing device, a mobile terminal of a hospital official via an external server, or the like.

ここで、第一の情報処理装置2は、プロセッサ、メモリ、ストレージなどを備えたコンピュータにより構成してもよい。この場合、ストレージに格納されたプログラムをメモリにロードし、当該プログラムをプロセッサが実行することにより、記憶部10、取得部11、第一の推論部12、出力部13、推論結果取得部14、表示制御部15などの機能および処理が実現される。ただしこの構成に限らず、例えば、第一の情報処理装置2の構成の全部又は一部を、専用に設計されたプロセッサ(ASICなど)又はFPGAにより実現してもよい。あるいは、演算処理の一部をGPUやDSPなどのプロセッサで実行してもよい。また、第一の情報処理装置2は、単一のハードウェアで構成されていてもよいし、複数のハードウェアで構成されていてもよい。例えば、クラウドコンピューティングや分散コンピューティングを利用し、複数のコンピュータが協働して第一の情報処理装置2の機能および処理を実現してもよい。 Here, the first information processing device 2 may be configured by a computer including a processor, memory, storage, and the like. In this case, by loading the program stored in the storage into the memory and executing the program by the processor, the storage unit 10, the acquisition unit 11, the first inference unit 12, the output unit 13, the inference result acquisition unit 14, Functions and processes such as the display control unit 15 are realized. However, not limited to this configuration, for example, all or part of the configuration of the first information processing device 2 may be realized by a specially designed processor (such as ASIC) or FPGA. Alternatively, part of the arithmetic processing may be executed by a processor such as GPU or DSP. Further, the first information processing device 2 may be composed of a single piece of hardware, or may be composed of a plurality of pieces of hardware. For example, using cloud computing or distributed computing, a plurality of computers may work together to realize the functions and processing of the first information processing device 2 .

図3は、第一の情報処理装置2の具体的な構成の一例を示している。この例では、ローカル情報処理装置2が、CPU20、GPU21、RAM22、ROM23、記憶装置24を有しており、これらがシステムバス25で接続されている。また、ローカル情報処理装置2には、表示装置26と、マウスやキーボードなどの入力装置27とが接続されている。 FIG. 3 shows an example of a specific configuration of the first information processing device 2. As shown in FIG. In this example, the local information processing device 2 has a CPU 20 , a GPU 21 , a RAM 22 , a ROM 23 and a storage device 24 , which are connected by a system bus 25 . A display device 26 and an input device 27 such as a mouse and a keyboard are connected to the local information processing device 2 .

第一の情報処理装置2は、上述のように構成されることで、医用データの管理者である推論モデルのユーザは、推論対象の医用データを、外部の情報処理装置に送信する必要はなく、医用データのプライバシーを保護することができる。また推論モデルの提供者は、推論モデルの一部のみを第一の情報処理装置2に搭載することで、推論モデルの秘匿性を担保することができる。 Since the first information processing device 2 is configured as described above, the user of the inference model who is the administrator of the medical data does not need to transmit the medical data to be inferred to the external information processing device. , can protect the privacy of medical data. Also, the provider of the inference model can secure the confidentiality of the inference model by installing only a part of the inference model in the first information processing device 2 .

一方、第二の情報処理装置3は、第一の情報処理装置2の外部のサーバに存在し、医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく学習済みの推論モデルのうち、入力層と、中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを用いた、前記推論対象の医用データに対する該学習済みの推論モデルのうち、第一の推論処理の結果を入力として、前記推論処理のうち、第一の部分モデルを構成する層と異なる層から構成される第二の部分モデルを用いて、第二の推論処理を実施する第二の推論部71から構成される。また第二の情報処理装置は3、第二の部分モデルを記憶する記憶部70を有する。 On the other hand, the second information processing device 3 exists in a server outside the first information processing device 2, and performs inference processing on medical data. Using a first partial model composed of an input layer and at least a part of intermediate layers among intermediate layers, of the learned inference model based on the learned inference for the medical data to be inferred Using the result of the first inference process in the model as an input, the second inference process is performed using the second partial model composed of a layer different from the layer constituting the first partial model in the inference process. It is composed of a second inference unit 71 that performs processing. The second information processing apparatus also has a storage unit 70 for storing 3 second partial models.

本実施形態において、第二の部分モデルは、学習済みの推論モデルのうち、第一の推論モデルを構成する中間層と異なる中間層と、出力層とから構成される。なお、上述の部分モデルのネットワーク構成は、一例であり、部分モデルの数や情報処理装置の数は適宜変更可能である。 In this embodiment, the second partial model is composed of an intermediate layer different from the intermediate layer forming the first inference model, and an output layer, among the trained inference models. Note that the network configuration of the partial models described above is an example, and the number of partial models and the number of information processing apparatuses can be changed as appropriate.

(記憶部70)
記憶部70は、第二の部分モデルに対応するネットワークと、ネットワークに対応する学習済みのパラメータを対応づけて記憶している。なお部分モデルとは、ある層から別の層までの連続した部分を指すが、これに限らず、あるニューロンから別のニューロンまでの連続した部分や、孤立したニューロンであってもよい。また、部分モデルは、推論モデル中の隣接しない複数の部分であってもよい。
(storage unit 70)
The storage unit 70 associates and stores a network corresponding to the second partial model and a learned parameter corresponding to the network. A partial model refers to a continuous portion from one layer to another layer, but is not limited to this, and may be a continuous portion from one neuron to another neuron or an isolated neuron. A partial model may also be a plurality of non-adjacent parts in an inference model.

(第二の推論部71)
第二の推論部12は、記憶部10から第二の部分モデルを取得し、推論対象の医用データに対して、第二の部分モデルによる第二の推論を実施する。そして、第二の推論による推論結果を第一の情報処理装置2に送信する。ここで、学習済みの推論モデルの選択情報が第一の情報処理装置2から取得された場合には、該当する学習済みの推論モデルに対応する第二の部分モデルを取得し、第二の推論を実施する。ここで、本実施形態においては、第二の部分モデルが出力層を有するモデルであるため、第二の情報処理装置において、推論結果が出力される。他方で、第二の部分モデルが中間層のみから構成され、該中間層による出力を、第一の情報処理装置2に送信してもよい。
(Second reasoning unit 71)
The second inference unit 12 acquires the second partial model from the storage unit 10 and performs second inference using the second partial model on medical data to be inferred. Then, the inference result of the second inference is transmitted to the first information processing device 2 . Here, when the selection information of the learned inference model is acquired from the first information processing device 2, the second partial model corresponding to the corresponding learned inference model is acquired, and the second inference model is acquired. to implement. Here, in the present embodiment, since the second partial model is a model having an output layer, the inference result is output in the second information processing device. On the other hand, the second partial model may consist only of the intermediate layer and the output of the intermediate layer may be sent to the first information processing device 2 .

第二の情報処理装置3は、上述のように構成されることで、推論モデルの提供者は、学習済みの推論モデルの一部のみを第一の情報処理装置2に搭載し、学習済みの推論モデルの一部を自身が保有・管理する情報処理装置3内に留めておくことができ、推論モデルの秘匿性を担保することができる。 The second information processing device 3 is configured as described above, so that the provider of the inference model can install only a part of the learned inference model in the first information processing device 2 and use the learned inference model. A part of the inference model can be kept in the information processing device 3 owned and managed by itself, and the confidentiality of the inference model can be secured.

上述した、第一の情報処理装置2および第二の情報処理装置3から構成される情報処理システムによって、推論対象の医用データのプライバシーを保護しつつ、該推論対象の医用データに対して推論を行う推論モデルの秘匿性を担保することができる。 By the information processing system composed of the first information processing device 2 and the second information processing device 3 described above, while protecting the privacy of the inference target medical data, inference can be performed on the inference target medical data. The confidentiality of the inference model to be performed can be secured.

ここで、図4を用いて、本実施形態における情報処理システム1による推論工程について説明をする。 Here, the inference process by the information processing system 1 in this embodiment will be described with reference to FIG.

ステップS40において、第一の情報処理装置2における取得部11は、推論対象の医用データを取得する。取得部11は、推論対象の医用データを取得すると、取得した推論対象の医用データを第一の推論部12へ送信し、次のステップへ処理を進める。 In step S40, the acquisition unit 11 in the first information processing device 2 acquires inference target medical data. After acquiring the inference target medical data, the acquisition unit 11 transmits the acquired inference target medical data to the first inference unit 12, and proceeds to the next step.

ステップS41において、第一の情報処理装置2における第一の推論部12は、入力層と、中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを用いて、推論対象の医用データに対して、第一の推論処理を実行する。第一の推論部12は、第一の推論処理の実行後、第一の推論処理による推論結果を出力部13へ送信し、次のステップへ処理を進める。 In step S41, the first inference unit 12 in the first information processing device 2 uses a first partial model composed of an input layer and at least a part of the intermediate layers to generate an inference target. medical data, the first inference processing is executed. After executing the first inference processing, the first inference unit 12 transmits the inference result of the first inference processing to the output unit 13, and proceeds to the next step.

ステップS42において、第一の情報処理装置2における出力部13は、第一の推論による推論結果を第二の情報処理装置2へ出力し、次のステップへ処理を進める。 In step S42, the output unit 13 in the first information processing device 2 outputs the inference result of the first inference to the second information processing device 2, and proceeds to the next step.

ステップS43において、第二の情報処理装置3における第二の推論部71は、第一の部分モデルを構成する層と異なる層から構成される第二の部分モデルを用いて、第二の推論処理を実施する。本実施形態において、第二の部分モデルは、推論モデルのうち、第一の部分モデルを構成する中間層とは異なる中間層を含み構成される。また第二の部分モデルは、さらに出力層を有し、推論対象の医用データに対して推論結果を出力する。第二の推論部71は、推論対象の医用データに対する推論結果を第一の情報処理装置2に送信すると次のステップへ処理を進める。 In step S43, the second inference unit 71 in the second information processing device 3 performs second inference processing using a second partial model configured from a layer different from the layer configuring the first partial model. to implement. In this embodiment, the second partial model includes an intermediate layer of the inference model that is different from the intermediate layer that forms the first partial model. The second partial model further has an output layer, and outputs an inference result for inference target medical data. The second inference unit 71 advances the processing to the next step after transmitting the inference result for the medical data to be inferred to the first information processing device 2 .

なお、第二の推論部71は、第二の推論処理による推論結果を記憶部70に記憶し、外部からのアクセスに応じて推論結果を提示してもよい。また出力先は、第一の情報処理装置2に限られず、指定された情報端末や、連絡先に該結果を送信してもよい。 The second inference unit 71 may store the inference result of the second inference process in the storage unit 70 and present the inference result in response to access from the outside. Moreover, the output destination is not limited to the first information processing apparatus 2, and the result may be transmitted to a designated information terminal or a contact.

ステップS44において、第一の情報処理装置2における推論結果取得部14は、第二の情報処理装置3の第二の推論部71より第二の推論結果を取得する。推論結果取得部14は、第二の推論結果を取得すると、表示制御部15へ第二の推論結果を送信し、次のステップへ処理を進める。 In step S<b>44 , the inference result acquisition unit 14 in the first information processing device 2 acquires the second inference result from the second inference unit 71 in the second information processing device 3 . After acquiring the second inference result, the inference result acquisition unit 14 transmits the second inference result to the display control unit 15, and proceeds to the next step.

ステップS45において、表示制御部15は、推論対象の医用データに対する推論結果を表示装置25に表示させる。表示装置25に表示される推論結果は、推論対象の医用データに対して、第一の情報処理装置2と第二の情報処理装置3による一連の推論処理(第一の推論処理及び第二の推論処理)を行った推論結果である。 In step S45, the display control unit 15 causes the display device 25 to display the inference result for the inference target medical data. The inference result displayed on the display device 25 is a series of inference processing (first inference processing and second inference processing).

表示制御部15は、推論対象の医用データと、推論結果を対応付けて表示させてもよいし、該推論に用いられた推論モデルの情報等を表示してもよい。 The display control unit 15 may display the medical data to be inferred and the inference result in association with each other, or may display the information of the inference model used for the inference.

よって、本情報処理システム1は、推論対象の医用データのプライバシーを保護しつつ、該推論対象の医用データに対して推論を行う推論モデルの秘匿性を担保しながらも、推論を実施することができる。 Therefore, the information processing system 1 can perform inference while protecting the privacy of inference-targeted medical data and ensuring the confidentiality of an inference model that performs inference on the inference-targeted medical data. can.

[第2の実施形態]
第1の実施形態では、医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく学習済みの推論モデルのうち、入力層と、中間層の一部の中間層とで構成される第一の部分モデルを有する第一の情報処理装置2と、学習済みの推論モデルのうち、第一の部分モデルとは異なる層から構成される第二の部分モデルを有する第二の情報処理装置3から構成される情報処理システムについて説明をした。
[Second embodiment]
In the first embodiment, of a trained inference model based on a neural network that performs inference processing on medical data and is composed of an input layer, an intermediate layer, and an output layer, the input layer and part of the intermediate layer and a second partial model composed of a layer different from the first partial model among the learned inference models. The information processing system comprising the second information processing device 3 having the .

本実施形態では、第一の情報処理装置2が、出力層を含む第三の部分モデルを用いて推論を行う第三の推論部をさらに有し、第一の情報処理装置側に出力することができる情報処理システムの構成について図5を用いて説明をする。また図6を用いて、本実施形態における推論モデルについて説明する。 In this embodiment, the first information processing device 2 further includes a third inference unit that performs inference using a third partial model including an output layer, and outputs to the first information processing device side. The configuration of an information processing system capable of An inference model in this embodiment will be described with reference to FIG.

なお、ここでは特に第1の実施形態との差異について説明し、重複部分に関しては適宜割愛をして説明をする。 It should be noted that differences from the first embodiment will be particularly described here, and overlapping portions will be omitted as appropriate.

本実施形態における情報処理システム1は、第一の実施形態と同様に、第一の情報処理装置2、第二の情報処理装置3、それぞれの情報処理装置を通信可能に接続するネットワーク4から構成される。また情報処理システム1は、3つの部分モデルから構成される。 An information processing system 1 according to the present embodiment includes a first information processing device 2, a second information processing device 3, and a network 4 that communicably connects the respective information processing devices, as in the first embodiment. be done. The information processing system 1 is also composed of three partial models.

ユーザ側にある第一の情報処理装置2には、医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく学習済みの推論モデルのうち、入力層と、中間層のうち一部の中間層とで構成される第一の部分モデルとさらに、中間層のうち一部の中間層と、出力層とで構成される第三の部分モデルを有する。 The first information processing device 2 on the user side has an input layer of a trained inference model based on a neural network that performs inference processing on medical data and is composed of an input layer, an intermediate layer, and an output layer. and a part of the intermediate layers, and further a third partial model composed of a part of the intermediate layers and an output layer.

一方で、推論モデルの管理者側にある第二の情報処理装置3には、推論モデルの中間層のうち、第一の部分モデルの中間層と、第三の部分モデルの中間層との間の中間層のすくなくとも一部から構成される第二の部分モデルを有する。なお、部分モデルの数は可変であり、入力層を有する部分モデルと、出力層を有する部分モデルが、推論対象の医用データを管理する権限を有したユーザ側にある第一の情報処理装置2に備わっていればよい。また第一の情報処理装置2に関しても、ユーザ側で管理されている情報処理装置であれば、その数も問わない。 On the other hand, in the second information processing device 3 on the inference model manager side, among the intermediate layers of the inference model, between the intermediate layer of the first partial model and the intermediate layer of the third partial model has a second partial model consisting of at least part of the intermediate layer of Note that the number of partial models is variable, and the partial model having the input layer and the partial model having the output layer are the first information processing device 2 on the user side who has the authority to manage medical data to be inferred. should be prepared for As for the first information processing apparatus 2, the number thereof does not matter as long as the information processing apparatus is managed by the user.

本情報処理システム1によって、推論対象の医用データのプライバシーを保護しながら、該医用データに対する推論モデルの秘匿性を担保できるだけでなく、推論結果に関してもユーザ側で出力されることになるため、推論結果に関するプライバシーに関しても保護することができる。 With this information processing system 1, it is possible not only to secure the confidentiality of the inference model for the medical data while protecting the privacy of the inference target medical data, but also to output the inference results on the user side. Privacy regarding results can also be protected.

例えば、推論モデルが高画質化を実施するような場合には、出力層がユーザ側でない情報処理装置にあった場合に、推論対象の医用データを高画質化した画像が第二の情報処理装置3で生成されるため、医用データのプライバシーの保護が難しい。よって、出力層を有する部分モデルを第一の情報処理装置2が有し、該部分モデルを用いた推論を行うことで出力に対するプライバシーを保護できる。 For example, in the case where the inference model implements high image quality, if the output layer is in an information processing device that is not on the user side, the image obtained by improving the image quality of the medical data to be inferred is sent to the second information processing device. 3, it is difficult to protect the privacy of medical data. Therefore, the first information processing device 2 has a partial model having an output layer, and the privacy of the output can be protected by performing inference using the partial model.

本実施形態に係る情報処理装置1は、記憶部10、取得部11、第一の推論部12、出力部13、推論結果取得部14、表示制御部15と、さらに上述した第三の部分モデルを用いて、第三の推論を行う第三の推論部51を少なくとも有する。 The information processing apparatus 1 according to this embodiment includes a storage unit 10, an acquisition unit 11, a first inference unit 12, an output unit 13, an inference result acquisition unit 14, a display control unit 15, and the third partial model described above. It has at least a third inference unit 51 that performs a third inference using

また本実施形態に係る情報処理装置2は、記憶部70と、第二の推論部71とを含み構成される。なお、第二の推論部71で用いられる第二の部分モデルは、学習済みの推論モデルのうち、第一の部分モデルの中間層と、第三の部分モデルの中間層との間にある中間層から構成されるネットワークから構成される。 The information processing apparatus 2 according to this embodiment also includes a storage unit 70 and a second inference unit 71 . The second partial model used in the second inference unit 71 is an intermediate layer between the intermediate layer of the first partial model and the intermediate layer of the third partial model among the learned inference models. It consists of a network composed of layers.

以下、図7を用いて、本実施形態における推論工程について説明する。 The inference process in this embodiment will be described below with reference to FIG.

ステップS42までは、実施形態1と同様のフローのため説明を割愛する。 Since the flow up to step S42 is the same as that of the first embodiment, the explanation is omitted.

ステップS73において、第二の情報処理装置3は、第一の推論部12による推論結果を入力として、第二の部分モデルを用いて第二の推論を実施する。第二の部分モデルは、学習済みの推論モデルのうち、第一の部分モデルの中間層と、第三の部分モデルの中間層との間にある中間層から構成されるネットワークから構成される。第二の推論部71は、第二の推論の結果として、第二の部分モデルによる中間層からの出力を第一の情報処理装置に送信すると、次のステップへ処理を進める。 In step S<b>73 , the second information processing device 3 receives the inference result of the first inference unit 12 as input and performs second inference using the second partial model. The second partial model is composed of a network composed of intermediate layers between the intermediate layer of the first partial model and the intermediate layer of the third partial model among the learned inference models. When the second inference unit 71 transmits the output from the intermediate layer based on the second partial model as the result of the second inference to the first information processing device, the process proceeds to the next step.

ステップS74において、第一の情報処理装置2における第三の推論部51は、第二の推論結果を入力として、第三の部分モデルを用いた第三の推論を行う。第三の推論部51は、第三の推論の結果を推論結果取得部14へ送信し、次のステップへ処理を進める。 In step S74, the third inference unit 51 in the first information processing device 2 receives the second inference result and makes a third inference using the third partial model. The third inference unit 51 transmits the result of the third inference to the inference result acquisition unit 14, and proceeds to the next step.

ステップS75において、推論結果取得部14は、第三の推論結果を推論対象の医用データに対する推論結果として取得し、取得した推論結果を表示制御部15へ送信する。 In step S<b>75 , the inference result acquisition unit 14 acquires the third inference result as the inference result for the inference target medical data, and transmits the acquired inference result to the display control unit 15 .

ステップS45は説明を省略するが、表示装置25に表示される推論結果は、推論対象の医用データに対して、第一の情報処理装置2と第二の情報処理装置3による一連の推論処理(第一の推論処理、第二の推論処理及び第三の推論処理)を行った推論結果である。 Although the explanation of step S45 is omitted, the inference result displayed on the display device 25 is a series of inference processes ( (first inference processing, second inference processing, and third inference processing).

本実施形態によって、推論対象の医用データのプライバシーを保護しながら、該医用データに対する推論モデルの秘匿性を担保できるだけでなく、推論結果に関するプライバシーも保護しながら推論処理を実施することができる。 According to this embodiment, while protecting the privacy of inference target medical data, it is possible not only to secure the confidentiality of an inference model for the medical data, but also to perform inference processing while protecting the privacy of inference results.

以下、第3の実施形態および第4の実施形態において、本発明における推論モデルの学習工程に関して説明をする。なお、上述までの推論工程において用いられる推論モデルは、第3の実施形態、第4の実施形態の学習工程を経て生成される推論モデルに限られない。また、以降の実施形態における推論モデルとは、学習処理がされていない推論モデルであっても、学習処理がされた学習済みの推論モデルであってもよい。 In the third and fourth embodiments, the inference model learning process in the present invention will be described below. Note that the inference model used in the inference process described above is not limited to the inference model generated through the learning process of the third and fourth embodiments. Further, the inference model in the following embodiments may be an inference model that has not undergone learning processing or a learned inference model that has undergone learning processing.

[第3の実施形態]
第3の実施形態において、図8を用いて、本発明の情報処理システム800を学習する構成について説明をする。情報処理システム800は、推論モデルのユーザ側の情報処理装置である第一の情報処理装置900と、推論モデルの提供者側の情報処理装置である第二の情報処理装置1000と、情報処理装置間をつなぐネットワーク1100から構成される。また図9を用いて、それぞれの情報処理装置に対応する推論モデルのネットワーク構成について説明をする。
[Third embodiment]
In the third embodiment, a configuration for learning an information processing system 800 of the present invention will be described with reference to FIG. The information processing system 800 includes a first information processing device 900 that is an information processing device on the user side of the inference model, a second information processing device 1000 that is an information processing device on the side of the provider of the inference model, and an information processing device. It consists of a network 1100 connecting between them. A network configuration of an inference model corresponding to each information processing device will be described with reference to FIG.

第一の情報処理装置900は、医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルのうち、該入力層と、該中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを有する。また第二の情報処理装置1000は、推論モデルのうち第一の部分モデルを構成する層と異なる層から構成される第二の部分モデルを有する第二の部分モデルと有する。また本実施形態において、第二の部分モデルは、中間層の一部と、出力層とから構成される部分モデルである。このように、入力層を含む第一の部分モデルを、ユーザ側の第一の情報処理装置900に設け、推論モデルの一部である第二の部分モデルを推論モデルの提供者側の第二の情報処理装置1000に設けることによって、医用データのプライバシーを保護しながら推論モデルの秘匿性を担保した上で、推論モデルの学習処理を実施することができる。またここで、第一の部分モデルは、公開用のネットワークとして、第二の部分モデルが秘匿用のネットワークとして構成されてもよい。モデルの提供者は、第二の部分モデルを秘匿用のネットワークとすることで、さらに推論モデルの秘匿性を高めることができる。 The first information processing device 900 performs inference processing on medical data, and includes an inference model based on a neural network that is configured from an input layer, an intermediate layer, and an output layer. It has a first partial model configured with at least a part of the intermediate layer. The second information processing apparatus 1000 also has a second partial model having a second partial model composed of a layer different from the layer constituting the first partial model in the inference model. Also, in this embodiment, the second partial model is a partial model composed of part of the intermediate layer and the output layer. In this way, the first partial model including the input layer is provided in the first information processing device 900 on the user side, and the second partial model, which is a part of the inference model, is provided in the second model of the inference model provider. is provided in the information processing apparatus 1000, the learning process of the inference model can be performed while protecting the privacy of the medical data and securing the confidentiality of the inference model. Also, here, the first partial model may be configured as a network for public use, and the second partial model as a network for confidentiality. The model provider can further enhance the confidentiality of the inference model by using a confidential network as the second partial model.

第一の情報処理装置900は、教師データや、推論モデルの情報を記憶する記憶部901を有する。さらに、記憶部900から教師データを取得する教師データ取得部902と、取得した教師データに基づいて、第一の部分モデルを学習する第一の学習部903とを含み構成される。なお、記憶部900は、推論モデルのユーザが管理する記憶装置等によって構成されてもよい。また第一の学習部903は、第一の部分モデルの学習処理が完了すると、記憶部901に学習済みの第一の部分モデルの情報を記憶する。 The first information processing device 900 has a storage unit 901 that stores teacher data and information on an inference model. Further, it includes a teacher data acquisition unit 902 that acquires teacher data from the storage unit 900 and a first learning unit 903 that learns the first partial model based on the acquired teacher data. Note that the storage unit 900 may be configured by a storage device or the like managed by the user of the inference model. Further, when the learning process of the first partial model is completed, the first learning unit 903 stores the information of the learned first partial model in the storage unit 901 .

第二の情報処理装置1000は、推論モデルの情報を記憶する記憶部1001と、第二の部分モデルを学習する第二の学習部1002とを有する。 The second information processing device 1000 has a storage unit 1001 that stores information on an inference model, and a second learning unit 1002 that learns a second partial model.

ここで、学習部が行う学習処理とは、教師データを部分モデルに順伝播させ、誤差逆伝播法によって取得した誤差情報を用いて、部分モデルのパラメータを更新することを指す。また教師データとは、学習データと正解ラベルから構成され、学習データは例えば医用画像データで、正解ラベルは、該医用画像データに写り込んでいる対象を示す情報である。また正解ラベルは、画素ごとに写り込んでいる対象が何かを示した正解画像データとして設定されてもよい。また第一の情報処理装置900は、第二の情報処理装置900に対して、モデルの選択情報を送信することで、第一の部分モデルと第二の部分モデルのすくなくとも一方が複数存在する場合においても、適切なモデルを選択することができる。 Here, the learning process performed by the learning unit refers to forward propagation of teacher data to the partial model, and updating of the parameters of the partial model using error information obtained by the error backpropagation method. The teacher data is composed of learning data and a correct label. The learning data is, for example, medical image data, and the correct label is information indicating an object appearing in the medical image data. Also, the correct label may be set as correct image data indicating what an object is captured in each pixel. Further, the first information processing device 900 transmits the model selection information to the second information processing device 900, so that when at least one of the first partial model and the second partial model exists in plural, Also in , an appropriate model can be selected.

以下、図10のフローチャートを用いて、本実施形態における情報処理システム800の学習工程の一例について説明をする。 An example of the learning process of the information processing system 800 according to this embodiment will be described below with reference to the flowchart of FIG.

ステップS50において、教師データ取得部902は、学習データと正解ラベルが対になった教師データを記憶部901より取得する。教師データ取得部902は、学習データの情報を第一の学習部903へと送信し、正解ラベルを第二の情報処理装置1000へ送信すると次のステップへと処理を進める。 In step S50, the teacher data acquisition unit 902 acquires from the storage unit 901 teacher data in which the learning data and the correct label are paired. The teacher data acquisition unit 902 transmits the information of the learning data to the first learning unit 903 and the correct label to the second information processing device 1000, and proceeds to the next step.

ステップS51において、第一の学習部903は、教師データ取得部902から送信された学習データと、記憶部901から第一の部分モデルの情報を取得する。ここで、第一の学習部903は、第二の情報処理装置1000へ、取得した第一の部分モデルを示す情報を送信してもよい。 In step S<b>51 , the first learning unit 903 acquires the learning data transmitted from the teacher data acquisition unit 902 and the information of the first partial model from the storage unit 901 . Here, the first learning unit 903 may transmit information indicating the acquired first partial model to the second information processing apparatus 1000 .

ステップS52において、第二の学習部1002は、記憶部1001から第二の部分モデルの情報と、教師データ取得部902から正解ラベルの情報とを取得する。 In step S<b>52 , the second learning unit 1002 acquires the information of the second partial model from the storage unit 1001 and the information of the correct label from the teacher data acquisition unit 902 .

ステップS53において、第一の学習部903は、学習データを第一の部分モデルへ入力して順伝播させ、学習工程の一部である第一の学習処理を実施する。第一の学習処理が終了すると、第一の学習処理によって生成されたデータ、例えばテンソルを、第二の学習部1002へと送信する。 In step S53, the first learning unit 903 inputs the learning data to the first partial model, forward propagates it, and performs the first learning process, which is a part of the learning process. When the first learning process ends, the data generated by the first learning process, such as tensors, is sent to the second learning unit 1002 .

ステップS54において、第二の学習部1002は、第一の学習部903から送信されたパラメータを第二の部分モデルへ入力し順伝播させ、学習工程の一部である第二の学習処理を実施する。 In step S54, the second learning unit 1002 inputs the parameters transmitted from the first learning unit 903 to the second partial model, forward propagates them, and executes the second learning process, which is a part of the learning process. do.

ステップS55において、第二の学習部1002は、出力層をネットワーク構成に含む第二の部分モデルによる順伝播による第二の部分モデルの出力と、正解ラベルとを比較し、損失関数を用いて誤差の情報を取得する。また第二の学習部1002は、ここで、学習が完了したか否かを判定する。第二の学習部1002は、算出した誤差の情報が、所定の値未満であるか、もしくは所定回数学習処理を実施したか等によって、当該学習処理の終了を判定する。第二の学習部1002によって、学習処理の終了と判定された場合には、フローを終了する。一方で、学習処理の継続が判定された場合には、ステップS56へと処理を進める。尚、ステップS55は、第一の学習処理の開始前に第一の学習部903によって判定されてもよい。 In step S55, the second learning unit 1002 compares the output of the second partial model by forward propagation of the second partial model including the output layer in the network configuration with the correct label, and uses the loss function to calculate the error Get information about Also, the second learning unit 1002 determines here whether or not the learning is completed. The second learning unit 1002 determines the end of the learning process depending on whether the calculated error information is less than a predetermined value or whether the learning process has been performed a predetermined number of times. When the second learning unit 1002 determines that the learning process has ended, the flow ends. On the other hand, when it is determined to continue the learning process, the process proceeds to step S56. Note that step S55 may be determined by the first learning unit 903 before starting the first learning process.

ステップS56において、第二の学習部1002は、ステップS55において算出した誤差の情報に基づいて、第二の部分モデルのパラメータを更新する。ここで、パラメータとは、例えば重みやバイアスを指す。そして、誤差情報を逆伝播(誤差逆伝播法)によって、出力層側に近い中間層から、入力層側へと誤差の情報を伝達する。第二の学習部1002は、第二の部分モデルを構成する入力層側に近い中間層からの誤差情報を、第一の学習部903へと送信すると次のステップへと処理を進める。 In step S56, the second learning unit 1002 updates the parameters of the second partial model based on the error information calculated in step S55. Here, parameters refer to weights and biases, for example. Then, the error information is transmitted from the intermediate layer close to the output layer side to the input layer side by back propagation (error back propagation method). When the second learning unit 1002 transmits the error information from the intermediate layer close to the input layer side constituting the second partial model to the first learning unit 903, the process proceeds to the next step.

ステップS57において、第一の学習部903は、第二の学習部1002から送信された誤差情報に基づいて、第一の部分モデルのパラメータを更新する。第一の部分モデルのパラメータを更新すると、ステップS53へと処理を進める。尚、ステップS55で説明をしたように、第一の学習部903がこのタイミングで、学習処理の終了を判定してもよい。 In step S<b>57 , first learning section 903 updates the parameters of the first partial model based on the error information transmitted from second learning section 1002 . After updating the parameters of the first partial model, the process proceeds to step S53. Incidentally, as described in step S55, the first learning unit 903 may determine the end of the learning process at this timing.

本発明における情報処理システム800は、このように構成されることで、医用データのプライバシーおよび推論モデルの秘匿性を担保しつつ、推論モデルの学習を行うことができる。なお、部分モデルの数は2つに限定されず、入力層を含む部分モデルが推論モデルのユーザ側の情報処理装置にあれば、本発明を適用可能である。また、推論モデルが複数ある場合には、複数の推論モデルのそれぞれに対応する部分モデルを選択する情報を第一の学習部903から、第二の学習部1002へと送信してもよい。部分モデルの選択は、ユーザによって選択されてもよいし、入力データに応じて情報処理装置によって選択されてもよい。 The information processing system 800 according to the present invention is configured in this way, so that the inference model can be learned while ensuring the privacy of the medical data and the confidentiality of the inference model. Note that the number of partial models is not limited to two, and the present invention can be applied as long as the partial model including the input layer exists in the information processing device on the user side of the inference model. Also, when there are a plurality of inference models, information for selecting a partial model corresponding to each of the plurality of inference models may be transmitted from the first learning unit 903 to the second learning unit 1002 . A partial model may be selected by the user or may be selected by the information processing device according to input data.

[第4の実施形態]
第3の実施形態では、入力層と、中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを第一の情報処理装置が有し、第一の部分モデルとは異なる層から構成される第二の部分モデルを第二の情報処理装置が有する情報処理システムにおける学習処理に関して説明をした。
[Fourth embodiment]
In the third embodiment, the first information processing device has a first partial model composed of an input layer and at least a part of the intermediate layers, which is different from the first partial model. The learning process in the information processing system in which the second information processing device has the second partial model composed of layers has been described.

本実施形態では、さらに、少なくとも第一の部分モデルと第二の部分モデルとは異なる中間層と、出力層とを含み構成される第三の部分モデルを第一の情報処理装置が有する情報処理システムの学習について図11を用いて説明をする。また本実施形態における推論モデルのネットワーク構成について図12を用いて説明をする。尚、第三の実施形態との重複部分に関しては、適宜説明を省略して説明をする。 In this embodiment, the first information processing apparatus further includes a third partial model including at least an intermediate layer different from the first partial model and the second partial model, and an output layer. Learning of the system will be explained with reference to FIG. Also, the network configuration of the inference model in this embodiment will be described with reference to FIG. Note that the description of the overlapping parts with the third embodiment will be omitted as appropriate.

本実施形態にかかる情報処理システム1200は、推論モデルのユーザ側の情報処理装置である第一の情報処理装置1300と、推論モデルの提供者側の情報処理装置である第二の情報処理装置1400と、情報処理装置間をつなぐネットワーク1100から構成される。 An information processing system 1200 according to this embodiment includes a first information processing device 1300 that is an information processing device on the user side of an inference model, and a second information processing device 1400 that is an information processing device on the side of the provider of an inference model. and a network 1100 connecting the information processing apparatuses.

第一の情報処理装置1300は、医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルのうち、該入力層と、該中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを有する。さらに、第一の情報処理装置1300は、推論モデルのうち、すくなくとも出力層を含む第三の部分モデルを有する。 The first information processing device 1300 performs inference processing on medical data, and in an inference model based on a neural network composed of an input layer, an intermediate layer, and an output layer, the input layer and the intermediate layer It has a first partial model configured with at least a part of the intermediate layer. Furthermore, the first information processing device 1300 has a third partial model of the inference model that includes at least the output layer.

第二の情報処理装置1400は、推論モデルの中間層のうち、すくなくとも一部の中間層から構成される第二の部分モデルを有する。 The second information processing device 1400 has a second partial model composed of at least a part of the intermediate layers of the inference model.

本実施形態の構成によって、さらに出力層を構成に含む第三の部分モデルを第一の情報処理装置1300が有することで、教師データを構成する、学習データおよび正解ラベルを第二の情報処理装置1400に送信しなくとも推論モデルの学習処理を実施することができる。さらに、推論モデルの提供者は、推論モデルを構成する中間層のうち、少なくとも一部の中間層を含む第二の部分モデルを有することによって、推論モデルの秘匿性を担保することができる。尚、本実施形態は、入力層を含む部分モデルと、出力層を含む部分モデルが第一の情報処理装置1300にあれば、部分モデルの数や情報処理装置の数等は、適宜設計可能である。 According to the configuration of this embodiment, the first information processing apparatus 1300 has a third partial model that further includes an output layer. Inference model learning processing can be performed without sending to 1400 . Furthermore, the provider of the inference model can secure the confidentiality of the inference model by having a second partial model including at least a part of the intermediate layers constituting the inference model. In this embodiment, if the first information processing apparatus 1300 has a partial model including an input layer and a partial model including an output layer, the number of partial models, the number of information processing apparatuses, and the like can be appropriately designed. be.

第一の情報処理装置1300は、教師データや、推論モデルの情報を記憶する記憶部1301を有する。また記憶部1301から教師データを取得する教師データ取得部902と、取得した教師データに基づいて、第一の部分モデルを学習する第一の学習部1303と、第三の部分モデルを学習する第三の学習部と、を含み構成される。 The first information processing device 1300 has a storage unit 1301 that stores teacher data and information on an inference model. Also, a teacher data acquisition unit 902 that acquires teacher data from the storage unit 1301, a first learning unit 1303 that learns the first partial model based on the acquired teacher data, and a third model that learns the third partial model. and three learning units.

第二の情報処理装置1400は、推論モデルの情報を記憶する記憶部1001と、第二の部分モデルを学習する第二の学習部とを含み構成される。 The second information processing device 1400 includes a storage unit 1001 that stores information on an inference model, and a second learning unit that learns a second partial model.

ここで、学習処理とは、教師データを構成する学習データを部分モデルに順伝播させ、正解ラベルと出力層による出力値との誤差情報を逆伝播(誤差逆伝播法)することで、部分モデルのパラメータを更新する一連の処理を示す。また教師データは、学習データと正解ラベルから構成される。 Here, the learning process means forward propagation of the learning data that constitutes the teacher data to the partial model, and back propagation of the error information between the correct label and the output value from the output layer (error backpropagation method). shows a series of processes for updating the parameters of The training data consists of learning data and correct labels.

以下、図13のフローチャートを用いて、本実施形態における情報処理システム800の学習工程の一例について説明をする。尚、ここでは、図10との特に差分について説明をする。 An example of the learning process of the information processing system 800 according to this embodiment will be described below with reference to the flowchart of FIG. 13 . Here, especially the difference from FIG. 10 will be explained.

ステップS130において、第三の学習部1304は、記憶部1301より第三の部分モデルの情報と、教師データ取得部1302より、正解ラベルの情報を取得する。 In step S<b>130 , the third learning unit 1304 acquires third partial model information from the storage unit 1301 and correct label information from the teacher data acquisition unit 1302 .

ステップS132において、第二の学習部1402は、第一の学習部903から送信されたパラメータを第二の部分モデルへ入力し順伝播させ、学習工程の一部である第二の学習処理を実施する。 In step S132, the second learning unit 1402 inputs the parameters transmitted from the first learning unit 903 to the second partial model, forward propagates them, and performs the second learning process, which is a part of the learning process. do.

ステップS133において、第三の学習部1304は、第二の学習部1402から送信されたパラメータを第三の部分モデルへ入力し順伝播させ、学習工程の一部である第三の学習処理を実施する。 In step S133, the third learning unit 1304 inputs the parameters transmitted from the second learning unit 1402 to the third partial model, forward propagates them, and executes the third learning process, which is a part of the learning process. do.

ステップS134において、第三の学習部1304は、出力層をネットワーク構成に含む第三の部分モデルによる順伝播による第三の部分モデルの出力と、正解ラベルとを比較し、損失関数を用いて誤差の情報を取得する。また第三の学習部1304は、ここで、学習が完了したか否かを判定する。第三の学習部1304は、学習の完了を、算出した誤差の情報が、所定の値未満であるか、もしくは所定回数の学習処理を実施したか等によって、当該学習処理の終了を判定する。第三の学習部1304によって、学習処理の終了と判定された場合には、フローを終了する。一方で、第三の学習部1304によって学習処理の継続が判定された場合には、ステップS53へと処理を進める。尚、ステップS134における学習処理の終了判定は、第一の学習処理の開始前に第一の学習部1303によって判定されてもよい。 In step S134, the third learning unit 1304 compares the output of the third partial model by forward propagation of the third partial model including the output layer in the network configuration with the correct label, and uses the loss function to calculate the error Get information about Also, the third learning unit 1304 determines here whether or not the learning is completed. The third learning unit 1304 determines completion of the learning process based on whether the calculated error information is less than a predetermined value or whether the learning process has been performed a predetermined number of times. When the third learning unit 1304 determines that the learning process has ended, the flow ends. On the other hand, when the third learning unit 1304 determines to continue the learning process, the process proceeds to step S53. Note that the end determination of the learning process in step S134 may be determined by the first learning unit 1303 before the start of the first learning process.

ステップS135において、第三の学習部1304は、ステップS134において算出した誤差の情報に基づいて、第三の部分モデルのパラメータを更新する。ここで、パラメータとは、例えば重みやバイアスを指す。第三の学習部1304は、誤差情報を逆伝播によって、出力層側に近い中間層から、入力層側へと誤差の情報を伝達する。第三の学習部1304は、第三の部分モデルを構成する入力層側に近い中間層からの誤差情報を、第二の学習部1402へと送信すると次のステップへと処理を進める。 In step S135, the third learning unit 1304 updates the parameters of the third partial model based on the error information calculated in step S134. Here, parameters refer to weights and biases, for example. The third learning unit 1304 transmits the error information from the intermediate layer close to the output layer side to the input layer side by backpropagation of the error information. When the third learning unit 1304 transmits the error information from the intermediate layer close to the input layer side constituting the third partial model to the second learning unit 1402, the process proceeds to the next step.

ステップS136において、第二の学習部1402は、第三の学習部1304から送信された誤差の情報に基づいて、第二の部分モデルのパラメータを更新する。第二の学習部1402は、誤差情報を逆伝播によって、出力層側に近い中間層から、入力層側へと誤差の情報を伝達し、入力層側に近い中間層からの出力を第一の学習部1303へと送信すると次のステップへと処理を進める。 In step S<b>136 , second learning section 1402 updates the parameters of the second partial model based on the error information transmitted from third learning section 1304 . The second learning unit 1402 transmits the error information from the intermediate layer close to the output layer side to the input layer side by backpropagation of the error information, and transfers the output from the intermediate layer close to the input layer side to the first After transmitting to the learning unit 1303, the process proceeds to the next step.

ステップS137において、第一の学習部1303は、第二の学習部1402から送信された誤差情報に基づいて、第一の部分モデルのパラメータを更新する。第一の部分モデルのパラメータを更新すると、ステップS53へと処理を進める。尚、ステップS134で説明をしたように、第一の学習部1303がこのタイミングで、学習処理の終了を判定してもよい。 In step S<b>137 , first learning section 1303 updates the parameters of the first partial model based on the error information transmitted from second learning section 1402 . After updating the parameters of the first partial model, the process proceeds to step S53. Incidentally, as described in step S134, the first learning unit 1303 may determine the end of the learning process at this timing.

本発明における情報処理システム1200は、このように構成されることで、医用データのプライバシーおよび推論モデルの秘匿性を担保しつつ、推論モデルの学習処理を行うことができる。さらに教師データを構成する学習データおよび正解ラベルを推論モデルのユーザ側の情報処理装置から送信する必要がなく、より医用データの秘匿性を担保できる。 The information processing system 1200 according to the present invention is configured in this way, so that the inference model learning process can be performed while ensuring the privacy of the medical data and the confidentiality of the inference model. Furthermore, it is not necessary to transmit the learning data and the correct label that constitute the training data from the information processing device on the user side of the inference model, so that the confidentiality of the medical data can be further ensured.

なお、第3の実施形態および第4の実施形態によって、学習された推論モデルを第1の実施形態および第2の実施形態における推論処理を行う推論モデルとしてもよい。また、推論処理を行う推論モデルの追加学習の手法としても第3および第4の学習処理は有効である。 Note that the inference model learned by the third and fourth embodiments may be used as the inference model that performs the inference processing in the first and second embodiments. Also, the third and fourth learning processes are effective as a technique for additional learning of an inference model that performs inference processes.

[変形例1]
本変形例は、第3の実施形態および第4の実施形態において、適用が可能である。上述の学習処理においては、推論モデルを構成する部分モデルのパラメータを更新する学習処理について説明をしたが、一部の部分モデルのみのパラメータの更新を目的とした追加学習を実施してもよい。例えば、第二の部分モデルのパラメータを固定し、第一の部分モデルのパラメータを更新することや、第一の部分モデルのパラメータを固定し、第二の部分モデルのパラメータを更新することが挙げられる。
[Modification 1]
This modification can be applied to the third embodiment and the fourth embodiment. In the learning process described above, the learning process for updating the parameters of the partial models that make up the inference model has been described, but additional learning may be performed for the purpose of updating the parameters of only some of the partial models. For example, fixing the parameters of the second partial model and updating the parameters of the first partial model, or fixing the parameters of the first partial model and updating the parameters of the second partial model. be done.

第一の学習部903が第一の部分モデルのパラメータを更新し、第二の学習部1002が第二の部分モデルのパラメータを更新しない場合には、推論モデルのユーザにとって、第一の部分モデルを、自身が入力したいデータ等に応じてカスタマイズした学習処理をすることができる。例えば、第一の学習部903が第一の部分モデルに対して医用データを取得するモダリティの特性や、特定の撮影範囲等に特化した追加学習を行い、一方で、モデルの提供者にとって意図しないモデルの改変を防ぐ効果がある。 If the first learning unit 903 updates the parameters of the first partial model and the second learning unit 1002 does not update the parameters of the second partial model, the first partial model can be customized according to the data you want to input. For example, the first learning unit 903 performs additional learning specialized for the characteristics of the modality for acquiring medical data, a specific imaging range, etc. for the first partial model. This has the effect of preventing unintended modification of the model.

第二の学習部1002が第二の部分モデルのパラメータを更新し、第一の学習部903が第一の部分モデルのパラメータを更新しない場合には、推論モデルの提供者の管理下にある第二の部分モデルの精度やロバスト性の向上が期待できる。 When the second learning unit 1002 updates the parameters of the second partial model and the first learning unit 903 does not update the parameters of the first partial model, the first model under the control of the provider of the inference model It can be expected to improve the accuracy and robustness of the second partial model.

また上述の追加学習によって、第一の部分モデル、第二の部分モデルが複数作成されてもよいし、複数の部分モデルを適宜組み合わせて利用してもよい。 Further, by the additional learning described above, a plurality of first partial models and second partial models may be created, or a plurality of partial models may be appropriately combined and used.

[変形例2]
上述の学習処理においては、出力層を含み構成される部分モデルが第一の情報処理装置にある場合と、第二の情報処理装置にある場合について説明をした。
[Modification 2]
In the learning process described above, the case where the partial model configured including the output layer is in the first information processing device and the case where it is in the second information processing device have been described.

本変形例では、推論モデルの出力に応じて、出力層を含む部分モデルを推論モデルのユーザ側の情報処理装置におくか、推論モデルの提供者側におくかを設定する構成について説明をする。 In this modified example, a configuration will be described in which whether the partial model including the output layer is to be placed in the information processing device on the user side of the inference model or in the provider side of the inference model is set according to the output of the inference model. .

例えば、推論モデルの出力が、入力データの高解像度化等の入力された学習データと同等の出力を行う場合には、出力層を含む推論モデルを推論モデルのユーザ側の情報処理装置に置く。一方で、出力が、医用データをクラス分類や検出を行う推論モデルの場合には、出力層を含む推論モデルを推論モデルの提供者側の情報処理装置に置く。推論モデルの出力に応じて、部分モデルを構成することで、マシンリソースや、医用データの秘匿性のバランスをとりながら学習処理を実施することができる。尚、推論モデルの出力に応じた部分モデルを構成することは、推論処理においても有効である。例えば、複数の第一のモデルから、推論対象の医用データに応じて、第一の推論を行う第一の部分モデルが選択されてもよいし、複数の第二の部分モデルから、推論対象の医用データに応じて、第二の推論を行う第二の分類モデルが選択されてもよい。 For example, if the output of the inference model is equivalent to the input learning data, such as increasing the resolution of the input data, the inference model including the output layer is placed in the information processing device on the user side of the inference model. On the other hand, when the output is an inference model for classifying and detecting medical data, the inference model including the output layer is placed in the information processing device of the inference model provider. By constructing a partial model according to the output of the inference model, learning processing can be performed while balancing machine resources and confidentiality of medical data. It should be noted that constructing a partial model according to the output of the inference model is also effective in inference processing. For example, a first partial model that performs the first inference may be selected from a plurality of first models according to the medical data to be inferred, or a plurality of second partial models may be selected from the inference target medical data. A second classification model may be selected that makes a second inference depending on the medical data.

[変形例3]
上述の学習処理においては、誤差逆伝播法を用いて推論モデルの学習処理を行った場合を説明した。
[Modification 3]
In the above-described learning processing, the case where the inference model learning processing is performed using the error backpropagation method has been described.

本変形例では、推論モデルの学習処理において、誤差逆伝播法以外の学習方法で学習処理を行う場合について説明する。 In this modified example, in the learning process of the inference model, a case will be described in which the learning process is performed by a learning method other than the error backpropagation method.

例えば、得られるであろう勾配を各層毎に推定するモデルを学習するSynthetic Gradientのような手法や、誤差を逆伝搬する際に固定のランダム行列を使うFeedback Alignmentのような手法、誤差ではなく目標を伝搬させていくTarget Propのような手法でもよいし、その他どのような手法でもよい。 For example, a method such as Synthetic Gradient, which trains a model that estimates the expected gradient for each layer, a method such as Feedback Alignment, which uses a fixed random matrix when backpropagating the error, and a target rather than an error. A method such as Target Prop that propagates , or any other method may be used.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention is also realized by executing the following processing. That is, the software (program) that realizes the functions of the above-described embodiments is supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed.

Claims (21)

教師データの提供者が操作する第一の情報処理装置と、該第一の情報処理装置とネットワークを介して通信可能な推論モデルの提供者が管理する第二の情報処理装置と、を備え、入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルを学習する学習処理を行う情報処理システムであって、
前記第一の情報処理装置は、
教師データを取得する教師データ取得部と、
前記教師データを、前記推論モデルのうち前記入力層と、前記中間層の一部の中間層とで構成される第一の部分モデルに入力することにより第一の学習処理を行う第一の学習部を有し、
前記第二の情報処理装置は、前記第一の学習処理による出力を、前記の推論モデルのうち前記第一の部分モデルと異なる層から構成される第二の部分モデルへ入力することにより第二の学習処理を行う第二の学習部と、を有することを特徴とする情報処理システム。
a first information processing device operated by a teacher data provider; and a second information processing device managed by an inference model provider capable of communicating with the first information processing device via a network; An information processing system that performs learning processing for learning an inference model based on a neural network composed of an input layer, an intermediate layer, and an output layer,
The first information processing device is
a teacher data acquisition unit that acquires teacher data;
first learning for performing a first learning process by inputting the teacher data into a first partial model composed of the input layer of the inference model and a partial intermediate layer of the intermediate layers; has a part
The second information processing device inputs the output from the first learning process to a second partial model configured from a layer different from the first partial model in the inference model, thereby obtaining a second and a second learning unit that performs a learning process of the information processing system.
前記第一の情報処理装置が、さらに前記出力層を含む第三の部分モデルを有し、
前記第二の学習処理による出力を該第三の部分モデルへ入力することにより第三の学習処理を行う第三の学習部と、を有することを特徴とする請求項1に記載の情報処理システム。
the first information processing device further has a third partial model including the output layer;
2. The information processing system according to claim 1, further comprising a third learning unit that performs a third learning process by inputting an output from the second learning process to the third partial model. .
前記第三の学習部は、前記教師データ取得部より、該教師データを構成する正解ラベルを取得し、該正解ラベルと、前記出力層による出力とに基づいて誤差の情報を取得することを特徴とする請求項2に記載の情報処理システム。 The third learning unit is characterized in that it acquires a correct label that constitutes the teacher data from the teacher data acquisition unit, and acquires error information based on the correct label and the output from the output layer. The information processing system according to claim 2, wherein: 前記第三の学習部は、前記誤差の情報を誤差逆伝播法に基づいて、第三の部分モデルのパラメータを更新することを特徴とする請求項3に記載の情報処理システム。 4. The information processing system according to claim 3, wherein the third learning unit updates parameters of the third partial model based on error backpropagation of the error information. 前記第二の学習部は、前記第三の学習部から送信された誤差の情報に基づいて、前記第二の部分モデルのパラメータを更新し、
前記第一の学習部は、前記第二の学習部から送信された誤差の情報に基づいて、前記第一の部分モデルのパラメータを更新することを特徴とする請求項4に記載の情報処理システム。
The second learning unit updates the parameters of the second partial model based on the error information transmitted from the third learning unit,
5. The information processing system according to claim 4, wherein the first learning unit updates parameters of the first partial model based on error information transmitted from the second learning unit. .
前記第二の情報処理装置における、前記第二の部分モデルが出力層を含み、
前記第一の情報処理装置における、前記教師データ取得部より、該教師データを構成する正解ラベルを取得し、該正解ラベルと、前記出力層による出力とに基づいて誤差の情報を取得することを特徴とする請求項1に記載の情報処理システム。
In the second information processing device, the second partial model includes an output layer,
Acquiring a correct label constituting the teacher data from the teacher data acquiring unit in the first information processing device, and acquiring error information based on the correct label and the output from the output layer. 2. The information processing system according to claim 1.
前記第二の学習部は、前記誤差の情報に基づいて、前記第二の部分モデルのパラメータを更新することを特徴とする請求項6に記載の情報処理システム。 7. The information processing system according to claim 6, wherein said second learning unit updates parameters of said second partial model based on said error information. 前記第一の部分モデルが前記教師データの提供者に公開用のネットワークであり、
前記第二の部分モデルが前記教師データの提供者に秘匿用のネットワークであることを特徴とする請求項1乃至7のいずれか一項に記載の情報処理システム。
the first partial model is a network for disclosure to a provider of the training data;
8. The information processing system according to any one of claims 1 to 7, wherein said second partial model is a network for confidentiality from a provider of said training data.
前記第二の情報処理装置における、前記第二の学習部は、第二の部分モデルを、前記第一の部分モデルのパラメータを固定した追加学習により生成することを特徴とする請求項1乃至8のいずれか一項に記載の情報処理システム。 9. The second learning unit in the second information processing apparatus generates the second partial model by additional learning in which the parameters of the first partial model are fixed. The information processing system according to any one of . 前記第一の情報処理装置における、前記第一の学習部は、第一の部分モデルを、前記第二の部分モデルのパラメータを固定した追加学習により生成することを特徴とする請求項1乃至9のいずれか一項に記載の情報処理システム。 10. The first learning unit in the first information processing apparatus generates the first partial model by additional learning in which the parameters of the second partial model are fixed. The information processing system according to any one of . 前記第二の情報処理装置が、前記推論モデルの提供者によって操作される情報処理装置であることを特徴とする請求項1乃至10のいずれか一項に記載の情報処理システム。 11. The information processing system according to claim 1, wherein said second information processing device is an information processing device operated by a provider of said inference model. 前記教師データが医用データであることを特徴とする請求項1乃至11のいずれか一項に記載の情報処理システム。 12. The information processing system according to any one of claims 1 to 11, wherein said teacher data is medical data. 教師データの管理者が操作する情報処理装置であって、該情報処理装置は、
教師データを取得する教師データ取得部と、
入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルのうち、該入力層と、該中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルに対して、前記教師データを入力することにより第一の学習処理を行い、
前記推論モデルのうち前記第一の部分モデルを構成する層と異なる層から構成される第二の部分モデルを有する第二の部分モデルを有する他の装置へ出力する第一の学習部と、
を有することを特徴とする情報処理装置。
An information processing device operated by an administrator of training data, the information processing device comprising:
a teacher data acquisition unit that acquires teacher data;
Of a neural network-based inference model composed of an input layer, an intermediate layer, and an output layer, for a first partial model composed of the input layer and at least a portion of the intermediate layers , performs a first learning process by inputting the teacher data,
a first learning unit for outputting the inference model to another device having a second partial model having a second partial model composed of layers different from the layers constituting the first partial model;
An information processing device comprising:
前記情報処理装置は、さらに前記出力層を含む第三の部分モデルを有し、
前記第二の部分モデルを用いた第二の学習処理による出力を該第三の部分モデルへ入力することにより第三の学習処理を行う第三の学習部と、を有することを特徴とする請求項13に記載の情報処理装置。
The information processing device further has a third partial model including the output layer,
and a third learning unit that performs a third learning process by inputting an output from a second learning process using the second partial model to the third partial model. Item 14. The information processing device according to item 13.
前記第三の学習部は、前記教師データ取得部より、該教師データを構成する正解ラベルを取得し、該正解ラベルと、前記出力層による出力とに基づいて誤差の情報を取得し、前記第三の部分モデルのパラメータを更新することを特徴とする請求項14に記載の情報処理装置。 The third learning unit acquires a correct label constituting the teacher data from the teacher data acquisition unit, acquires error information based on the correct label and the output from the output layer, 15. The information processing apparatus according to claim 14, wherein the parameters of the three partial models are updated. 推論モデルの提供者が操作する情報処理装置であって、該情報処理装置は、
医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルのうち、該入力層と、該中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを構成する層とは異なる層から構成される、第二の部分モデルに対して、該第一の部分モデルを有する他の装置による第一の学習処理による出力を用いて第二の学習を行う第二の学習部を有することを特徴とする情報処理装置。
An information processing device operated by a provider of an inference model, the information processing device comprising:
An inference model based on a neural network that performs inference processing on medical data and is composed of an input layer, an intermediate layer, and an output layer. Using the output from the first learning process by another device having the first partial model for the second partial model composed of layers different from the layers constituting the first partial model An information processing apparatus, comprising: a second learning unit that performs second learning by using the second learning unit.
前記第二の学習部は、前記他の装置によって、算出された誤差情報に基づいて、前記第二の部分モデルのパラメータを更新することを特徴とする請求項16に記載の情報処理装置。 17. The information processing apparatus according to claim 16, wherein said second learning unit updates the parameters of said second partial model based on error information calculated by said other apparatus. 教師データを取得する教師データ取得ステップと、
入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルのうち、該入力層と、該中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルに対して、前記教師データを入力することにより第一の学習処理を行う第一の学習ステップと、を有することを特徴とする情報処理方法。
a teacher data acquisition step for acquiring teacher data;
Of a neural network-based inference model composed of an input layer, an intermediate layer, and an output layer, for a first partial model composed of the input layer and at least a portion of the intermediate layers and a first learning step of performing a first learning process by inputting the teacher data.
入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルのうち、該入力層と、該中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを構成する層とは異なる層から構成される第二の部分モデルに対して、第一の学習処理による出力を用いて第二の学習を行う第二の学習ステップを有することを特徴とする情報処理方法。 Of an inference model based on a neural network composed of an input layer, an intermediate layer, and an output layer, a first partial model composed of the input layer and at least a portion of the intermediate layers is constructed. An information processing method, comprising: a second learning step of performing second learning using an output from the first learning process on a second partial model composed of a layer different from the layer. 請求項18または19に記載の情報処理方法をコンピュータで実行させるためのプログラム。 A program for causing a computer to execute the information processing method according to claim 18 or 19. 教師データの提供者が操作する第一の情報処理装置と、該第一の情報処理装置とネットワークを介して通信可能な第二の情報処理装置とから構成される情報処理システムであって、
ニューラルネットワークは中間層において第一のニューラルネットワークと第二のニューラルネットワークとから構成され、前記第一のニューラルネットワークは前記第一の情報処理装置に記憶され、前記第二のニューラルネットワークは前記第二の情報処理装置に記憶されており、
教師データを用いて、前記第一の情報処理装置に記憶されている前記第一のニューラルネットワークと前記第二の情報処理装置に記憶されている前記第二のニューラルネットワークにおいて学習処理が行われることを特徴とする情報処理システム。
An information processing system comprising a first information processing device operated by a teacher data provider and a second information processing device capable of communicating with the first information processing device via a network,
The neural network comprises a first neural network and a second neural network in an intermediate layer, the first neural network is stored in the first information processing device, and the second neural network is the second neural network. is stored in the information processing device of
Learning processing is performed in the first neural network stored in the first information processing device and the second neural network stored in the second information processing device using teacher data. An information processing system characterized by
JP2021027606A 2021-02-24 2021-02-24 Information processing system, information processing device, information processing method, and program Active JP7661059B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021027606A JP7661059B2 (en) 2021-02-24 2021-02-24 Information processing system, information processing device, information processing method, and program
PCT/JP2022/006264 WO2022181426A1 (en) 2021-02-24 2022-02-16 Information processing system, information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021027606A JP7661059B2 (en) 2021-02-24 2021-02-24 Information processing system, information processing device, information processing method, and program

Publications (3)

Publication Number Publication Date
JP2022129061A true JP2022129061A (en) 2022-09-05
JP2022129061A5 JP2022129061A5 (en) 2024-02-29
JP7661059B2 JP7661059B2 (en) 2025-04-14

Family

ID=83049318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021027606A Active JP7661059B2 (en) 2021-02-24 2021-02-24 Information processing system, information processing device, information processing method, and program

Country Status (2)

Country Link
JP (1) JP7661059B2 (en)
WO (1) WO2022181426A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180129900A1 (en) * 2016-11-04 2018-05-10 Siemens Healthcare Gmbh Anonymous and Secure Classification Using a Deep Learning Network
JP2019153216A (en) * 2018-03-06 2019-09-12 Kddi株式会社 Learning device, information processing system, method for learning, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180129900A1 (en) * 2016-11-04 2018-05-10 Siemens Healthcare Gmbh Anonymous and Secure Classification Using a Deep Learning Network
JP2019153216A (en) * 2018-03-06 2019-09-12 Kddi株式会社 Learning device, information processing system, method for learning, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
VEPAKOMMA, PRANEETH ET AL.: ""Split learning for health: Distributed deep learning without sharing raw patient data"", ARXIV.ORG [ONLINE], vol. arXiv:1812.00564v1, JPN6022018266, 2018, US, pages 1 - 7, ISSN: 0005485134 *

Also Published As

Publication number Publication date
JP7661059B2 (en) 2025-04-14
WO2022181426A1 (en) 2022-09-01

Similar Documents

Publication Publication Date Title
JP2021056995A (en) Medical information processing apparatus, medical information processing system, and medical information processing method
KR102460257B1 (en) Method or apparatus for providing diagnostic results
US20180144244A1 (en) Distributed clinical workflow training of deep learning neural networks
JP6016406B2 (en) Medical diagnosis support apparatus, medical diagnosis support method, and input support system
US20180157928A1 (en) Image analytics platform for medical data using expert knowledge models
JP7033202B2 (en) Medical image processing equipment and methods, machine learning systems, programs and storage media
JP7058988B2 (en) Information processing equipment, information processing methods and programs
JP7485512B2 (en) Medical information processing device, medical information processing method, and medical information processing program
JP7066385B2 (en) Information processing methods, information processing equipment, information processing systems and programs
US20200082943A1 (en) Diagnosis support apparatus, diagnosis support system, diagnosis support method, and non-transitory storage medium
JP6071338B2 (en) Medical diagnosis support apparatus, medical diagnosis support method and program
US20250086785A1 (en) High-quality embeddings for medical imaging and small, easy-to-train networks for low-data tasks
KR20150140237A (en) Protocol management system (proms)
EP4049239A1 (en) Multi-variable heatmaps for computer-aided diagnostic models
CN112052955A (en) Methods for learning from data with label noise
JP6220435B2 (en) Diagnosis support apparatus and control method thereof
JP2018005317A (en) Medical data processing device, terminal device, information processing method, and system
JP7746045B2 (en) Information processing system, information processing device, information processing method and program
JP2022129061A (en) Information processing system, information processing apparatus, information processing method, and program
US12174915B1 (en) Progressive machine learning using a qualifier
JP7661060B2 (en) Information processing system, information processing device, information processing method, and program
US20240054404A1 (en) Information processing system, information processing apparatus, method for training inference model, and non-transitory storage medium
US20230162059A1 (en) Information processing system and information processing method
KR102815533B1 (en) Medical data process apparatus and method, and system for federated learning medical data
JP2017153691A (en) Diagnosis support apparatus, diagnosis support apparatus control method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250402

R150 Certificate of patent or registration of utility model

Ref document number: 7661059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150