JP2022129061A - Information processing system, information processing apparatus, information processing method, and program - Google Patents
Information processing system, information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2022129061A JP2022129061A JP2021027606A JP2021027606A JP2022129061A JP 2022129061 A JP2022129061 A JP 2022129061A JP 2021027606 A JP2021027606 A JP 2021027606A JP 2021027606 A JP2021027606 A JP 2021027606A JP 2022129061 A JP2022129061 A JP 2022129061A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- inference
- learning
- model
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioethics (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
【課題】医用データのプライバシー及び推論モデルの秘匿性を担保しつつ、推論モデルの学習を行う。【解決手段】情報処理システム800は、教師データの提供者が操作する第一の情報処理装置900と、推論モデルの提供者が管理する第二の情報処理装置1000と、を備える。第一の情報処理装置900は、教師データを取得する教師データ取得部902と、教師データを、推論モデルのうち入力層と、中間層の一部の中間層とで構成される第一の部分モデルに入力することにより第一の学習処理を行う第一の学習部903を有する。第二の情報処理装置1000は、第一の学習処理による出力を、推論モデルのうち第一の部分モデルと異なる層から構成される第二の部分モデルへ入力することにより第二の学習処理を行う第二の学習部1002と、を有する。【選択図】図8Kind Code: A1 An inference model is learned while ensuring privacy of medical data and confidentiality of the inference model. An information processing system (800) includes a first information processing device (900) operated by a teacher data provider and a second information processing device (1000) managed by an inference model provider. The first information processing device 900 includes a teacher data acquisition unit 902 that acquires teacher data, and the teacher data as a first part composed of an input layer of an inference model and an intermediate layer that is part of an intermediate layer. It has a first learning unit 903 that performs a first learning process by inputting to the model. The second information processing device 1000 performs the second learning process by inputting the output from the first learning process to the second partial model configured from a layer different from the first partial model in the inference model. and a second learning unit 1002 that performs [Selection drawing] Fig. 8
Description
本発明は、推論モデルに対して学習処理を行う情報処理システム、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing system, an information processing apparatus, an information processing method, and a program for performing learning processing on an inference model.
医用撮像装置(モダリティ)によって取得された医用画像や医療情報システムから取得した医用情報などの医用データに対して機械学習技術を適用し、所定の疾患に関する推論(疾患検出、良悪性鑑別、予後予測、リスク予測など)を行うシステムが知られている。 Machine learning technology is applied to medical data such as medical images acquired by medical imaging equipment (modality) and medical information acquired from medical information systems, and inferences about specific diseases (disease detection, benign/malignant discrimination, prognosis prediction) , risk prediction, etc.) are known.
非特許文献1には、医用画像を入力としてエンコーダ・デコーダからなるモデルを学習し、推論モデル(エンコーダ部)を使用して特徴抽出を実施する技術が開示されている。 Non-Patent Document 1 discloses a technique of learning a model consisting of an encoder/decoder using medical images as an input, and performing feature extraction using an inference model (encoder).
非特許文献1に記載の技術では、推論モデルの学習を、推論モデルの提供者側の情報処理装置で行うことになるため、推論モデルのユーザが管理する教師データを、推論モデルの提供者側の情報処理装置に送信する必要があり、プライバシーを保護することが難しい。一方で、推論モデルのユーザが管理する情報処理装置に、推論モデルがある場合には、ユーザが推論モデルを複製して第三者への頒布や、推論モデルを改変する等の不正利用を防止することが難しいため、推論モデルの秘匿性を担保することができない。 In the technique described in Non-Patent Document 1, learning of an inference model is performed by an information processing device on the side of the inference model provider. It is difficult to protect privacy because it is necessary to transmit to the information processing device of the third party. On the other hand, if the inference model is stored in an information processing device managed by the user of the inference model, it prevents the user from duplicating the inference model and distributing it to a third party, or from illegally using the inference model by altering it. Since it is difficult to do so, the confidentiality of the inference model cannot be guaranteed.
本発明は、教師データのプライバシーおよび推論モデルの秘匿性を担保しつつ、推論モデルの学習を行うことができる情報処理システムを提供することを目的とする。 An object of the present invention is to provide an information processing system capable of learning an inference model while ensuring the privacy of teacher data and the confidentiality of an inference model.
上記課題を解決するため、本発明の一態様による情報処理システムは、教師データの管理者が操作する第一の情報処理装置と、該第一の情報処理装置とネットワークを介して通信可能な第二の情報処理装置と、を備え、入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルを学習する学習処理を行う情報処理システムであって、前記第一の情報処理装置は、教師データを取得する教師データ取得部と、前記教師データを、前記推論モデルのうち前記入力層と、前記中間層の一部の中間層とで構成される第一の部分モデルに入力することにより第一の学習処理を行う第一の学習部を有し、前記第二の情報処理装置は、前記第一の学習処理による出力を、前記の推論モデルのうち前記第一の部分モデルと異なる層から構成される第二の部分モデルへ入力することにより第二の学習処理を行う第二の学習部と、を有する。 To solve the above problems, an information processing system according to one aspect of the present invention includes: a first information processing device operated by an administrator of training data; and two information processing devices, and performing a learning process for learning an inference model based on a neural network composed of an input layer, an intermediate layer and an output layer, wherein the first information processing device is a teacher data acquisition unit that acquires teacher data; and inputting the teacher data to a first partial model composed of the input layer of the inference model and an intermediate layer that is part of the intermediate layers. The second information processing device has a first learning unit that performs a first learning process by using and a second learning unit that performs a second learning process by inputting to a second partial model composed of layers.
本発明によれば、教師データのプライバシーおよび推論モデルの秘匿性を担保しつつ、推論モデルの学習を行うことができる。 According to the present invention, the inference model can be learned while ensuring the privacy of the teacher data and the confidentiality of the inference model.
本発明は、モダリティで取得した生データ(信号データ)や、生データから画像再構成によって生成された診断用の医用画像データ等の医用データに対して、好ましく適用できる。モダリティは、例えば、X線CT装置、MRI装置、SPECT装置、PET装置、心電計を含む。なお、推論対象のデータおよび教師データは、医用データのみならず、患者のプライバシーに関連する、年齢や性別、疾患情報等の情報も対象としてもよい。 The present invention can be preferably applied to medical data such as raw data (signal data) acquired by a modality and diagnostic medical image data generated by image reconstruction from raw data. Modalities include, for example, X-ray CT devices, MRI devices, SPECT devices, PET devices, and electrocardiographs. The inference target data and teacher data may be not only medical data but also information related to patient privacy, such as age, gender, and disease information.
以下、本発明の情報処理システムにおける推論モデルによる推論工程に関して、第1の実施形態および第2の実施形態で説明をする。また第3の実施形態および第4の実施形態において、本発明の情報処理システムにおける推論モデルの学習工程に関して説明をする。なお、後述するが、推論工程において用いられる推論モデルは、本発明の第3の実施形態および第4の実施形態の学習工程を経て生成される推論モデルに限らない。推論工程において用いられる推論モデルは、公知の手法もしくは、本発明に記載する学習工程によって機械学習や深層学習に基づいて学習された学習済みの推論モデルである。ここで学習済みの推論モデルとは、所定の条件を満たすように学習処理が実施されていればよく、学習済みの推論モデルを、追加学習や、転移学習、ファインチューニング等の対象として用いてもよい。故に、公知の手法において学習した学習済みの推論モデルの追加学習として、後述する学習工程による学習処理が実施されてもよいし、その逆の手順で学習処理が実施されてもよい。 An inference process based on an inference model in the information processing system of the present invention will be described below in terms of a first embodiment and a second embodiment. In the third and fourth embodiments, the inference model learning process in the information processing system of the present invention will be described. As will be described later, the inference model used in the inference process is not limited to the inference model generated through the learning process of the third and fourth embodiments of the present invention. The inference model used in the inference process is a trained inference model that has been trained based on machine learning or deep learning by a known technique or the learning process described in the present invention. Here, the learned inference model may be a learned inference model that has been subjected to a learning process that satisfies a predetermined condition. good. Therefore, as additional learning of an inference model that has already been trained by a known method, a learning process may be performed in a learning process described later, or the learning process may be performed in reverse order.
以下、添付図面を参照して本発明の好適な実施形態について説明する。 Preferred embodiments of the present invention will now be described with reference to the accompanying drawings.
[第1の実施形態]
ここで、図1を用いて、本発明の情報処理システム1について説明をする。本発明における情報処理システム1は、第一の情報処理装置2と第二の情報処理装置3と、両情報処理装置を通信可能に接続するネットワーク4から構成される。
[First embodiment]
Here, the information processing system 1 of the present invention will be explained using FIG. An information processing system 1 according to the present invention comprises a first
ここで、図2を参照しながら、本発明における情報処理システム1の構成について説明をする。情報処理システム1は、第一の情報処理装置2および第二の情報処理装置3から構成される。第一の情報処理装置2および第二の情報処理装置3は、推論対象の医用データに対して、推論処理をし、実行結果を出力する推論モデルの一部である部分モデルをそれぞれ有している。ここでの推論モデルとは、入力層、中間層、出力層から構成されるニューラルネットワークに基づく学習済みのモデルである。学習処理によって、推論結果を出力するためのパラメータを決定し、該パラメータとネットワークモデルとを対にしたモデルを推論モデルとして定義する。
Here, the configuration of the information processing system 1 according to the present invention will be described with reference to FIG. The information processing system 1 comprises a first
第一の情報処理装置2は、上述した学習済みの推論モデルのうち、入力層と、中間層のうちすくなくとも一部の中間層とで構成される第一の部分モデルを用いて第一の推論処理を実行し、第二の情報処理装置3は、上述した学習済みの推論モデルのうち、第一の部分モデルとは異なる層から構成される第二の部分モデルを用いて第二の推論を実行する。以下、各情報処理装置の構成について説明をする。
The first
ここで第一の情報処理装置2は、推論対象の医用データを管理する権限を有した推論モデルのユーザである、例えば医療従事者が操作できる情報処理装置である。一方、第二の情報処理装置3は、推論に用いる推論モデルを管理する権限を有したモデルの提供者が保有する情報処理装置である。第二の情報処理装置3は、第一の情報処理装置2の外部のサーバに存在し、ネットワーク4を介して通信可能に構成されている。
Here, the first
第一の情報処理装置2は、推論対象の医用データを取得する取得部11と、医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく学習済みの推論モデルのうち、入力層と、中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを用いて、前記推論対象の医用データに対して該推論処理のうち第一の推論処理を実施する第一の推論部12と、第一の推論処理による第一の推論結果を、前記推論処理のうち前記第一の部分モデルを構成する層と異なる層から構成される第二の部分モデルを有する他の情報処理装置である第二の情報処理装置3へと出力する出力部13とを含み構成される。
The first
また第一の情報処理装置2は、学習済みの推論モデルの一部である第一の部分モデルや、推論対象の医用データを記憶する記憶部10を有する。また他の情報処理装置である第二の情報処理装置3による第二の推論の結果を取得する推論結果取得部14と、取得した推論結果を表示装置に表示させるための表示制御部15を有する。
The first
(記憶部10)
記憶部10は、学習済みの推論モデルの入力層を含む第一の部分モデルや、推論対象の医用データを記憶する。記憶部10は、第一の部分モデルとして、該部分モデルに対応するネットワークと、ネットワークに対応する学習済みのパラメータを対応づけて記憶している。また、推論対象の医用データは、モダリティや外部の画像サーバから自動で転送された医用データでもよい。なお、学習済みの推論モデルの一部とは、ある層から別の層までの連続した部分を指すが、これに限らず、あるニューロンから別のニューロンまでの連続した部分や、孤立したニューロンであってもよい。また、部分モデルは、学習済みの推論モデル中の隣接しない複数の部分であってもよい。
(storage unit 10)
The
(取得部11)
取得部11は、推論対象の医用データを記憶部10から取得し、取得した推論対象の医用データを第一の推論部12に送信する。
(Acquisition unit 11)
The
(第一の推論部12)
第一の推論部12は、記憶部10から第一の部分モデルを取得し、推論対象の医用データに対して、第一の部分モデルによる第一の推論を実施する。第一の部分モデルによる第一の推論結果を出力部13に送信する。本実施形態においては、第一の部分モデルは、学習済みの推論モデルのうち、入力層と、中間層のうちすくなくとも一部の中間層とで構成される第一の部分モデルであり、出力部13へは中間層からの出力を送信する。ここで中間層の出力とは、テンソルの情報であり、推論モデルがCNNに基づくモデルである場合には、該出力は特徴マップである。
(First reasoning unit 12)
The
(出力部13)
出力部13は、他の情報処理装置である第二の情報処理装置3に、第一の推論結果を送信する。また推論モデルが複数ある場合は、第一の推論に用いた部分モデルが対応する推論モデルの情報を第二の情報処理装置に出力をする。
(Output unit 13)
The
(推論結果取得部14)
推論結果取得部14は、第二の情報処理装置3から推論対象の医用画像データに対する第二の推論処理の推論結果を取得する。推論結果取得部14は、推論結果を取得すると、表示制御部15に送信をする。
(Inference result acquisition unit 14)
The inference result
(表示制御部15)
表示制御部15は、推論結果取得部14で取得した推論結果を表示装置に表示する制御を行う。表示装置は、情報処理装置に付属するディスプレイや外部サーバを経由した病院関係者のモバイル端末等である。
(Display control unit 15)
The
ここで、第一の情報処理装置2は、プロセッサ、メモリ、ストレージなどを備えたコンピュータにより構成してもよい。この場合、ストレージに格納されたプログラムをメモリにロードし、当該プログラムをプロセッサが実行することにより、記憶部10、取得部11、第一の推論部12、出力部13、推論結果取得部14、表示制御部15などの機能および処理が実現される。ただしこの構成に限らず、例えば、第一の情報処理装置2の構成の全部又は一部を、専用に設計されたプロセッサ(ASICなど)又はFPGAにより実現してもよい。あるいは、演算処理の一部をGPUやDSPなどのプロセッサで実行してもよい。また、第一の情報処理装置2は、単一のハードウェアで構成されていてもよいし、複数のハードウェアで構成されていてもよい。例えば、クラウドコンピューティングや分散コンピューティングを利用し、複数のコンピュータが協働して第一の情報処理装置2の機能および処理を実現してもよい。
Here, the first
図3は、第一の情報処理装置2の具体的な構成の一例を示している。この例では、ローカル情報処理装置2が、CPU20、GPU21、RAM22、ROM23、記憶装置24を有しており、これらがシステムバス25で接続されている。また、ローカル情報処理装置2には、表示装置26と、マウスやキーボードなどの入力装置27とが接続されている。
FIG. 3 shows an example of a specific configuration of the first
第一の情報処理装置2は、上述のように構成されることで、医用データの管理者である推論モデルのユーザは、推論対象の医用データを、外部の情報処理装置に送信する必要はなく、医用データのプライバシーを保護することができる。また推論モデルの提供者は、推論モデルの一部のみを第一の情報処理装置2に搭載することで、推論モデルの秘匿性を担保することができる。
Since the first
一方、第二の情報処理装置3は、第一の情報処理装置2の外部のサーバに存在し、医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく学習済みの推論モデルのうち、入力層と、中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを用いた、前記推論対象の医用データに対する該学習済みの推論モデルのうち、第一の推論処理の結果を入力として、前記推論処理のうち、第一の部分モデルを構成する層と異なる層から構成される第二の部分モデルを用いて、第二の推論処理を実施する第二の推論部71から構成される。また第二の情報処理装置は3、第二の部分モデルを記憶する記憶部70を有する。
On the other hand, the second
本実施形態において、第二の部分モデルは、学習済みの推論モデルのうち、第一の推論モデルを構成する中間層と異なる中間層と、出力層とから構成される。なお、上述の部分モデルのネットワーク構成は、一例であり、部分モデルの数や情報処理装置の数は適宜変更可能である。 In this embodiment, the second partial model is composed of an intermediate layer different from the intermediate layer forming the first inference model, and an output layer, among the trained inference models. Note that the network configuration of the partial models described above is an example, and the number of partial models and the number of information processing apparatuses can be changed as appropriate.
(記憶部70)
記憶部70は、第二の部分モデルに対応するネットワークと、ネットワークに対応する学習済みのパラメータを対応づけて記憶している。なお部分モデルとは、ある層から別の層までの連続した部分を指すが、これに限らず、あるニューロンから別のニューロンまでの連続した部分や、孤立したニューロンであってもよい。また、部分モデルは、推論モデル中の隣接しない複数の部分であってもよい。
(storage unit 70)
The
(第二の推論部71)
第二の推論部12は、記憶部10から第二の部分モデルを取得し、推論対象の医用データに対して、第二の部分モデルによる第二の推論を実施する。そして、第二の推論による推論結果を第一の情報処理装置2に送信する。ここで、学習済みの推論モデルの選択情報が第一の情報処理装置2から取得された場合には、該当する学習済みの推論モデルに対応する第二の部分モデルを取得し、第二の推論を実施する。ここで、本実施形態においては、第二の部分モデルが出力層を有するモデルであるため、第二の情報処理装置において、推論結果が出力される。他方で、第二の部分モデルが中間層のみから構成され、該中間層による出力を、第一の情報処理装置2に送信してもよい。
(Second reasoning unit 71)
The
第二の情報処理装置3は、上述のように構成されることで、推論モデルの提供者は、学習済みの推論モデルの一部のみを第一の情報処理装置2に搭載し、学習済みの推論モデルの一部を自身が保有・管理する情報処理装置3内に留めておくことができ、推論モデルの秘匿性を担保することができる。
The second
上述した、第一の情報処理装置2および第二の情報処理装置3から構成される情報処理システムによって、推論対象の医用データのプライバシーを保護しつつ、該推論対象の医用データに対して推論を行う推論モデルの秘匿性を担保することができる。
By the information processing system composed of the first
ここで、図4を用いて、本実施形態における情報処理システム1による推論工程について説明をする。 Here, the inference process by the information processing system 1 in this embodiment will be described with reference to FIG.
ステップS40において、第一の情報処理装置2における取得部11は、推論対象の医用データを取得する。取得部11は、推論対象の医用データを取得すると、取得した推論対象の医用データを第一の推論部12へ送信し、次のステップへ処理を進める。
In step S40, the
ステップS41において、第一の情報処理装置2における第一の推論部12は、入力層と、中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを用いて、推論対象の医用データに対して、第一の推論処理を実行する。第一の推論部12は、第一の推論処理の実行後、第一の推論処理による推論結果を出力部13へ送信し、次のステップへ処理を進める。
In step S41, the
ステップS42において、第一の情報処理装置2における出力部13は、第一の推論による推論結果を第二の情報処理装置2へ出力し、次のステップへ処理を進める。
In step S42, the
ステップS43において、第二の情報処理装置3における第二の推論部71は、第一の部分モデルを構成する層と異なる層から構成される第二の部分モデルを用いて、第二の推論処理を実施する。本実施形態において、第二の部分モデルは、推論モデルのうち、第一の部分モデルを構成する中間層とは異なる中間層を含み構成される。また第二の部分モデルは、さらに出力層を有し、推論対象の医用データに対して推論結果を出力する。第二の推論部71は、推論対象の医用データに対する推論結果を第一の情報処理装置2に送信すると次のステップへ処理を進める。
In step S43, the
なお、第二の推論部71は、第二の推論処理による推論結果を記憶部70に記憶し、外部からのアクセスに応じて推論結果を提示してもよい。また出力先は、第一の情報処理装置2に限られず、指定された情報端末や、連絡先に該結果を送信してもよい。
The
ステップS44において、第一の情報処理装置2における推論結果取得部14は、第二の情報処理装置3の第二の推論部71より第二の推論結果を取得する。推論結果取得部14は、第二の推論結果を取得すると、表示制御部15へ第二の推論結果を送信し、次のステップへ処理を進める。
In step S<b>44 , the inference
ステップS45において、表示制御部15は、推論対象の医用データに対する推論結果を表示装置25に表示させる。表示装置25に表示される推論結果は、推論対象の医用データに対して、第一の情報処理装置2と第二の情報処理装置3による一連の推論処理(第一の推論処理及び第二の推論処理)を行った推論結果である。
In step S45, the
表示制御部15は、推論対象の医用データと、推論結果を対応付けて表示させてもよいし、該推論に用いられた推論モデルの情報等を表示してもよい。
The
よって、本情報処理システム1は、推論対象の医用データのプライバシーを保護しつつ、該推論対象の医用データに対して推論を行う推論モデルの秘匿性を担保しながらも、推論を実施することができる。 Therefore, the information processing system 1 can perform inference while protecting the privacy of inference-targeted medical data and ensuring the confidentiality of an inference model that performs inference on the inference-targeted medical data. can.
[第2の実施形態]
第1の実施形態では、医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく学習済みの推論モデルのうち、入力層と、中間層の一部の中間層とで構成される第一の部分モデルを有する第一の情報処理装置2と、学習済みの推論モデルのうち、第一の部分モデルとは異なる層から構成される第二の部分モデルを有する第二の情報処理装置3から構成される情報処理システムについて説明をした。
[Second embodiment]
In the first embodiment, of a trained inference model based on a neural network that performs inference processing on medical data and is composed of an input layer, an intermediate layer, and an output layer, the input layer and part of the intermediate layer and a second partial model composed of a layer different from the first partial model among the learned inference models. The information processing system comprising the second
本実施形態では、第一の情報処理装置2が、出力層を含む第三の部分モデルを用いて推論を行う第三の推論部をさらに有し、第一の情報処理装置側に出力することができる情報処理システムの構成について図5を用いて説明をする。また図6を用いて、本実施形態における推論モデルについて説明する。
In this embodiment, the first
なお、ここでは特に第1の実施形態との差異について説明し、重複部分に関しては適宜割愛をして説明をする。 It should be noted that differences from the first embodiment will be particularly described here, and overlapping portions will be omitted as appropriate.
本実施形態における情報処理システム1は、第一の実施形態と同様に、第一の情報処理装置2、第二の情報処理装置3、それぞれの情報処理装置を通信可能に接続するネットワーク4から構成される。また情報処理システム1は、3つの部分モデルから構成される。
An information processing system 1 according to the present embodiment includes a first
ユーザ側にある第一の情報処理装置2には、医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく学習済みの推論モデルのうち、入力層と、中間層のうち一部の中間層とで構成される第一の部分モデルとさらに、中間層のうち一部の中間層と、出力層とで構成される第三の部分モデルを有する。
The first
一方で、推論モデルの管理者側にある第二の情報処理装置3には、推論モデルの中間層のうち、第一の部分モデルの中間層と、第三の部分モデルの中間層との間の中間層のすくなくとも一部から構成される第二の部分モデルを有する。なお、部分モデルの数は可変であり、入力層を有する部分モデルと、出力層を有する部分モデルが、推論対象の医用データを管理する権限を有したユーザ側にある第一の情報処理装置2に備わっていればよい。また第一の情報処理装置2に関しても、ユーザ側で管理されている情報処理装置であれば、その数も問わない。
On the other hand, in the second
本情報処理システム1によって、推論対象の医用データのプライバシーを保護しながら、該医用データに対する推論モデルの秘匿性を担保できるだけでなく、推論結果に関してもユーザ側で出力されることになるため、推論結果に関するプライバシーに関しても保護することができる。 With this information processing system 1, it is possible not only to secure the confidentiality of the inference model for the medical data while protecting the privacy of the inference target medical data, but also to output the inference results on the user side. Privacy regarding results can also be protected.
例えば、推論モデルが高画質化を実施するような場合には、出力層がユーザ側でない情報処理装置にあった場合に、推論対象の医用データを高画質化した画像が第二の情報処理装置3で生成されるため、医用データのプライバシーの保護が難しい。よって、出力層を有する部分モデルを第一の情報処理装置2が有し、該部分モデルを用いた推論を行うことで出力に対するプライバシーを保護できる。
For example, in the case where the inference model implements high image quality, if the output layer is in an information processing device that is not on the user side, the image obtained by improving the image quality of the medical data to be inferred is sent to the second information processing device. 3, it is difficult to protect the privacy of medical data. Therefore, the first
本実施形態に係る情報処理装置1は、記憶部10、取得部11、第一の推論部12、出力部13、推論結果取得部14、表示制御部15と、さらに上述した第三の部分モデルを用いて、第三の推論を行う第三の推論部51を少なくとも有する。
The information processing apparatus 1 according to this embodiment includes a
また本実施形態に係る情報処理装置2は、記憶部70と、第二の推論部71とを含み構成される。なお、第二の推論部71で用いられる第二の部分モデルは、学習済みの推論モデルのうち、第一の部分モデルの中間層と、第三の部分モデルの中間層との間にある中間層から構成されるネットワークから構成される。
The
以下、図7を用いて、本実施形態における推論工程について説明する。 The inference process in this embodiment will be described below with reference to FIG.
ステップS42までは、実施形態1と同様のフローのため説明を割愛する。 Since the flow up to step S42 is the same as that of the first embodiment, the explanation is omitted.
ステップS73において、第二の情報処理装置3は、第一の推論部12による推論結果を入力として、第二の部分モデルを用いて第二の推論を実施する。第二の部分モデルは、学習済みの推論モデルのうち、第一の部分モデルの中間層と、第三の部分モデルの中間層との間にある中間層から構成されるネットワークから構成される。第二の推論部71は、第二の推論の結果として、第二の部分モデルによる中間層からの出力を第一の情報処理装置に送信すると、次のステップへ処理を進める。
In step S<b>73 , the second
ステップS74において、第一の情報処理装置2における第三の推論部51は、第二の推論結果を入力として、第三の部分モデルを用いた第三の推論を行う。第三の推論部51は、第三の推論の結果を推論結果取得部14へ送信し、次のステップへ処理を進める。
In step S74, the
ステップS75において、推論結果取得部14は、第三の推論結果を推論対象の医用データに対する推論結果として取得し、取得した推論結果を表示制御部15へ送信する。
In step S<b>75 , the inference
ステップS45は説明を省略するが、表示装置25に表示される推論結果は、推論対象の医用データに対して、第一の情報処理装置2と第二の情報処理装置3による一連の推論処理(第一の推論処理、第二の推論処理及び第三の推論処理)を行った推論結果である。
Although the explanation of step S45 is omitted, the inference result displayed on the
本実施形態によって、推論対象の医用データのプライバシーを保護しながら、該医用データに対する推論モデルの秘匿性を担保できるだけでなく、推論結果に関するプライバシーも保護しながら推論処理を実施することができる。 According to this embodiment, while protecting the privacy of inference target medical data, it is possible not only to secure the confidentiality of an inference model for the medical data, but also to perform inference processing while protecting the privacy of inference results.
以下、第3の実施形態および第4の実施形態において、本発明における推論モデルの学習工程に関して説明をする。なお、上述までの推論工程において用いられる推論モデルは、第3の実施形態、第4の実施形態の学習工程を経て生成される推論モデルに限られない。また、以降の実施形態における推論モデルとは、学習処理がされていない推論モデルであっても、学習処理がされた学習済みの推論モデルであってもよい。 In the third and fourth embodiments, the inference model learning process in the present invention will be described below. Note that the inference model used in the inference process described above is not limited to the inference model generated through the learning process of the third and fourth embodiments. Further, the inference model in the following embodiments may be an inference model that has not undergone learning processing or a learned inference model that has undergone learning processing.
[第3の実施形態]
第3の実施形態において、図8を用いて、本発明の情報処理システム800を学習する構成について説明をする。情報処理システム800は、推論モデルのユーザ側の情報処理装置である第一の情報処理装置900と、推論モデルの提供者側の情報処理装置である第二の情報処理装置1000と、情報処理装置間をつなぐネットワーク1100から構成される。また図9を用いて、それぞれの情報処理装置に対応する推論モデルのネットワーク構成について説明をする。
[Third embodiment]
In the third embodiment, a configuration for learning an
第一の情報処理装置900は、医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルのうち、該入力層と、該中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを有する。また第二の情報処理装置1000は、推論モデルのうち第一の部分モデルを構成する層と異なる層から構成される第二の部分モデルを有する第二の部分モデルと有する。また本実施形態において、第二の部分モデルは、中間層の一部と、出力層とから構成される部分モデルである。このように、入力層を含む第一の部分モデルを、ユーザ側の第一の情報処理装置900に設け、推論モデルの一部である第二の部分モデルを推論モデルの提供者側の第二の情報処理装置1000に設けることによって、医用データのプライバシーを保護しながら推論モデルの秘匿性を担保した上で、推論モデルの学習処理を実施することができる。またここで、第一の部分モデルは、公開用のネットワークとして、第二の部分モデルが秘匿用のネットワークとして構成されてもよい。モデルの提供者は、第二の部分モデルを秘匿用のネットワークとすることで、さらに推論モデルの秘匿性を高めることができる。
The first
第一の情報処理装置900は、教師データや、推論モデルの情報を記憶する記憶部901を有する。さらに、記憶部900から教師データを取得する教師データ取得部902と、取得した教師データに基づいて、第一の部分モデルを学習する第一の学習部903とを含み構成される。なお、記憶部900は、推論モデルのユーザが管理する記憶装置等によって構成されてもよい。また第一の学習部903は、第一の部分モデルの学習処理が完了すると、記憶部901に学習済みの第一の部分モデルの情報を記憶する。
The first
第二の情報処理装置1000は、推論モデルの情報を記憶する記憶部1001と、第二の部分モデルを学習する第二の学習部1002とを有する。
The second
ここで、学習部が行う学習処理とは、教師データを部分モデルに順伝播させ、誤差逆伝播法によって取得した誤差情報を用いて、部分モデルのパラメータを更新することを指す。また教師データとは、学習データと正解ラベルから構成され、学習データは例えば医用画像データで、正解ラベルは、該医用画像データに写り込んでいる対象を示す情報である。また正解ラベルは、画素ごとに写り込んでいる対象が何かを示した正解画像データとして設定されてもよい。また第一の情報処理装置900は、第二の情報処理装置900に対して、モデルの選択情報を送信することで、第一の部分モデルと第二の部分モデルのすくなくとも一方が複数存在する場合においても、適切なモデルを選択することができる。
Here, the learning process performed by the learning unit refers to forward propagation of teacher data to the partial model, and updating of the parameters of the partial model using error information obtained by the error backpropagation method. The teacher data is composed of learning data and a correct label. The learning data is, for example, medical image data, and the correct label is information indicating an object appearing in the medical image data. Also, the correct label may be set as correct image data indicating what an object is captured in each pixel. Further, the first
以下、図10のフローチャートを用いて、本実施形態における情報処理システム800の学習工程の一例について説明をする。
An example of the learning process of the
ステップS50において、教師データ取得部902は、学習データと正解ラベルが対になった教師データを記憶部901より取得する。教師データ取得部902は、学習データの情報を第一の学習部903へと送信し、正解ラベルを第二の情報処理装置1000へ送信すると次のステップへと処理を進める。
In step S50, the teacher
ステップS51において、第一の学習部903は、教師データ取得部902から送信された学習データと、記憶部901から第一の部分モデルの情報を取得する。ここで、第一の学習部903は、第二の情報処理装置1000へ、取得した第一の部分モデルを示す情報を送信してもよい。
In step S<b>51 , the
ステップS52において、第二の学習部1002は、記憶部1001から第二の部分モデルの情報と、教師データ取得部902から正解ラベルの情報とを取得する。
In step S<b>52 , the
ステップS53において、第一の学習部903は、学習データを第一の部分モデルへ入力して順伝播させ、学習工程の一部である第一の学習処理を実施する。第一の学習処理が終了すると、第一の学習処理によって生成されたデータ、例えばテンソルを、第二の学習部1002へと送信する。
In step S53, the
ステップS54において、第二の学習部1002は、第一の学習部903から送信されたパラメータを第二の部分モデルへ入力し順伝播させ、学習工程の一部である第二の学習処理を実施する。
In step S54, the
ステップS55において、第二の学習部1002は、出力層をネットワーク構成に含む第二の部分モデルによる順伝播による第二の部分モデルの出力と、正解ラベルとを比較し、損失関数を用いて誤差の情報を取得する。また第二の学習部1002は、ここで、学習が完了したか否かを判定する。第二の学習部1002は、算出した誤差の情報が、所定の値未満であるか、もしくは所定回数学習処理を実施したか等によって、当該学習処理の終了を判定する。第二の学習部1002によって、学習処理の終了と判定された場合には、フローを終了する。一方で、学習処理の継続が判定された場合には、ステップS56へと処理を進める。尚、ステップS55は、第一の学習処理の開始前に第一の学習部903によって判定されてもよい。
In step S55, the
ステップS56において、第二の学習部1002は、ステップS55において算出した誤差の情報に基づいて、第二の部分モデルのパラメータを更新する。ここで、パラメータとは、例えば重みやバイアスを指す。そして、誤差情報を逆伝播(誤差逆伝播法)によって、出力層側に近い中間層から、入力層側へと誤差の情報を伝達する。第二の学習部1002は、第二の部分モデルを構成する入力層側に近い中間層からの誤差情報を、第一の学習部903へと送信すると次のステップへと処理を進める。
In step S56, the
ステップS57において、第一の学習部903は、第二の学習部1002から送信された誤差情報に基づいて、第一の部分モデルのパラメータを更新する。第一の部分モデルのパラメータを更新すると、ステップS53へと処理を進める。尚、ステップS55で説明をしたように、第一の学習部903がこのタイミングで、学習処理の終了を判定してもよい。
In step S<b>57 ,
本発明における情報処理システム800は、このように構成されることで、医用データのプライバシーおよび推論モデルの秘匿性を担保しつつ、推論モデルの学習を行うことができる。なお、部分モデルの数は2つに限定されず、入力層を含む部分モデルが推論モデルのユーザ側の情報処理装置にあれば、本発明を適用可能である。また、推論モデルが複数ある場合には、複数の推論モデルのそれぞれに対応する部分モデルを選択する情報を第一の学習部903から、第二の学習部1002へと送信してもよい。部分モデルの選択は、ユーザによって選択されてもよいし、入力データに応じて情報処理装置によって選択されてもよい。
The
[第4の実施形態]
第3の実施形態では、入力層と、中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを第一の情報処理装置が有し、第一の部分モデルとは異なる層から構成される第二の部分モデルを第二の情報処理装置が有する情報処理システムにおける学習処理に関して説明をした。
[Fourth embodiment]
In the third embodiment, the first information processing device has a first partial model composed of an input layer and at least a part of the intermediate layers, which is different from the first partial model. The learning process in the information processing system in which the second information processing device has the second partial model composed of layers has been described.
本実施形態では、さらに、少なくとも第一の部分モデルと第二の部分モデルとは異なる中間層と、出力層とを含み構成される第三の部分モデルを第一の情報処理装置が有する情報処理システムの学習について図11を用いて説明をする。また本実施形態における推論モデルのネットワーク構成について図12を用いて説明をする。尚、第三の実施形態との重複部分に関しては、適宜説明を省略して説明をする。 In this embodiment, the first information processing apparatus further includes a third partial model including at least an intermediate layer different from the first partial model and the second partial model, and an output layer. Learning of the system will be explained with reference to FIG. Also, the network configuration of the inference model in this embodiment will be described with reference to FIG. Note that the description of the overlapping parts with the third embodiment will be omitted as appropriate.
本実施形態にかかる情報処理システム1200は、推論モデルのユーザ側の情報処理装置である第一の情報処理装置1300と、推論モデルの提供者側の情報処理装置である第二の情報処理装置1400と、情報処理装置間をつなぐネットワーク1100から構成される。
An
第一の情報処理装置1300は、医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルのうち、該入力層と、該中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを有する。さらに、第一の情報処理装置1300は、推論モデルのうち、すくなくとも出力層を含む第三の部分モデルを有する。
The first
第二の情報処理装置1400は、推論モデルの中間層のうち、すくなくとも一部の中間層から構成される第二の部分モデルを有する。
The second
本実施形態の構成によって、さらに出力層を構成に含む第三の部分モデルを第一の情報処理装置1300が有することで、教師データを構成する、学習データおよび正解ラベルを第二の情報処理装置1400に送信しなくとも推論モデルの学習処理を実施することができる。さらに、推論モデルの提供者は、推論モデルを構成する中間層のうち、少なくとも一部の中間層を含む第二の部分モデルを有することによって、推論モデルの秘匿性を担保することができる。尚、本実施形態は、入力層を含む部分モデルと、出力層を含む部分モデルが第一の情報処理装置1300にあれば、部分モデルの数や情報処理装置の数等は、適宜設計可能である。
According to the configuration of this embodiment, the first
第一の情報処理装置1300は、教師データや、推論モデルの情報を記憶する記憶部1301を有する。また記憶部1301から教師データを取得する教師データ取得部902と、取得した教師データに基づいて、第一の部分モデルを学習する第一の学習部1303と、第三の部分モデルを学習する第三の学習部と、を含み構成される。
The first
第二の情報処理装置1400は、推論モデルの情報を記憶する記憶部1001と、第二の部分モデルを学習する第二の学習部とを含み構成される。
The second
ここで、学習処理とは、教師データを構成する学習データを部分モデルに順伝播させ、正解ラベルと出力層による出力値との誤差情報を逆伝播(誤差逆伝播法)することで、部分モデルのパラメータを更新する一連の処理を示す。また教師データは、学習データと正解ラベルから構成される。 Here, the learning process means forward propagation of the learning data that constitutes the teacher data to the partial model, and back propagation of the error information between the correct label and the output value from the output layer (error backpropagation method). shows a series of processes for updating the parameters of The training data consists of learning data and correct labels.
以下、図13のフローチャートを用いて、本実施形態における情報処理システム800の学習工程の一例について説明をする。尚、ここでは、図10との特に差分について説明をする。
An example of the learning process of the
ステップS130において、第三の学習部1304は、記憶部1301より第三の部分モデルの情報と、教師データ取得部1302より、正解ラベルの情報を取得する。
In step S<b>130 , the
ステップS132において、第二の学習部1402は、第一の学習部903から送信されたパラメータを第二の部分モデルへ入力し順伝播させ、学習工程の一部である第二の学習処理を実施する。
In step S132, the
ステップS133において、第三の学習部1304は、第二の学習部1402から送信されたパラメータを第三の部分モデルへ入力し順伝播させ、学習工程の一部である第三の学習処理を実施する。
In step S133, the
ステップS134において、第三の学習部1304は、出力層をネットワーク構成に含む第三の部分モデルによる順伝播による第三の部分モデルの出力と、正解ラベルとを比較し、損失関数を用いて誤差の情報を取得する。また第三の学習部1304は、ここで、学習が完了したか否かを判定する。第三の学習部1304は、学習の完了を、算出した誤差の情報が、所定の値未満であるか、もしくは所定回数の学習処理を実施したか等によって、当該学習処理の終了を判定する。第三の学習部1304によって、学習処理の終了と判定された場合には、フローを終了する。一方で、第三の学習部1304によって学習処理の継続が判定された場合には、ステップS53へと処理を進める。尚、ステップS134における学習処理の終了判定は、第一の学習処理の開始前に第一の学習部1303によって判定されてもよい。
In step S134, the
ステップS135において、第三の学習部1304は、ステップS134において算出した誤差の情報に基づいて、第三の部分モデルのパラメータを更新する。ここで、パラメータとは、例えば重みやバイアスを指す。第三の学習部1304は、誤差情報を逆伝播によって、出力層側に近い中間層から、入力層側へと誤差の情報を伝達する。第三の学習部1304は、第三の部分モデルを構成する入力層側に近い中間層からの誤差情報を、第二の学習部1402へと送信すると次のステップへと処理を進める。
In step S135, the
ステップS136において、第二の学習部1402は、第三の学習部1304から送信された誤差の情報に基づいて、第二の部分モデルのパラメータを更新する。第二の学習部1402は、誤差情報を逆伝播によって、出力層側に近い中間層から、入力層側へと誤差の情報を伝達し、入力層側に近い中間層からの出力を第一の学習部1303へと送信すると次のステップへと処理を進める。
In step S<b>136 ,
ステップS137において、第一の学習部1303は、第二の学習部1402から送信された誤差情報に基づいて、第一の部分モデルのパラメータを更新する。第一の部分モデルのパラメータを更新すると、ステップS53へと処理を進める。尚、ステップS134で説明をしたように、第一の学習部1303がこのタイミングで、学習処理の終了を判定してもよい。
In step S<b>137 ,
本発明における情報処理システム1200は、このように構成されることで、医用データのプライバシーおよび推論モデルの秘匿性を担保しつつ、推論モデルの学習処理を行うことができる。さらに教師データを構成する学習データおよび正解ラベルを推論モデルのユーザ側の情報処理装置から送信する必要がなく、より医用データの秘匿性を担保できる。
The
なお、第3の実施形態および第4の実施形態によって、学習された推論モデルを第1の実施形態および第2の実施形態における推論処理を行う推論モデルとしてもよい。また、推論処理を行う推論モデルの追加学習の手法としても第3および第4の学習処理は有効である。 Note that the inference model learned by the third and fourth embodiments may be used as the inference model that performs the inference processing in the first and second embodiments. Also, the third and fourth learning processes are effective as a technique for additional learning of an inference model that performs inference processes.
[変形例1]
本変形例は、第3の実施形態および第4の実施形態において、適用が可能である。上述の学習処理においては、推論モデルを構成する部分モデルのパラメータを更新する学習処理について説明をしたが、一部の部分モデルのみのパラメータの更新を目的とした追加学習を実施してもよい。例えば、第二の部分モデルのパラメータを固定し、第一の部分モデルのパラメータを更新することや、第一の部分モデルのパラメータを固定し、第二の部分モデルのパラメータを更新することが挙げられる。
[Modification 1]
This modification can be applied to the third embodiment and the fourth embodiment. In the learning process described above, the learning process for updating the parameters of the partial models that make up the inference model has been described, but additional learning may be performed for the purpose of updating the parameters of only some of the partial models. For example, fixing the parameters of the second partial model and updating the parameters of the first partial model, or fixing the parameters of the first partial model and updating the parameters of the second partial model. be done.
第一の学習部903が第一の部分モデルのパラメータを更新し、第二の学習部1002が第二の部分モデルのパラメータを更新しない場合には、推論モデルのユーザにとって、第一の部分モデルを、自身が入力したいデータ等に応じてカスタマイズした学習処理をすることができる。例えば、第一の学習部903が第一の部分モデルに対して医用データを取得するモダリティの特性や、特定の撮影範囲等に特化した追加学習を行い、一方で、モデルの提供者にとって意図しないモデルの改変を防ぐ効果がある。
If the
第二の学習部1002が第二の部分モデルのパラメータを更新し、第一の学習部903が第一の部分モデルのパラメータを更新しない場合には、推論モデルの提供者の管理下にある第二の部分モデルの精度やロバスト性の向上が期待できる。
When the
また上述の追加学習によって、第一の部分モデル、第二の部分モデルが複数作成されてもよいし、複数の部分モデルを適宜組み合わせて利用してもよい。 Further, by the additional learning described above, a plurality of first partial models and second partial models may be created, or a plurality of partial models may be appropriately combined and used.
[変形例2]
上述の学習処理においては、出力層を含み構成される部分モデルが第一の情報処理装置にある場合と、第二の情報処理装置にある場合について説明をした。
[Modification 2]
In the learning process described above, the case where the partial model configured including the output layer is in the first information processing device and the case where it is in the second information processing device have been described.
本変形例では、推論モデルの出力に応じて、出力層を含む部分モデルを推論モデルのユーザ側の情報処理装置におくか、推論モデルの提供者側におくかを設定する構成について説明をする。 In this modified example, a configuration will be described in which whether the partial model including the output layer is to be placed in the information processing device on the user side of the inference model or in the provider side of the inference model is set according to the output of the inference model. .
例えば、推論モデルの出力が、入力データの高解像度化等の入力された学習データと同等の出力を行う場合には、出力層を含む推論モデルを推論モデルのユーザ側の情報処理装置に置く。一方で、出力が、医用データをクラス分類や検出を行う推論モデルの場合には、出力層を含む推論モデルを推論モデルの提供者側の情報処理装置に置く。推論モデルの出力に応じて、部分モデルを構成することで、マシンリソースや、医用データの秘匿性のバランスをとりながら学習処理を実施することができる。尚、推論モデルの出力に応じた部分モデルを構成することは、推論処理においても有効である。例えば、複数の第一のモデルから、推論対象の医用データに応じて、第一の推論を行う第一の部分モデルが選択されてもよいし、複数の第二の部分モデルから、推論対象の医用データに応じて、第二の推論を行う第二の分類モデルが選択されてもよい。 For example, if the output of the inference model is equivalent to the input learning data, such as increasing the resolution of the input data, the inference model including the output layer is placed in the information processing device on the user side of the inference model. On the other hand, when the output is an inference model for classifying and detecting medical data, the inference model including the output layer is placed in the information processing device of the inference model provider. By constructing a partial model according to the output of the inference model, learning processing can be performed while balancing machine resources and confidentiality of medical data. It should be noted that constructing a partial model according to the output of the inference model is also effective in inference processing. For example, a first partial model that performs the first inference may be selected from a plurality of first models according to the medical data to be inferred, or a plurality of second partial models may be selected from the inference target medical data. A second classification model may be selected that makes a second inference depending on the medical data.
[変形例3]
上述の学習処理においては、誤差逆伝播法を用いて推論モデルの学習処理を行った場合を説明した。
[Modification 3]
In the above-described learning processing, the case where the inference model learning processing is performed using the error backpropagation method has been described.
本変形例では、推論モデルの学習処理において、誤差逆伝播法以外の学習方法で学習処理を行う場合について説明する。 In this modified example, in the learning process of the inference model, a case will be described in which the learning process is performed by a learning method other than the error backpropagation method.
例えば、得られるであろう勾配を各層毎に推定するモデルを学習するSynthetic Gradientのような手法や、誤差を逆伝搬する際に固定のランダム行列を使うFeedback Alignmentのような手法、誤差ではなく目標を伝搬させていくTarget Propのような手法でもよいし、その他どのような手法でもよい。 For example, a method such as Synthetic Gradient, which trains a model that estimates the expected gradient for each layer, a method such as Feedback Alignment, which uses a fixed random matrix when backpropagating the error, and a target rather than an error. A method such as Target Prop that propagates , or any other method may be used.
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention is also realized by executing the following processing. That is, the software (program) that realizes the functions of the above-described embodiments is supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed.
Claims (21)
前記第一の情報処理装置は、
教師データを取得する教師データ取得部と、
前記教師データを、前記推論モデルのうち前記入力層と、前記中間層の一部の中間層とで構成される第一の部分モデルに入力することにより第一の学習処理を行う第一の学習部を有し、
前記第二の情報処理装置は、前記第一の学習処理による出力を、前記の推論モデルのうち前記第一の部分モデルと異なる層から構成される第二の部分モデルへ入力することにより第二の学習処理を行う第二の学習部と、を有することを特徴とする情報処理システム。 a first information processing device operated by a teacher data provider; and a second information processing device managed by an inference model provider capable of communicating with the first information processing device via a network; An information processing system that performs learning processing for learning an inference model based on a neural network composed of an input layer, an intermediate layer, and an output layer,
The first information processing device is
a teacher data acquisition unit that acquires teacher data;
first learning for performing a first learning process by inputting the teacher data into a first partial model composed of the input layer of the inference model and a partial intermediate layer of the intermediate layers; has a part
The second information processing device inputs the output from the first learning process to a second partial model configured from a layer different from the first partial model in the inference model, thereby obtaining a second and a second learning unit that performs a learning process of the information processing system.
前記第二の学習処理による出力を該第三の部分モデルへ入力することにより第三の学習処理を行う第三の学習部と、を有することを特徴とする請求項1に記載の情報処理システム。 the first information processing device further has a third partial model including the output layer;
2. The information processing system according to claim 1, further comprising a third learning unit that performs a third learning process by inputting an output from the second learning process to the third partial model. .
前記第一の学習部は、前記第二の学習部から送信された誤差の情報に基づいて、前記第一の部分モデルのパラメータを更新することを特徴とする請求項4に記載の情報処理システム。 The second learning unit updates the parameters of the second partial model based on the error information transmitted from the third learning unit,
5. The information processing system according to claim 4, wherein the first learning unit updates parameters of the first partial model based on error information transmitted from the second learning unit. .
前記第一の情報処理装置における、前記教師データ取得部より、該教師データを構成する正解ラベルを取得し、該正解ラベルと、前記出力層による出力とに基づいて誤差の情報を取得することを特徴とする請求項1に記載の情報処理システム。 In the second information processing device, the second partial model includes an output layer,
Acquiring a correct label constituting the teacher data from the teacher data acquiring unit in the first information processing device, and acquiring error information based on the correct label and the output from the output layer. 2. The information processing system according to claim 1.
前記第二の部分モデルが前記教師データの提供者に秘匿用のネットワークであることを特徴とする請求項1乃至7のいずれか一項に記載の情報処理システム。 the first partial model is a network for disclosure to a provider of the training data;
8. The information processing system according to any one of claims 1 to 7, wherein said second partial model is a network for confidentiality from a provider of said training data.
教師データを取得する教師データ取得部と、
入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルのうち、該入力層と、該中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルに対して、前記教師データを入力することにより第一の学習処理を行い、
前記推論モデルのうち前記第一の部分モデルを構成する層と異なる層から構成される第二の部分モデルを有する第二の部分モデルを有する他の装置へ出力する第一の学習部と、
を有することを特徴とする情報処理装置。 An information processing device operated by an administrator of training data, the information processing device comprising:
a teacher data acquisition unit that acquires teacher data;
Of a neural network-based inference model composed of an input layer, an intermediate layer, and an output layer, for a first partial model composed of the input layer and at least a portion of the intermediate layers , performs a first learning process by inputting the teacher data,
a first learning unit for outputting the inference model to another device having a second partial model having a second partial model composed of layers different from the layers constituting the first partial model;
An information processing device comprising:
前記第二の部分モデルを用いた第二の学習処理による出力を該第三の部分モデルへ入力することにより第三の学習処理を行う第三の学習部と、を有することを特徴とする請求項13に記載の情報処理装置。 The information processing device further has a third partial model including the output layer,
and a third learning unit that performs a third learning process by inputting an output from a second learning process using the second partial model to the third partial model. Item 14. The information processing device according to item 13.
医用データに対して推論処理を行う、入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルのうち、該入力層と、該中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルを構成する層とは異なる層から構成される、第二の部分モデルに対して、該第一の部分モデルを有する他の装置による第一の学習処理による出力を用いて第二の学習を行う第二の学習部を有することを特徴とする情報処理装置。 An information processing device operated by a provider of an inference model, the information processing device comprising:
An inference model based on a neural network that performs inference processing on medical data and is composed of an input layer, an intermediate layer, and an output layer. Using the output from the first learning process by another device having the first partial model for the second partial model composed of layers different from the layers constituting the first partial model An information processing apparatus, comprising: a second learning unit that performs second learning by using the second learning unit.
入力層、中間層および出力層から構成されるニューラルネットワークに基づく推論モデルのうち、該入力層と、該中間層のうち少なくとも一部の中間層とで構成される第一の部分モデルに対して、前記教師データを入力することにより第一の学習処理を行う第一の学習ステップと、を有することを特徴とする情報処理方法。 a teacher data acquisition step for acquiring teacher data;
Of a neural network-based inference model composed of an input layer, an intermediate layer, and an output layer, for a first partial model composed of the input layer and at least a portion of the intermediate layers and a first learning step of performing a first learning process by inputting the teacher data.
ニューラルネットワークは中間層において第一のニューラルネットワークと第二のニューラルネットワークとから構成され、前記第一のニューラルネットワークは前記第一の情報処理装置に記憶され、前記第二のニューラルネットワークは前記第二の情報処理装置に記憶されており、
教師データを用いて、前記第一の情報処理装置に記憶されている前記第一のニューラルネットワークと前記第二の情報処理装置に記憶されている前記第二のニューラルネットワークにおいて学習処理が行われることを特徴とする情報処理システム。 An information processing system comprising a first information processing device operated by a teacher data provider and a second information processing device capable of communicating with the first information processing device via a network,
The neural network comprises a first neural network and a second neural network in an intermediate layer, the first neural network is stored in the first information processing device, and the second neural network is the second neural network. is stored in the information processing device of
Learning processing is performed in the first neural network stored in the first information processing device and the second neural network stored in the second information processing device using teacher data. An information processing system characterized by
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021027606A JP7661059B2 (en) | 2021-02-24 | 2021-02-24 | Information processing system, information processing device, information processing method, and program |
| PCT/JP2022/006264 WO2022181426A1 (en) | 2021-02-24 | 2022-02-16 | Information processing system, information processing device, information processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021027606A JP7661059B2 (en) | 2021-02-24 | 2021-02-24 | Information processing system, information processing device, information processing method, and program |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2022129061A true JP2022129061A (en) | 2022-09-05 |
| JP2022129061A5 JP2022129061A5 (en) | 2024-02-29 |
| JP7661059B2 JP7661059B2 (en) | 2025-04-14 |
Family
ID=83049318
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021027606A Active JP7661059B2 (en) | 2021-02-24 | 2021-02-24 | Information processing system, information processing device, information processing method, and program |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7661059B2 (en) |
| WO (1) | WO2022181426A1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20180129900A1 (en) * | 2016-11-04 | 2018-05-10 | Siemens Healthcare Gmbh | Anonymous and Secure Classification Using a Deep Learning Network |
| JP2019153216A (en) * | 2018-03-06 | 2019-09-12 | Kddi株式会社 | Learning device, information processing system, method for learning, and program |
-
2021
- 2021-02-24 JP JP2021027606A patent/JP7661059B2/en active Active
-
2022
- 2022-02-16 WO PCT/JP2022/006264 patent/WO2022181426A1/en not_active Ceased
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20180129900A1 (en) * | 2016-11-04 | 2018-05-10 | Siemens Healthcare Gmbh | Anonymous and Secure Classification Using a Deep Learning Network |
| JP2019153216A (en) * | 2018-03-06 | 2019-09-12 | Kddi株式会社 | Learning device, information processing system, method for learning, and program |
Non-Patent Citations (1)
| Title |
|---|
| VEPAKOMMA, PRANEETH ET AL.: ""Split learning for health: Distributed deep learning without sharing raw patient data"", ARXIV.ORG [ONLINE], vol. arXiv:1812.00564v1, JPN6022018266, 2018, US, pages 1 - 7, ISSN: 0005485134 * |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7661059B2 (en) | 2025-04-14 |
| WO2022181426A1 (en) | 2022-09-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2021056995A (en) | Medical information processing apparatus, medical information processing system, and medical information processing method | |
| KR102460257B1 (en) | Method or apparatus for providing diagnostic results | |
| US20180144244A1 (en) | Distributed clinical workflow training of deep learning neural networks | |
| JP6016406B2 (en) | Medical diagnosis support apparatus, medical diagnosis support method, and input support system | |
| US20180157928A1 (en) | Image analytics platform for medical data using expert knowledge models | |
| JP7033202B2 (en) | Medical image processing equipment and methods, machine learning systems, programs and storage media | |
| JP7058988B2 (en) | Information processing equipment, information processing methods and programs | |
| JP7485512B2 (en) | Medical information processing device, medical information processing method, and medical information processing program | |
| JP7066385B2 (en) | Information processing methods, information processing equipment, information processing systems and programs | |
| US20200082943A1 (en) | Diagnosis support apparatus, diagnosis support system, diagnosis support method, and non-transitory storage medium | |
| JP6071338B2 (en) | Medical diagnosis support apparatus, medical diagnosis support method and program | |
| US20250086785A1 (en) | High-quality embeddings for medical imaging and small, easy-to-train networks for low-data tasks | |
| KR20150140237A (en) | Protocol management system (proms) | |
| EP4049239A1 (en) | Multi-variable heatmaps for computer-aided diagnostic models | |
| CN112052955A (en) | Methods for learning from data with label noise | |
| JP6220435B2 (en) | Diagnosis support apparatus and control method thereof | |
| JP2018005317A (en) | Medical data processing device, terminal device, information processing method, and system | |
| JP7746045B2 (en) | Information processing system, information processing device, information processing method and program | |
| JP2022129061A (en) | Information processing system, information processing apparatus, information processing method, and program | |
| US12174915B1 (en) | Progressive machine learning using a qualifier | |
| JP7661060B2 (en) | Information processing system, information processing device, information processing method, and program | |
| US20240054404A1 (en) | Information processing system, information processing apparatus, method for training inference model, and non-transitory storage medium | |
| US20230162059A1 (en) | Information processing system and information processing method | |
| KR102815533B1 (en) | Medical data process apparatus and method, and system for federated learning medical data | |
| JP2017153691A (en) | Diagnosis support apparatus, diagnosis support apparatus control method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240219 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240219 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241217 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250207 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250304 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250402 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7661059 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |