[go: up one dir, main page]

JP2023033894A - モデル管理装置及びモデル管理方法 - Google Patents

モデル管理装置及びモデル管理方法 Download PDF

Info

Publication number
JP2023033894A
JP2023033894A JP2021139830A JP2021139830A JP2023033894A JP 2023033894 A JP2023033894 A JP 2023033894A JP 2021139830 A JP2021139830 A JP 2021139830A JP 2021139830 A JP2021139830 A JP 2021139830A JP 2023033894 A JP2023033894 A JP 2023033894A
Authority
JP
Japan
Prior art keywords
machine learning
accuracy
model
learning
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021139830A
Other languages
English (en)
Other versions
JP7070775B1 (ja
Inventor
大樹 横山
Daiki Yokoyama
智洋 金子
Tomohiro Kaneko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021139830A priority Critical patent/JP7070775B1/ja
Application granted granted Critical
Publication of JP7070775B1 publication Critical patent/JP7070775B1/ja
Priority to CN202210987009.0A priority patent/CN115759277A/zh
Priority to US17/896,290 priority patent/US20230063791A1/en
Publication of JP2023033894A publication Critical patent/JP2023033894A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/324Power saving characterised by the action undertaken by lowering clock frequency
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5055Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering software capabilities, i.e. software resources associated or available to the machine
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. Transmission Power Control [TPC] or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0261Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

Figure 2023033894000001
【課題】複数のAI装置の各々が機械学習モデルの学習を行う場合に、複数のAI装置の各々において学習された機械学習モデルの精度がばらつくことを抑制する。
【解決手段】モデル管理装置は、各々が機械学習モデルの学習を継続的に行う複数のAI装置2と通信可能な通信部11と、複数のAI装置の各々における機械学習モデルの学習を管理する学習管理部15と、複数のAI装置の各々において学習された機械学習モデルの精度を取得する精度取得部16とを備える。学習管理部は、所定範囲内の精度を有する機械学習モデルの学習に関する処理の実施頻度を変更する。
【選択図】図6A

Description

本発明はモデル管理装置及びモデル管理方法に関する。
特許文献1には、スマートシティにおいて複数の事業主体からデータを収集することが記載されている。情報通信技術を用いて人々の生活をより快適にするためには、斯かるビッグデータを有効活用できることが望ましい。
例えば、スマートシティのような所定の対象エリアにおいて取得された多数のデータを用いて、所望の予測値を出力可能な機械学習モデルの学習を行うことが考えられる。様々な種類の機械学習モデルの学習を同時に行うためには、対象エリアに複数のAI装置を設置し、複数のAI装置の各々において機械学習モデルの学習を行う必要がある。
特開2013-069084号公報
しかしながら、複数のAI装置の各々において学習された機械学習モデルの精度にばらつきが生じる場合がある。例えば、或る機械学習モデルでは外部環境の変化等により精度が低下し、別の機械学習モデルでは継続的な学習により精度が十分に高くなることが考えられる。機械学習モデルの精度が低下した場合には、機械学習モデルによって出力される出力パラメータの値の信頼度が低下し、斯かる機械学習モデルを用いた制御、分析、診断等に支障が生じるおそれがある。一方、機械学習モデルの精度が十分に高い場合には、精度が飽和状態となり、斯かる機械学習モデルの学習を同じ頻度で継続することは対象エリアにおける電力の浪費をもたらす。
そこで、上記課題に鑑みて、本発明の目的は、複数のAI装置の各々が機械学習モデルの学習を行う場合に、複数のAI装置の各々において学習された機械学習モデルの精度がばらつくことを抑制することにある。
本開示の要旨は以下のとおりである。
(1)複数の機械学習モデルを管理するモデル管理装置であって、各々が機械学習モデルの学習を継続的に行う複数のAI装置と通信可能な通信部と、前記複数のAI装置の各々における機械学習モデルの学習を管理する学習管理部と、前記複数のAI装置の各々において学習された機械学習モデルの精度を取得する精度取得部とを備え、前記学習管理部は、所定範囲内の精度を有する機械学習モデルの学習に関する処理の実施頻度を変更する、モデル管理装置。
(2)前記学習管理部は、所定の下側閾値以下の精度を有する機械学習モデルの学習に関する処理の実施頻度を増加させる、上記(1)に記載のモデル管理装置。
(3)前記学習管理部は、前記実施頻度の増加によって機械学習モデルの精度が前記下側閾値よりも高い所定の第1判定値まで上昇したときに、該実施頻度を元に戻す、上記(2)に記載のモデル管理装置。
(4)前記学習管理部は、所定の上側閾値以上の精度を有する機械学習モデルの学習に関する処理の実施頻度を減少させる、上記(1)から(3)のいずれか1つに記載のモデル管理装置。
(5)前記学習管理部は、前記実施頻度の減少によって機械学習モデルの精度が前記上側閾値未満の所定の第2判定値まで低下したときに、該実施頻度を元に戻す、上記(4)に記載のモデル管理装置。
(6)前記学習管理部は、所定の下側閾値以下の精度を有する機械学習モデルの学習に関する処理の実施頻度を増加させ、所定の上側閾値以上の精度を有する機械学習モデルの学習に関する処理の実施頻度を減少させ、該実施頻度の変更による電力消費量の変化量が所定値以下になるように前記上側閾値及び前記下側閾値の少なくとも一方を変更する、上記(1)から(5)のいずれか1つに記載のモデル管理装置。
(7)前記複数のAI装置に供給可能な電力量を取得する電力量取得部を更に備え、前記学習管理部は、所定の上側閾値以上の精度を有する機械学習モデルの学習に関する処理の実施頻度を減少させ、所定の下側閾値以下の精度を有する機械学習モデルの学習に関する処理の実施頻度を増加させ、前記電力量に基づいて前記上側閾値及び前記下側閾値の少なくとも一方を変更する、上記(1)から(5)のいずれか1つに記載のモデル管理装置。
(8)前記上側閾値以上の精度を有する機械学習モデルは、人の健康に関するデータを出力しない機械学習モデルである、上記(4)から(7)のいずれか1つに記載のモデル管理装置。
(9)モデル管理装置を用いて複数の機械学習モデルを管理するモデル管理方法であって、複数のAI装置の各々において学習された機械学習モデルの精度を取得することと、所定範囲内の精度を有する機械学習モデルの学習に関する処理の実施頻度を変更することとを含む、モデル管理方法。
本発明によれば、複数のAI装置の各々が機械学習モデルの学習を行う場合に、複数のAI装置の各々において学習された機械学習モデルの精度がばらつくことを抑制することができる。
図1は、本発明の第一実施形態に係るモデル管理システムの概略的な構成図である。 図2は、図1のAI装置の構成を概略的に示す図である。 図3は、AI装置のプロセッサの機能ブロック図である。 図4は、図1の管理サーバの構成を概略的に示す図である。 図5は、第一実施形態における管理サーバのプロセッサの機能ブロック図である。 図6Aは、第一実施形態において管理サーバにおいて実行される実施頻度送信処理の制御ルーチンを示すフローチャートである。 図6Bは、第一実施形態において管理サーバにおいて実行される実施頻度送信処理の制御ルーチンを示すフローチャートである。 図7は、AI装置において実行される実施頻度変更処理の制御ルーチンを示すフローチャートである。 図8は、AI装置において実行される学習処理の制御ルーチンを示すフローチャートである。 図9Aは、第二実施形態において管理サーバにおいて実行される実施頻度送信処理の制御ルーチンを示すフローチャートである。 図9Bは、第二実施形態において管理サーバにおいて実行される実施頻度送信処理の制御ルーチンを示すフローチャートである。 図9Cは、第二実施形態において管理サーバにおいて実行される実施頻度送信処理の制御ルーチンを示すフローチャートである。 図10は、第三実施形態における管理サーバのプロセッサの機能ブロック図である。 図11は、第三実施形態において管理サーバにおいて実行される閾値設定処理の制御ルーチンを示すフローチャートである。 図12は、複数のAI装置に供給可能な電力量と上側閾値との関係を示す図である。 図13は、複数のAI装置に供給可能な電力量と下側閾値との関係を示す図である。
以下、図面を参照して本発明の実施形態について詳細に説明する。なお、以下の説明では、同様な構成要素には同一の参照番号を付す。
<第一実施形態>
最初に、図1~図8を参照して、本発明の第一実施形態について説明する。
図1は、本発明の第一実施形態に係るモデル管理システム10の概略的な構成図である。図1に示されるように、モデル管理システム10は管理サーバ1と複数のAI装置2とを備える。複数のAI装置2は、それぞれ、インターネット網又はキャリア網のような通信ネットワーク3を介して管理サーバ1と通信可能である。
複数のAI装置2は、それぞれ、所定の対象エリア内に設置され、対象エリアにおいて用いられる機械学習モデルの学習を行う。所定の対象エリアは、予め定められた範囲を有し、例えば、「都市の抱える諸問題に対して、ICT等の新技術を活用しつつ、マネジメント(計画、整備、管理、運営等)が行われ、全体最適化が図られる持続可能な都市又は地区」として定義されるスマートシティである。なお、AI装置は機械学習装置とも称される。
複数のAI装置2は同様な構成を有する。図2は、図1のAI装置2の構成を概略的に示す図である。AI装置2は、通信インターフェース21、ストレージ装置22、メモリ23及びプロセッサ24を備える。通信インターフェース21、ストレージ装置22及びメモリ23は、信号線を介してプロセッサ24に接続されている。なお、AI装置2は、キーボード及びマウスのような入力装置、ディスプレイのような出力装置等を更に備えていてもよい。また、AI装置2は複数のコンピュータから構成されていてもよい。
通信インターフェース21は、AI装置2を通信ネットワーク3に接続するためのインターフェース回路を有する。AI装置2は、通信インターフェース21を介して通信ネットワーク3に接続され、通信ネットワーク3を介してAI装置2の外部(管理サーバ1等)と通信する。通信インターフェース21はAI装置2の通信部の一例である。
ストレージ装置22は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SDD)又は光記録媒体及びそのアクセス装置を有する。ストレージ装置22は、各種データを記憶し、例えば、AI装置2の情報(識別情報等)、プロセッサ24が各種処理を実行するためのコンピュータプログラム等を記憶する。ストレージ装置22はAI装置2の記憶部の一例である。
メモリ23は不揮発性の半導体メモリ(例えばRAM)を有する。メモリ23は、例えばプロセッサ24によって各種処理が実行されるときに使用される各種データ等を一時的に記憶する。メモリ23はAI装置2の記憶部の別の一例である。
プロセッサ24は、一つ又は複数のCPU及びその周辺回路を有し、各種処理を実行する。なお、プロセッサ24は、論理演算ユニット、数値演算ユニット又はグラフィック処理ユニットのような他の演算回路を更に有していてもよい。
図3は、AI装置2のプロセッサ24の機能ブロック図である。本実施形態では、プロセッサ24は、データ取得部25、学習部26及び精度算出部27を有する。データ取得部25、学習部26及び精度算出部27は、AI装置2のストレージ装置22に記憶されたコンピュータプログラムをAI装置2のプロセッサ24が実行することによって実現される機能モジュールである。なお、これら機能モジュールは、それぞれ、プロセッサ24に設けられた専用の演算回路によって実現されてもよい。
AI装置2において学習される機械学習モデルは複数の入力パラメータから少なくとも一つの出力パラメータを出力する。すなわち、AI装置2は複数の入力パラメータを機械学習モデルに入力することによって機械学習モデルに少なくとも一つの出力パラメータを出力させる。斯かる機械学習モデルの学習では、複数の入力パラメータの実測値と、これら実測値に対応する少なくとも一つの出力パラメータの実測値(正解データ)との組合せから成る訓練データ(教師データ)が用いられる。
このため、データ取得部25は、有線通信又は無線通信によってセンサ等からデータを受信し、機械学習モデルの学習に用いられる訓練データを作成する。具体的には、データ取得部25は、複数の入力パラメータの実測値と、これら実測値に対応する少なくとも一つの出力パラメータの実測値とを取得データから抽出し、入力パラメータ及び出力パラメータの実測値を組み合わせることによって訓練データを作成する。データ取得部25によって作成された訓練データはAI装置2のストレージ装置22に記憶される。
学習部26は訓練データを用いて機械学習モデルの学習を行う。本実施形態では機械学習モデルとしてニューラルネットワークモデルが用いられ、学習部26はニューラルネットワークモデルの学習を行う。具体的には、学習部26は、所定数の訓練データを用いて、ニューラルネットワークモデルの出力値と出力パラメータの実測値との差が小さくなるように、公知の誤差逆伝播法によってニューラルネットワークモデルにおける重み及びバイアスを繰り返し更新する。この結果、ニューラルネットワークモデルが学習され、学習済みのニューラルネットワークモデルが生成される。学習済みのニューラルネットワークモデルの情報(重み、バイアス等)はAI装置2のストレージ装置22に記憶される。
本実施形態では、データ取得部25は定期的にデータを取得して訓練データを作成し、学習部26は、データ取得部25によって新たに作成された訓練データの数が所定数に達したときに、これら訓練データを用いて機械学習モデルの学習を行う。すなわち、AI装置2は機械学習モデルの学習を継続的に行う。
また、AI装置2では、機械学習モデルの有効性を評価すべく、機械学習モデルの精度が監視される。このため、AI装置2の精度算出部27は、学習部26によって学習された機械学習モデルの精度、すなわちAI装置2によって生成された学習済みの機械学習モデルの精度を算出する。例えば、データ取得部25が取得データから訓練データ及びテストデータを作成し、精度算出部27はホールドアウト法又は交差検証法のような公知の検証方法によって機械学習モデルの精度を算出する。
一方、管理サーバ1は複数のAI装置2と通信することによって複数の機械学習モデルを管理する。管理サーバ1は、複数の機械学習モデルを管理するモデル管理装置の一例である。
図4は、図1の管理サーバ1の構成を概略的に示す図である。管理サーバ1は、通信インターフェース11、ストレージ装置12、メモリ13及びプロセッサ14を備える。通信インターフェース11、ストレージ装置12及びメモリ13は、信号線を介してプロセッサ14に接続されている。なお、管理サーバ1は、キーボード及びマウスのような入力装置、ディスプレイのような出力装置等を更に備えていてもよい。また、管理サーバ1は複数のコンピュータから構成されていてもよい。
通信インターフェース11は、管理サーバ1を通信ネットワーク3に接続するためのインターフェース回路を有する。管理サーバ1は、通信インターフェース11を介して通信ネットワーク3に接続され、通信ネットワーク3を介して管理サーバ1の外部(複数のAI装置2等)と通信する。通信インターフェース11は管理サーバ1の通信部の一例である。
ストレージ装置12は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SDD)又は光記録媒体及びそのアクセス装置を有する。ストレージ装置12は、各種データを記憶し、例えば、AI装置2の情報(識別情報等)、プロセッサ14が各種処理を実行するためのコンピュータプログラム等を記憶する。ストレージ装置12は管理サーバ1の記憶部の一例である。
メモリ13は不揮発性の半導体メモリ(例えばRAM)を有する。メモリ13は、例えばプロセッサ14によって各種処理が実行されるときに使用される各種データ等を一時的に記憶する。メモリ13は管理サーバ1の記憶部の別の一例である。
プロセッサ14は、一つ又は複数のCPU及びその周辺回路を有し、各種処理を実行する。なお、プロセッサ14は、論理演算ユニット、数値演算ユニット又はグラフィック処理ユニットのような他の演算回路を更に有していてもよい。
図5は、第一実施形態における管理サーバ1のプロセッサ14の機能ブロック図である。本実施形態では、プロセッサ14は学習管理部15及び精度取得部16を有する。学習管理部15及び精度取得部16は、管理サーバ1のストレージ装置12に記憶されたコンピュータプログラムを管理サーバ1のプロセッサ14が実行することによって実現される機能モジュールである。なお、これら機能モジュールは、それぞれ、プロセッサ14に設けられた専用の演算回路によって実現されてもよい。
学習管理部15は複数のAI装置2の各々における機械学習モデルの学習を管理する。例えば、学習管理部15は、機械学習モデルの学習に関する処理の実施頻度を決定し、実施頻度を複数のAI装置2の各々に指示する。精度取得部16は、複数のAI装置2の各々において学習された機械学習モデルの精度を取得する。
上述したようにAI装置2において機械学習モデルの学習が継続的に行われたとしても、機械学習モデルの入力パラメータ及び出力パラメータの組合せに応じて、機械学習モデルの精度にばらつきが生じる場合がある。例えば、或る機械学習モデルでは外部環境の変化等により精度が低下し、別の機械学習モデルでは継続的な学習により精度が十分に高くなることが考えられる。機械学習モデルの精度が低下した場合には、機械学習モデルによって出力される出力パラメータの値の信頼度が低下し、斯かる機械学習モデルを用いた制御、分析、診断等に支障が生じるおそれがある。一方、機械学習モデルの精度が十分に高い場合には、精度が飽和状態となり、斯かる機械学習モデルの学習を同じ頻度で継続することは対象エリアにおける電力の浪費をもたらす。
そこで、本実施形態では、管理サーバ1は、機械学習モデルの精度のばらつきが低減されるように、複数のAI装置2における複数の機械学習モデルの学習を統括的に管理する。具体的には、学習管理部15は、所定範囲内の精度を有する機械学習モデルの学習に関する処理の実施頻度を変更する。すなわち、学習管理部15は、AI装置2において学習された機械学習モデルの精度が所定範囲内である場合には、このAI装置2に対して、機械学習モデルの学習に関する処理の実施頻度の変更を指示する。このことによって、複数のAI装置2の各々において学習された機械学習モデルの精度がばらつくことを抑制することができる。
例えば、学習管理部15は、所定の下側閾値以下の精度を有する機械学習モデルの学習に関する処理の実施頻度を増加させる。すなわち、学習管理部15は、AI装置2において学習された機械学習モデルの精度が所定の下側閾値以下である場合には、このAI装置2に対して、機械学習モデルの学習に関する処理の実施頻度の増加を指示する。このことによって、精度が不足している機械学習モデルの学習を促進することができ、学習頻度の不足による精度の低下を抑制することができる。
しかしながら、学習頻度の増加により機械学習モデルの精度が十分に高められた場合には、高頻度の学習を継続する必要性は低い。このため、学習管理部15は、学習に関する処理の実施頻度の増加によって機械学習モデルの精度が下側閾値よりも高い所定の第1判定値まで上昇したときに、学習に関する処理の実施頻度を元に戻す。このことによって、機械学習モデルの精度を回復させつつ、機械学習モデルの過剰な学習により電力が浪費されることを抑制することができる。
また、学習管理部15は、所定の上側閾値以上の精度を有する機械学習モデルの学習に関する処理の実施頻度を減少させる。すなわち、学習管理部15は、AI装置2において学習された機械学習モデルの精度が所定の上側閾値以上である場合には、このAI装置2に対して、機械学習モデルの学習に関する処理の実施頻度の減少を指示する。このことによって、精度が足りている機械学習モデルの学習を抑制することができ、機械学習モデルの学習のための電力消費量を低減することができる。
しかしながら、学習頻度の減少により機械学習モデルの精度が過剰に低くなった場合には、機械学習モデルの精度を回復させる必要がある。このため、学習管理部15は、学習に関する処理の実施頻度の減少によって機械学習モデルの精度が上側閾値未満の所定の第2判定値まで低下したときに、学習に関する処理の実施頻度を元に戻す。このことによって、機械学習モデルの学習のための電力消費量を低減しつつ、機械学習モデルの精度が過剰に低下することを抑制することができる。
学習管理部15によって実施頻度が変更される学習に関する処理は、例えば、AI装置2のデータ取得部25によるデータの取得である。学習管理部15によってデータの取得頻度の増加が指示される場合には、取得データを用いた訓練データの作成が促進され、ひいては機械学習モデルの学習頻度が高められる。一方、学習管理部15によってデータの取得頻度の減少が指示される場合には、取得データを用いた訓練データの作成が抑制され、ひいては機械学習モデルの学習頻度が低くされる。
なお、学習管理部15は、所定の上側閾値以上の精度を有する機械学習モデルの学習に関する処理の実施頻度を減少させるときに、実施頻度をゼロにしてもよい。すなわち、学習管理部15は、所定の上側閾値以上の精度を有する機械学習モデルの学習に関する処理を一時的に停止させてもよい。
以下、図6~図8のフローチャートを参照して、上記の処理のために管理サーバ1及びAI装置2において実行される制御のフローについて説明する。図6A及び図6Bの制御ルーチンは管理サーバ1において実行され、図7及び図8の制御ルーチンはAI装置2において実行される。
図6A及び図6Bは、第一実施形態において管理サーバ1において実行される実施頻度送信処理の制御ルーチンを示すフローチャートである。本制御ルーチンは管理サーバ1のプロセッサ14によって所定の実行間隔で繰り返し実行される。
最初に、ステップS101において、学習管理部15は、精度取得部16がAI装置2から機械学習モデルの精度ACを受信したか否かを判定する。精度取得部16が機械学習モデルの精度ACを受信していないと判定された場合、本制御ルーチンは終了する。一方、精度取得部16が機械学習モデルの精度ACを受信したと判定された場合、本制御ルーチンはステップS102に進む。
ステップS102では、学習管理部15は、機械学習モデルの精度ACを送信したAI装置2を特定する。例えば、機械学習モデルの精度ACと共にAI装置2の識別情報(例えば識別番号)がAI装置2から管理サーバ1に送信され、学習管理部15はその識別情報に基づいてAI装置2を特定する。
次いで、ステップS103において、学習管理部15は、ステップS102において特定されたAI装置2(以下、「対象のAI装置2」と称する)に関する記憶値を読み出す。具体的には、学習管理部15は、記憶値として、対象のAI装置2に関するフラグFを読み出す。フラグFは、データの取得頻度の設定状態を表すフラグであり、フラグFの初期値はゼロである。例えば、複数のAI装置2の各々に関するフラグFがAI装置2の識別情報と共に管理サーバ1のストレージ装置12に記憶される。
次いで、ステップS104において、学習管理部15は、フラグFがゼロに設定されているか否かを判定する。フラグFがゼロであると判定された場合、すなわち対象のAI装置2におけるデータの取得頻度が初期値に設定されている場合、本制御ルーチンはステップS105に進む。
ステップS105では、学習管理部15は、機械学習モデルの精度ACが所定の下側閾値THdw以下であるか否かを判定する。下側閾値THdwは機械学習モデルの有効性等を考慮して予め定められる。機械学習モデルの精度ACが下側閾値THdw以下であると判定された場合、本制御ルーチンはステップS106に進む。
ステップS106では、学習管理部15はデータの取得頻度の増加指示を対象のAI装置2に送信する。すなわち、学習管理部15は、データの取得頻度を増加するように対象のAI装置2に指示する。次いで、ステップS107において、学習管理部15は、対象のAI装置2に関するフラグFを1に設定する。ステップS107の後、本制御ルーチンは終了する。
一方、ステップS105において機械学習モデルの精度ACが下側閾値THdwよりも高いと判定された場合、本制御ルーチンはステップS108に進む。ステップS108では、学習管理部15は、機械学習モデルの精度ACが所定の上側閾値THup以上であるか否かを判定する。上側閾値THupは、下側閾値THdwよりも高い値であり、機械学習モデルの要求精度等を考慮して予め定められる。機械学習モデルの精度ACが上側閾値THup以上であると判定された場合、本制御ルーチンはステップS109に進む。
ステップS109では、学習管理部15はデータの取得頻度の減少指示を対象のAI装置2に送信する。すなわち、学習管理部15は、データの取得頻度を減少するように対象のAI装置2に指示する。次いで、ステップS110において、学習管理部15は、対象のAI装置2に関するフラグFを2に設定する。ステップS110の後、本制御ルーチンは終了する。
また、ステップS108において機械学習モデルの精度ACが上側閾値THdwよりも低いと判定された場合、すなわち精度ACが下側閾値THdwと上側閾値THupとの間である場合、本制御ルーチンは終了する。なお、この場合、学習管理部15は、データの取得頻度を初期値に維持するように対象のAI装置2に指示してもよい。
一方、ステップS104においてフラグFがゼロではないと判定された場合、本制御ルーチンはステップS111に進む。ステップS111では、学習管理部15は、フラグFが1であるか否かを判定する。フラグFが1であると判定された場合、すなわち対象のAI装置2においてデータの取得頻度が増加されている場合、本制御ルーチンはステップS112に進む。
ステップS112では、学習管理部15は、機械学習モデルの精度ACが所定の第1判定値X1以上であるか否かを判定する。第1判定値X1は、下側閾値THdwよりも高く且つ上側閾値THupよりも低い値に設定される。例えば、第1判定値X1は、下側閾値THdwよりも所定値だけ高い値に設定され、所定値は、対象のAI装置2においてデータの取得頻度の増加が頻繁に繰り返されないように定められる。
ステップS112において機械学習モデルの精度ACが第1判定値X1よりも低いと判定された場合、本制御ルーチンは終了する。なお、この場合、学習管理部15は、データの取得頻度を高頻度に維持するように対象のAI装置2に指示してもよい。
一方、ステップS112において機械学習モデルの精度ACが第1判定値X1以上であると判定された場合、本制御ルーチンはステップS113に進む。ステップS113では、学習管理部15はデータの取得頻度の初期化指示を対象のAI装置2に送信する。すなわち、学習管理部15は、データの取得頻度を初期化するように対象のAI装置2に指示する。次いで、ステップS114において、学習管理部15は、対象のAI装置2に関するフラグFをゼロにリセットする。ステップS114の後、本制御ルーチンは終了する。
一方、ステップS111においてフラグFが2であると判定された場合、すなわち対象のAI装置2においてデータの取得頻度が減少されている場合、本制御ルーチンはステップS115に進む。ステップS115では、学習管理部15は、機械学習モデルの精度ACが所定の第2判定値X2以下であるか否かを判定する。第2判定値X2は、上側閾値THupよりも低く且つ下側閾値THdwよりも高い値に設定される。例えば、第2判定値X2は、上側閾値THupよりも所定値だけ低い値に設定され、所定値は、対象のAI装置2においてデータの取得頻度の減少が頻繁に繰り返されないように定められる。
ステップS115において機械学習モデルの精度ACが第2判定値X2よりも低いと判定された場合、本制御ルーチンは終了する。なお、この場合、学習管理部15は、データの取得頻度を低頻度に維持するように対象のAI装置2に指示してもよい。
一方、ステップS115において機械学習モデルの精度ACが第2判定値X2以下であると判定された場合、本制御ルーチンはステップS113に進む。ステップS113では、学習管理部15はデータの取得頻度の初期化指示を対象のAI装置2に送信する。次いで、ステップS114において、学習管理部15は、対象のAI装置2に関するフラグFをゼロにリセットする。ステップS114の後、本制御ルーチンは終了する。
図7は、AI装置2において実行される実施頻度変更処理の制御ルーチンを示すフローチャートである。本制御ルーチンは、複数のAI装置2の各々において実行され、AI装置2のプロセッサ24によって所定の実行間隔で繰り返し実行される。
最初に、ステップS201において、データ取得部25は、管理サーバ1からデータの取得頻度の増加指示を受信したか否かを判定する。データの取得頻度の増加指示を受信したと判定された場合、本制御ルーチンはステップS202に進む。
ステップS202では、データ取得部25は、データの取得頻度を増加させ、データの取得頻度を初期値よりも高い所定値に変更する。例えば、データ取得部25は、センサ等によるデータの取得間隔を短くすると共に、センサ等からデータを受信する頻度を増加させる。この結果、訓練データの作成が促進され、訓練データの作成速度が早くなる。ステップS202の後、本制御ルーチンは終了する。
一方、ステップS201においてデータの取得頻度の増加指示を受信していないと判定された場合、本制御ルーチンはステップS203に進む。ステップS203では、データ取得部25は、管理サーバ1からデータの取得頻度の減少指示を受信したか否かを判定する。データの取得頻度の減少指示を受信したと判定された場合、本制御ルーチンはステップS204に進む。
ステップS204では、データ取得部25は、データの取得頻度を減少させ、データの取得頻度を初期値よりも低い所定値に変更する。例えば、データ取得部25は、センサ等によるデータの取得間隔を長くすると共に、センサ等からデータを受信する頻度を減少させる。この結果、訓練データの作成が抑制され、訓練データの作成速度が遅くなる。ステップS204の後、本制御ルーチンは終了する。
一方、ステップS203においてデータの取得頻度の低下指示を受信していないと判定された場合、本制御ルーチンはステップS205に進む。ステップS205では、データ取得部25は、管理サーバ1からデータの取得頻度の初期化指示を受信したか否かを判定する。データの取得頻度の初期化指示を受信したと判定された場合、本制御ルーチンはステップS206に進む。
ステップS206では、データ取得部25は、データの取得頻度を初期化し、データの取得頻度を初期値に戻す。ステップS206の後、本制御ルーチンは終了する。一方、ステップS205においてデータの取得頻度の初期化指示を受信していないと判定された場合、AI装置2におけるデータの取得頻度が維持され、本制御ルーチンは終了する。
複数のAI装置2の各々において、データの取得頻度の初期値、増加後の値及び減少後の値は予め定められる。なお、これらの値の少なくとも一部がAI装置2毎に異なっていてもよい。
図8は、AI装置2において実行される学習処理の制御ルーチンを示すフローチャートである。本制御ルーチンは、複数のAI装置2の各々において実行され、AI装置2のプロセッサ24によって繰り返し実行される。
最初に、ステップS301において、学習部26は、前回の学習後にデータ取得部25によって新たに作成された訓練データの数が所定数以上であるか否かを判定する。訓練データの数が所定数未満であると判定された場合、本制御ルーチンは終了する。一方、訓練データの数が所定数以上であると判定された場合、本制御ルーチンはステップS302に進む。
ステップS302では、学習部26は、新たに作成された訓練データを用いて、機械学習モデルの学習を行う。例えば、機械学習モデルがニューラルネットワークモデルである場合、学習部26は公知の誤差逆伝播法によって機械学習モデルの所定のパラメータ(重み及びバイアス)を更新する。
次いで、ステップS303において、精度算出部27は、学習部26によって学習された機械学習モデルの精度を算出する。例えば、機械学習モデルがニューラルネットワークモデルである場合、精度算出部27はホールドアウト法又は交差検証法のような公知の検証方法によって機械学習モデルの精度を算出する。機械学習モデルの精度の検証に用いられるテストデータは訓練データと共にデータ取得部25によって作成される。なお、テストデータはAI装置2の外部(例えば管理サーバ1)からAI装置2に提供されてもよい。
次いで、ステップS304において、精度算出部27は機械学習モデルの精度及びAI装置2の識別情報を管理サーバ1に送信する。ステップS304の後、本制御ルーチンは終了する。
なお、上記の処理では学習の直後に機械学習モデルの精度が算出されているが、機械学習モデルの精度は他のタイミングで算出されてもよい。例えば、精度算出部27は所定間隔で機械学習モデルの精度を算出してもよい。
また、管理サーバ1の学習管理部15は、機械学習モデルの学習に関する処理の実施頻度として、データの取得頻度の代わりに学習の実施頻度を変更してもよい。この場合、例えば、AI装置2の学習部26が所定間隔で機械学習モデルの学習を行い、学習管理部15はこの所定間隔の増加又は減少を対象のAI装置2に指示する。
<第二実施形態>
第二実施形態に係るモデル管理システム及びモデル管理装置の構成及び制御は、以下に説明する点を除いて、基本的に第一実施形態に係るモデル管理システム及びモデル管理装置の構成及び制御と同様である。このため、以下、本発明の第二実施形態について、第一実施形態と異なる部分を中心に説明する。
上述したように、学習管理部15は、所定の下側閾値以下の精度を有する機械学習モデルの学習に関する処理の実施頻度を増加させ、所定の上側閾値以上の精度を有する機械学習モデルの学習に関する処理の実施頻度を減少させる。しかしながら、実施頻度が増加されるAI装置2の数が多くなると、機械学習モデルの学習のための電力消費量が多くなり、実施頻度が減少されるAI装置2の数が少なくなると、機械学習モデルの学習のための電力消費量が少なくなる。この結果、複数のAI装置2が設置された対象エリアにおける電力消費量が変動し、供給電力の不足、余剰電力の増加等が生じるおそれがある。特に、電力の需要量及び供給量の予測に基づく電力マネジメントが行われるスマートシティのような対象エリアでは、電力消費量の予期せぬ変動を可及的に回避することが望ましい。
そこで、第二実施形態では、学習管理部15は、機械学習モデルの学習に関する処理の実施頻度の変更による電力消費量の変化量が所定値以下になるように下側閾値及び上側閾値の少なくとも一方を変更する。このことによって、複数のAI装置2間の機械学習モデルの精度のばらつきを抑制しつつ、学習のための電力消費量の変動を抑制することができる。
例えば、学習管理部15は、実施頻度が増加されたAI装置2の数が実施頻度が減少されたAI装置2の数よりも多いときには、複数のAI装置2の少なくとも一部に関する上側閾値を低くする。このことによって、実施頻度が変更されていないAI装置2に対して実施頻度の減少が促されるため、実施頻度が減少されたAI装置2の数を実施頻度が増加されたAI装置2の数に近付けることができる。したがって、学習のための電力消費量の変動を抑制することができる。
一方、学習管理部15は、実施頻度が減少されたAI装置2の数が実施頻度が増加されたAI装置2の数よりも多いときには、複数のAI装置2の少なくとも一部に関する下側閾値を高くする。このことによって、実施頻度が変更されていないAI装置2に対して実施頻度の増加が促されるため、実施頻度が増加されたAI装置2の数を実施頻度が減少されたAI装置2の数に近付けることができる。したがって、学習のための電力消費量の変動を抑制することができる。
図9A~図9Cは、第二実施形態において管理サーバ1において実行される実施頻度送信処理の制御ルーチンを示すフローチャートである。本制御ルーチンは管理サーバ1のプロセッサ14によって所定の実行間隔で繰り返し実行される。
ステップS401~S410は図6AのステップS101~S110と同様に実行される。このとき、ステップS403において、学習管理部15は、対象のAI装置2に関する記憶値として、フラグF、下側閾値THdw及び上側閾値THupを読み出す。第二実施形態では、下側閾値THdw及び上側閾値THupがデータの取得頻度の変更状況に応じて変更されるため、例えば、複数のAI装置2の各々に関する下側閾値THdw及び上側閾値THupがAI装置2の識別情報と共に管理サーバ1のストレージ装置12に記憶される。
ステップS407又はステップS410の後、本制御ルーチンはステップS411に進む。ステップS411では、学習管理部15は、データの取得頻度が増加されたAI装置2の数が、データの取得頻度が減少されたAI装置2の数と等しいか否かを判定する。すなわち、学習管理部15は、フラグFが1に設定されたAI装置2の数が、フラグFが2に設定されたAI装置2の数と等しいか否かを判定する。データの取得頻度が増加されたAI装置2の数がデータの取得頻度が減少されたAI装置2の数と等しくないと判定された場合、本制御ルーチンはステップS412に進む。
ステップS412では、学習管理部15は、対象のAI装置2に関するフラグFが1に設定されているか否かを判定する。フラグFが1に設定されていると判定された場合、すなわち対象のAI装置2においてデータの取得頻度が増加された場合、本制御ルーチンはステップS413に進む。
ステップS413では、学習管理部15は、データの取得頻度が増加されたAI装置2の数が、データの取得頻度が減少されたAI装置2の数よりも多いか否かを判定する。すなわち、学習管理部15は、フラグFが1に設定されたAI装置2の数が、フラグFが2に設定されたAI装置2の数よりも多いか否かを判定する。データの取得頻度が増加されたAI装置2の数がデータの取得頻度が減少されたAI装置2の数以下であると判定された場合、本制御ルーチンは終了する。
一方、ステップS413において、データの取得頻度が増加されたAI装置2の数がデータの取得頻度が減少されたAI装置2の数よりも多いと判定された場合、本制御ルーチンはステップS414に進む。ステップS414では、学習管理部15は、対象のAI装置2以外のAI装置2に関する上側閾値THupを低くする。ステップS414の後、本制御ルーチンは終了する。なお、ステップS414において、学習管理部15は、対象のAI装置2以外のAI装置2に関する上側閾値THup及び下側閾値THdwを低くしてもよい。このことによって、対象のAI装置2以外のAI装置2に関して、データの取得頻度の減少を促進することに加えて、データの取得頻度の増加を抑制することができる。また、上側閾値THup又は上側閾値THup及び下側閾値THdwが低くされるAI装置2は、対象のAI装置2以外のAI装置2の一部であってもよい。
一方、フラグFが2に設定されていると判定された場合、すなわち対象のAI装置2においてデータの取得頻度が減少された場合、本制御ルーチンはステップS415に進む。ステップS415では、学習管理部15は、データの取得頻度が減少されたAI装置2の数が、データの取得頻度が増加されたAI装置2の数よりも多いか否かを判定する。すなわち、学習管理部15は、フラグFが2に設定されたAI装置2の数が、フラグFが1に設定されたAI装置2の数よりも多いか否かを判定する。データの取得頻度が減少されたAI装置2の数がデータの取得頻度が増加されたAI装置2の数以下であると判定された場合、本制御ルーチンは終了する。
一方、ステップS415において、データの取得頻度が減少されたAI装置2の数がデータの取得頻度が増加されたAI装置2の数よりも多いと判定された場合、本制御ルーチンはステップS416に進む。ステップS416では、学習管理部15は、対象のAI装置2以外のAI装置2に関する下側閾値THdwを高くする。ステップS416の後、本制御ルーチンは終了する。なお、ステップS416において、学習管理部15は、対象のAI装置2以外のAI装置2に関する下側閾値THdw及び上側閾値THupを高くしてもよい。このことによって、対象のAI装置2以外のAI装置2に関して、データの取得頻度の増加を促進することに加えて、データの取得頻度の減少を抑制することができる。また、下側閾値THdw又は下側閾値THdw及び上側閾値THupが高くされるAI装置2は、対象のAI装置2以外のAI装置2の一部であってもよい。
一方、ステップS411において、データの取得頻度が増加されたAI装置2の数がデータの取得頻度が減少されたAI装置2の数と等しいと判定された場合、本制御ルーチンはステップS417に進む。ステップS417では、学習管理部15は、全てのAI装置2に関する上側閾値THup及び下側閾値THdwを初期化する。すなわち、学習管理部15は、全てのAI装置2に関する上側閾値THup及び下側閾値THdwを初期値に戻す。ステップS417の後、本制御ルーチンは終了する。
一方、ステップS404においてフラグFがゼロではないと判定された場合、本制御ルーチンはステップS418に進む。ステップS418~S422は図6BのステップS111~S115と同様に実行され、ステップS421の後、本制御ルーチンはステップS423に進む。
ステップS423では、学習管理部15は、全てのAI装置2においてデータの取得頻度が初期化されたか否かを判定する。すなわち、学習管理部15は、全てのAI装置2に関するフラグFがゼロに設定されているか否かを判定する。少なくとも一部のAI装置2においてデータの取得頻度が初期化されていないと判定された場合、本制御ルーチンは終了する。一方、全てのAI装置2においてデータの取得頻度が初期化されたと判定された場合、本制御ルーチンはステップS424に進む。
ステップS424では、学習管理部15は、全てのAI装置2に関する上側閾値THup及び下側閾値THdwを初期化する。すなわち、学習管理部15は、全てのAI装置2に関する上側閾値THup及び下側閾値THdwを初期値に戻す。ステップS424の後、本制御ルーチンは終了する。
なお、第二実施形態においても、第一実施形態と同様に、複数のAI装置2の各々において、図7の実施頻度変更処理の制御ルーチン及び図8の学習処理の制御ルーチンが実行される。
<第三実施形態>
第三実施形態に係るモデル管理システム及びモデル管理装置の構成及び制御は、以下に説明する点を除いて、基本的に第一実施形態に係るモデル管理システム及びモデル管理装置の構成及び制御と同様である。このため、以下、本発明の第三実施形態について、第一実施形態と異なる部分を中心に説明する。
図10は、第三実施形態における管理サーバ1のプロセッサ14の機能ブロック図である。第三実施形態では、プロセッサ14は、学習管理部15及び精度取得部16に加えて、電力量取得部17を有する。学習管理部15、精度取得部16及び電力量取得部17は、管理サーバ1のストレージ装置12に記憶されたコンピュータプログラムを管理サーバ1のプロセッサ14が実行することによって実現される機能モジュールである。なお、これら機能モジュールは、それぞれ、プロセッサ14に設けられた専用の演算回路によって実現されてもよい。
上述したように、学習管理部15は、所定の下側閾値以下の精度を有する機械学習モデルの学習に関する処理の実施頻度を増加させ、所定の上側閾値以上の精度を有する機械学習モデルの学習に関する処理の実施頻度を減少させる。しかしながら、複数のAI装置2が設置された対象エリアにおける電力需要の変動等により、複数のAI装置2における機械学習モデルの学習のために常に一定の電力量を使用できるとは限らない。
そこで、第三実施形態では、電力量取得部17が複数のAI装置2に供給可能な電力量を取得し、学習管理部15は、電力量取得部17によって取得された電力量に基づいて上側閾値及び下側閾値の少なくとも一方を変更する。このことによって、複数のAI装置2における機械学習モデルの学習に関する処理の実施頻度を、所望の電力消費量に応じた値に近付けることができ、学習のための電力が不足し又は余剰電力が生じることを抑制することができる。
図11は、第三実施形態において管理サーバ1において実行される閾値設定処理の制御ルーチンを示すフローチャートである。本制御ルーチンは管理サーバ1のプロセッサ14によって所定の実行間隔で繰り返し実行される。
最初に、ステップS501において、電力量取得部17は複数のAI装置2(対象エリア内に設置され且つ管理サーバ1によって管理される全てのAI装置2)に供給可能な電力量を取得する。例えば、電力量取得部17は対象エリアにおける電力需要量及び電力供給量の予測値に基づいて複数のAI装置2に供給可能な電力量を算出する。電力供給量の予測値から電力需要量の予測値を減算した値が大きいほど、複数のAI装置2に供給可能な電力量は多くなる。電力需要量及び電力供給量の予測値は、例えば、電力会社等から管理サーバ1に送信され、オペレータによって管理サーバ1に入力され、電力需要量及び電力供給量の過去の実績値から算出され、又は機械学習モデルのような推定器を用いて所定の入力パラメータから算出される。
次いで、ステップS502において、学習管理部15は、ステップS501において取得された電力量に基づいて、上側閾値THup及び下側閾値THdwを設定する。学習管理部15によって設定された上側閾値THup及び下側閾値THdwは管理サーバ1のストレージ装置12に記憶される。
例えば、学習管理部15は、図12及び図13に示されるようなマップを用いて上側閾値THup及び下側閾値THdwを設定する。図12は、複数のAI装置2に供給可能な電力量と上側閾値THupとの関係を示す図である。例えば、図12に実線で示されるように、学習管理部15は、供給可能な電力量が多くなるにつれて、上側閾値THupを段階的に(ステップ状に)高くする。なお、図12に破線で示されるように、学習管理部15は、供給可能な電力量が多くなるにつれて、上側閾値THupを線形的に高くしてもよい。
図13は、複数のAI装置2に供給可能な電力量と下側閾値THdwとの関係を示す図である。例えば、図13に実線で示されるように、学習管理部15は、供給可能な電力量が多くなるにつれて、下側閾値THdwを段階的に(ステップ状に)高くする。なお、図13に破線で示されるように、学習管理部15は、供給可能な電力量が多くなるにつれて、下側閾値THdwを線形的に高くしてもよい。
なお、学習管理部15は、複数のAI装置2に供給可能な電力量に基づいて、上側閾値THup及び下側閾値THdwの一方のみを変更してもよい。また、AI装置2毎に異なるマップが用いられ、複数のAI装置2間で上側閾値THup及び下側閾値THdwが異なる値に設定されてもよい。ステップS502の後、本制御ルーチンは終了する。
なお、第三実施形態においても、管理サーバ1において、図6A及び図6Bの実施頻度送信処理の制御ルーチンが実行される。このとき、図6AのステップS103において、学習管理部15は、対象のAI装置2に関する記憶値として、フラグF、下側閾値THdw及び上側閾値THupを読み出す。また、第三実施形態においても、第一実施形態と同様に、複数のAI装置2の各々において、図7の実施頻度変更処理の制御ルーチン及び図8の学習処理の制御ルーチンが実行される。
<その他の実施形態>
以上、本発明に係る好適な実施形態を説明したが、本発明はこれら実施形態に限定されるものではなく、特許請求の範囲の記載内で様々な修正及び変更を施すことができる。例えば、複数のAI装置2の各々において学習が行われる機械学習モデルは、ランダムフォレスト、k近傍法、サポートベクターマシン等のニューラルネットワーク以外の機械学習モデルであってもよい。
また、AI装置2において学習される機械学習モデルが人の健康に関する場合、機械学習モデルの精度を可及的に高く維持することが望ましい。このため、学習管理部15は、所定の上側閾値以上の精度を有し且つ人の健康に関するデータを出力しない機械学習モデルの学習に関する処理の実施頻度を減少させてもよい。すなわち、人の健康に関するデータを出力する機械学習モデルの精度が所定の上側閾値以上であったとしても、この機械学習モデルの学習に関する処理の実施頻度を初期値に維持してもよい。このことによって、人の健康に関するデータの予測精度を高く維持することができる。人の健康に関するデータは、例えば、所定の病気に罹患している確率、人の健康レベル等である。
また、AI装置2において学習された機械学習モデルの情報(重み、バイアス等)がAI装置2から管理サーバ1に送信され、AI装置2の精度算出部27の代わりに、管理サーバ1の精度取得部16が機械学習モデルの精度を算出してもよい。
1 管理サーバ
11 通信インターフェース
14 プロセッサ
15 学習管理部
16 精度取得部
2 AI装置

Claims (9)

  1. 複数の機械学習モデルを管理するモデル管理装置であって、
    各々が機械学習モデルの学習を継続的に行う複数のAI装置と通信可能な通信部と、
    前記複数のAI装置の各々における機械学習モデルの学習を管理する学習管理部と、
    前記複数のAI装置の各々において学習された機械学習モデルの精度を取得する精度取得部と
    を備え、
    前記学習管理部は、所定範囲内の精度を有する機械学習モデルの学習に関する処理の実施頻度を変更する、モデル管理装置。
  2. 前記学習管理部は、所定の下側閾値以下の精度を有する機械学習モデルの学習に関する処理の実施頻度を増加させる、請求項1に記載のモデル管理装置。
  3. 前記学習管理部は、前記実施頻度の増加によって機械学習モデルの精度が前記下側閾値よりも高い所定の第1判定値まで上昇したときに、該実施頻度を元に戻す、請求項2に記載のモデル管理装置。
  4. 前記学習管理部は、所定の上側閾値以上の精度を有する機械学習モデルの学習に関する処理の実施頻度を減少させる、請求項1から3のいずれか1項に記載のモデル管理装置。
  5. 前記学習管理部は、前記実施頻度の減少によって機械学習モデルの精度が前記上側閾値未満の所定の第2判定値まで低下したときに、該実施頻度を元に戻す、請求項4に記載のモデル管理装置。
  6. 前記学習管理部は、所定の下側閾値以下の精度を有する機械学習モデルの学習に関する処理の実施頻度を増加させ、所定の上側閾値以上の精度を有する機械学習モデルの学習に関する処理の実施頻度を減少させ、該実施頻度の変更による電力消費量の変化量が所定値以下になるように前記下側閾値及び前記上側閾値の少なくとも一方を変更する、請求項1から5のいずれか1項に記載のモデル管理装置。
  7. 前記複数のAI装置に供給可能な電力量を取得する電力量取得部を更に備え、
    前記学習管理部は、所定の下側閾値以下の精度を有する機械学習モデルの学習に関する処理の実施頻度を増加させ、所定の上側閾値以上の精度を有する機械学習モデルの学習に関する処理の実施頻度を減少させ、前記電力量に基づいて前記上側閾値及び前記下側閾値の少なくとも一方を変更する、請求項1から5のいずれか1項に記載のモデル管理装置。
  8. 前記上側閾値以上の精度を有する機械学習モデルは、人の健康に関するデータを出力しない機械学習モデルである、請求項4から7のいずれか1項に記載のモデル管理装置。
  9. モデル管理装置を用いて複数の機械学習モデルを管理するモデル管理方法であって、
    複数のAI装置の各々において学習された機械学習モデルの精度を取得することと、
    所定範囲内の精度を有する機械学習モデルの学習に関する処理の実施頻度を変更することと
    を含む、モデル管理方法。
JP2021139830A 2021-08-30 2021-08-30 モデル管理装置及びモデル管理方法 Expired - Fee Related JP7070775B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021139830A JP7070775B1 (ja) 2021-08-30 2021-08-30 モデル管理装置及びモデル管理方法
CN202210987009.0A CN115759277A (zh) 2021-08-30 2022-08-17 模型管理装置及模型管理方法
US17/896,290 US20230063791A1 (en) 2021-08-30 2022-08-26 Model management device and model managing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021139830A JP7070775B1 (ja) 2021-08-30 2021-08-30 モデル管理装置及びモデル管理方法

Publications (2)

Publication Number Publication Date
JP7070775B1 JP7070775B1 (ja) 2022-05-18
JP2023033894A true JP2023033894A (ja) 2023-03-13

Family

ID=81652930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021139830A Expired - Fee Related JP7070775B1 (ja) 2021-08-30 2021-08-30 モデル管理装置及びモデル管理方法

Country Status (3)

Country Link
US (1) US20230063791A1 (ja)
JP (1) JP7070775B1 (ja)
CN (1) CN115759277A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025033711A1 (ko) * 2023-08-10 2025-02-13 엘지전자 주식회사 무선 통신 시스템에서 신호 송수신 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282281A (ja) * 1992-03-31 1993-10-29 Hitachi Ltd 需要予測方法および装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11270228B2 (en) * 2017-11-17 2022-03-08 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system
JP7015261B2 (ja) * 2019-02-13 2022-02-02 ファナック株式会社 管理装置及び管理システム
JP7293729B2 (ja) * 2019-03-01 2023-06-20 富士フイルムビジネスイノベーション株式会社 学習装置、情報出力装置、及びプログラム
US11804050B1 (en) * 2019-10-31 2023-10-31 Nvidia Corporation Processor and system to train machine learning models based on comparing accuracy of model parameters
US20200401891A1 (en) * 2020-09-04 2020-12-24 Intel Corporation Methods and apparatus for hardware-aware machine learning model training

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282281A (ja) * 1992-03-31 1993-10-29 Hitachi Ltd 需要予測方法および装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DANIEL CRANKSHAW ET AL.: "The Missing Piece in Complex Analytics: Low Latency, Scalable Model Management and Serving with Velo", [オンライン], JPN6021050723, ISSN: 0004667682 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025033711A1 (ko) * 2023-08-10 2025-02-13 엘지전자 주식회사 무선 통신 시스템에서 신호 송수신 방법 및 장치

Also Published As

Publication number Publication date
JP7070775B1 (ja) 2022-05-18
US20230063791A1 (en) 2023-03-02
CN115759277A (zh) 2023-03-07

Similar Documents

Publication Publication Date Title
JP7481902B2 (ja) 管理計算機、管理プログラム、及び管理方法
TWI687711B (zh) 震央距離推定裝置、震央距離推定方法及電腦可讀取之記錄媒體
JP2016071697A (ja) 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム
WO2021238513A1 (zh) 区块链节点扩容方法、装置、计算机设备及存储介质
US11310349B1 (en) Transforming multivariate time series data into image data to generate image-based predictions
TWI790795B (zh) 模型校正方法、模型校正系統及非暫態電腦可讀取媒體
CN114723024A (zh) 用于存算一体芯片的基于线性规划的神经网络映射方法
US20230081719A1 (en) Model management device and model management method
JP2023033894A (ja) モデル管理装置及びモデル管理方法
Yang et al. An improved CS-LSSVM algorithm-based fault pattern recognition of ship power equipments
CN112765489A (zh) 一种社交网络链路预测方法及系统
JP2021043601A (ja) 学習プログラムおよび学習方法
CN115482928A (zh) 基于人工智能的数据预测方法、装置、设备及存储介质
JP2020194377A (ja) ジョブ電力予測プログラム、ジョブ電力予測方法、およびジョブ電力予測装置
KR20220166176A (ko) 딥 뉴럴 네트워크를 양자화하는 방법 및 장치
US11314212B2 (en) HTM-based predictions for system behavior management
JP2019033369A (ja) データ処理装置及びその制御方法、並びにプログラム
KR20230108341A (ko) 데이터 수집 분석 모듈, 데이터 수집 분석 모듈의 동작 방법 및 프로그래머블 로직 컨트롤러
US20250298454A1 (en) Power prediction using a machine learning model
WO2020101036A1 (ja) 教師信号生成装置、モデル生成装置、物体検出装置、教師信号生成方法、モデル生成方法、およびプログラム
KR102676136B1 (ko) 시간의 흐름에 따라 독립적으로 학습된 다중 생성모델을 이용하여 이상을 탐지하는 방법
CN113553513B (zh) 基于人工智能的课程推荐方法、装置、电子设备及介质
US20230168873A1 (en) Scheduling apparatus, training apparatus, scheduler and generation method
JP7661205B2 (ja) 情報処理装置及び情報処理方法
JP6770717B2 (ja) メタデータ生成装置、メタデータ生成方法及びメタデータ生成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210910

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220418

R151 Written notification of patent or utility model registration

Ref document number: 7070775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees