[go: up one dir, main page]

JP7088391B1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP7088391B1
JP7088391B1 JP2021114378A JP2021114378A JP7088391B1 JP 7088391 B1 JP7088391 B1 JP 7088391B1 JP 2021114378 A JP2021114378 A JP 2021114378A JP 2021114378 A JP2021114378 A JP 2021114378A JP 7088391 B1 JP7088391 B1 JP 7088391B1
Authority
JP
Japan
Prior art keywords
learning
model
priority
unit
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021114378A
Other languages
English (en)
Other versions
JP2023010321A (ja
Inventor
大樹 横山
晃人 伊藤
亮 中林
達也 今村
智洋 金子
宏樹 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021114378A priority Critical patent/JP7088391B1/ja
Application granted granted Critical
Publication of JP7088391B1 publication Critical patent/JP7088391B1/ja
Priority to US17/859,654 priority patent/US20230008923A1/en
Publication of JP2023010321A publication Critical patent/JP2023010321A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Selective Calling Equipment (AREA)

Abstract

【課題】学習を適切な順序で行うことができる情報処理装置を提供する。【解決手段】出力パラメータが異なる複数のモデルを機械学習させるサーバ200の制御装置210のプロセッサ212であって、通信可能に接続された複数の機器10から情報を受信する受信部212aと、受信部212aが受信した情報を用いて、モデル毎に学習用のデータセットを作成する学習用データセット作成部212bと、複数のモデルについて学習に必要な数の前記データセットが作成されると、モデル間の学習の優先順位に基づいて、学習に必要な数のデータセットが作成されたモデルのうち優先順位の高いモデルを優先的に機械学習させる学習部212fと、を備える。【選択図】図3

Description

本発明は、情報処理装置に関する。
スマートシティでは、そのコミュニティ内の複数の主体(事業主体)からデータを収集する必要が生じるが、主体毎のばらつきに起因して収集するデータが不確かなものとなることに鑑み、外部装置からの監視データを受信し、外部装置の情報に基づきこの監視データへの補正情報を算出し、算出結果を監視データに付加して補正後データとし、それに基づき、制御する外部装置を抽出し、抽出された外部装置に制御情報を送信することが公知である(例えば、特許文献1を参照)。
特開2013-69084号公報
スマートシティでは、その内部に存在するモノや人から各種情報を吸い上げ、人工知能を利用した学習に役立てることが想定される。吸い上げる情報、および学習対象は多種多様であり、多種多様なビッグデータを処理し、非常に多くの学習対象について学習を行うことが求められる。そのため、全ての学習対象を同時に学習することは事実上不可能である。
そこで、本発明は、学習を適切な順序で行うことができる情報処理装置を提供することを目的とする。
本開示の要旨は以下のとおりである。
(1) 出力パラメータが異なる複数のモデルを機械学習させる情報処理装置であって、
通信可能に接続された複数の機器から情報を受信する受信部と、
前記受信部が受信した情報を用いて、モデル毎に学習用のデータセットを作成する学習用データセット作成部と、
複数のモデルについて学習に必要な数の前記データセットが作成されると、モデル間の学習の優先順位に基づいて、前記学習に必要な数のデータセットが作成されたモデルのうち優先順位の高いモデルを優先的に機械学習させる学習部と、
を備える、情報処理装置。
(2) 出力パラメータが人命に関わるパラメータであるモデルの学習の優先順位は、出力パラメータが人命に関わらないモデルの学習の優先順位よりも高く設定される、上記(1)に記載の情報処理装置。
(3) 前記学習部は、モデルの学習中には、学習に必要な数のデータセットが作成されて学習を待機しているモデルがあっても、学習中のモデルの学習が完了するまで、前記待機しているモデルの学習は行わず、学習中のモデルの学習が完了すると、前記待機しているモデルのうち優先順位の高いモデルを優先的に機械学習させる、上記(1)又は(2)に記載の情報処理装置。
(4) 前記学習部は、学習に必要な数のデータセットが新たに作成されたモデルの学習の優先順位が、現在学習中のモデルの学習の優先順位よりも高い場合には、現在学習中のモデルの学習を中断して、前記学習に必要な数のデータセットが新たに作成されたモデルを優先的に学習させる、上記(1)又は(2)に記載の情報処理装置。
(5) 前記学習部は、前記学習に必要な数よりも多い基準数のデータセットが作成されたモデルがある場合には、前記優先順位に関わらず、前記基準数のデータセットが作成されたモデルを優先的に機械学習させる、上記(1)~(4)のいずれかに記載の情報処理装置。
(6) 前記出力パラメータが所定の事象の発生確率である場合の当該事象の発生頻度、出力パラメータと人命との関連度、又は出力パラメータの値の予測困難性に基づいて前記優先順位を決定する優先順位決定部を更に備える、上記(1)~(5)のいずれかに記載の情報処理装置。
本発明によれば、学習を適切な順序で行うことができる情報処理装置を提供することが可能になるという効果を奏する。
一つの実施形態による機械学習システムを示す模式図である。 サーバの構成を示す模式図である。 サーバに備えられた制御装置のプロセッサの機能ブロックを示す模式図である。 学習部が学習用のデータセットに基づいて学習を行い、学習済みモデルを作成するニューラルネットワークの一例を示す模式図である。 サーバの制御装置のプロセッサが行う処理を示すフローチャートである。 サーバの制御装置のプロセッサが行う処理を示すフローチャートである。 サーバの制御装置のプロセッサが行う処理を示すフローチャートである。 心電情報解析処理に関する、プロセッサの機能ブロック図である。 (a)及び(b)は、それぞれ、心電波形の周波数スペクトルの一例を示す図である。 心電波形の一例を示す図である。 (a)及び(b)は、それぞれ、心電波形における二つのピーク間の間隔の一例を示す図である。
以下、本発明に係る幾つかの実施形態について図を参照しながら説明する。しかしながら、これらの説明は、本発明の好ましい実施形態の単なる例示を意図するものであって、本発明をこのような特定の実施形態に限定することを意図するものではない。
図1は、一つの実施形態による機械学習システム1000を示す模式図である。この機械学習システム1000では、スマートシティ100内の各種機器10とサーバ200とが互いに通信可能となっている。具体的には、スマートシティ100内の各種機器10とサーバ200とは、光通信回線などで構成される通信ネットワーク300を介して互いに通信可能となっている。通信ネットワーク300は、スマートシティ100内の各種機器10とサーバ200間の通信を有線で中継する。
また、スマートシティ100内の各種機器10とサーバ200とは、通信ネットワーク300及び通信ネットワーク300とゲートウェイ(図示せず)を介して接続される無線基地局350を介して互いに通信可能となっていてもよい。無線基地局350は、スマートシティ100内の各種機器10と、通信ネットワーク300を介したサーバ200との間の通信を無線で中継する。
なお、スマートシティとは、例えば、国土交通省により提言された、都市の抱える諸課題に対して、ICT(Information and Communication Technology)等の新技術を活用しつつ、マネジメント(計画、整備、管理・運営等)が行われ、全体最適化が図られる持続可能な都市または地区である。あらゆるモノやサービスがつながる実証都市「コネクティッド・シティ」は、スマートシティ100の一態様である。なお、スマートシティやコネクティッド・シティでは、来訪者を目的地(見学先)まで輸送する自動運転車両(自動運転バス)が運行される場合がある。
スマートシティ100内の各種機器10は、スマートシティ100内を自動運転または手動運転で走行する車両が備える機器(ECU、各種センサ類、ナビゲーション装置など)、スマートシティ100内の設備(住居、店舗、工場、病院、鉄道駅等)が備える機器(これらの設備が備える各種センサ、コンピュータ等)、スマートシティ100内の道路または広場などに設置された機器(各種センサ、監視カメラ等)、スマートシティ100内の人が保有または装着している機器(スマートフォン、ウェアラブルデバイス等)など、スマートシティ100内のサーバ200と通信可能なあらゆる機器を含む。これらの機器10は、単一の設備で用いられるもの、複数の設備に跨って用いられるものを含む。機械学習システム1000は、これらの機器10とサーバ200とが通信可能に接続されて構築されるIoT(Internet of Things)により、サーバ200がスマートシティ100内の事象を認識でき、また予測できるようになっている。
サーバ200は、スマートシティ100内の各種機器10から得られるデータに基づき、スマートシティ100内の事象をディープラーニング(深層学習)などの手法により機械学習し、学習済みモデルを作成する。作成された学習済みモデルは、サーバ200のストレージ装置220に格納される。そして、サーバ200は、作成した学習済みモデルを利用した人工知能(AI:Artificial Intelligence)により、スマートシティ100内の事象を認識し、予測する。スマートシティ100内の機器10は、サーバ200にアクセスすることで、学習済みモデルを利用した人工知能を利用することができる。また、サーバ200は、学習済みモデルを利用しようとする機器10に学習済みモデルを送信することができる。以上のようにして、サーバ200は、スマートシティ100内の様々な機器10が利用する複数の学習済みモデルを管理している。
スマートシティ100内の機器10の種類が多岐にわたるため、スマートシティ100内の各種機器10から得られるデータは巨大なデータ群(ビッグデータ)となる。そして、これらのデータ群を用いたサーバ200による機械学習の対象となるモデルは多種多様となり、その種類は非常に多くなる。
サーバ200がスマートシティ100内の事象を学習するにあたり、サーバ200の処理能力には限界があるため、一度に複数のモデルを機械学習することができない場合がある。一方、複数のモデルをランダムな順序で順次に機械学習すると、重要度の低いモデルの学習が重要度の高いモデルの学習よりも先に行われる場合がある。
本実施形態では、出力パラメータが異なる複数のモデルのそれぞれに優先順位が定められている。例えば、病院で用いられるモデルなど、人命に関わるモデル(医療に関するモデル)については、他のモデルよりも優先順位が高く設定され、優先的に学習が行われる。これにより、重要度が比較的低いモデルの学習が人命に関わるモデルの学習よりも先に行われることが抑制され、結果的に適切な順序で学習が行われる。
なお、人命に関わるモデルの例として、熱中症になる確率、不整脈になる確率、感染症になる人数、生活習慣病になる人数などを出力パラメータとするモデルが挙げられる。また、人命に関わるモデルの例として、病院の空きベッド数、病院の入院患者数、来院患者数、医療負荷、当直医の人数、または地域の健康度等を出力パラメータとするモデルなど、医療体制維持のためのモデルが挙げられる。また、人命に関わるモデル以外のモデルとして、例えば、スマートシティ100内の車両の運転状態を出力パラメータとするモデル、スマートシティ100内の車両の交通量(渋滞状況の予測を含む)を出力パラメータとするモデル、スマートシティ100内およびその周辺の天候(天候、気温、湿度の予測を含む)を出力パラメータとするモデル、スマートシティ100内の電力の供給(電力需給の予測を含む)を出力パラメータとするモデルなどが挙げられる。
なお、スマートシティ100内の電力の供給がシャットダウンするとスマートシティ100の機能が麻痺するため、スマートシティ100内の電力の供給に関するモデルの優先度は、スマートシティ100内の人命に関するモデルの次に高くてもよい。また、スマートシティ100内の車両の運転状態または交通量に関するモデルの優先度は、スマートシティ100内の電力の供給に関するモデルの次に高くてもよい。
また、後で詳細に説明するが、人命に関するモデルは細分化された複数のモデルを含み、例えば「熱中症が発生する確率」、「不整脈が発生する確率」などの細分化された個々のモデルについても優先順位が定められる。同様に、人命に関するモデル以外のモデルについても、細分化された複数のモデルを含み、細分化された個々のモデルについても優先順位が定められていてよい。
以上のように、スマートシティ100では、その内部に存在するモノや人から各種情報を吸い上げ、サーバ200による人工知能を利用した学習に役立てている。吸い上げる情報、およびモデルは多種多様であり、サーバ200には、多種多様なビッグデータを処理し、非常に多くのモデルについて学習を行うことが求められる。一方、サーバ200の処理能力には限りがあるため、全てのモデルを同時に学習することは事実上不可能に近い。そこで、本実施形態により出力パラメータの異なるモデルに優先順位が定められることで、優先順位に従って学習が順次に行われるため、サーバ200の処理能力を超えることなく、多種多様なモデルを学習することが可能となる。
図2は、サーバ200の構成を示す模式図である。サーバ200は、制御装置210と、ストレージ装置220と、を有している。
制御装置210は、プロセッサ212と、メモリ214と、通信インターフェース216とを有する。プロセッサ212は、情報処理装置の一態様であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ212は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。メモリ214は、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。通信インターフェース216は、制御装置210をサーバ200内のネットワーク、または通信ネットワーク300に接続するためのインターフェース回路を有する。通信インターフェース216は、スマートシティ100内の各種機器10と、通信ネットワーク300(及び無線基地局350)を介して通信可能に構成される。すなわち、通信インターフェース216は、スマートシティ100内の各種機器10から通信ネットワーク300(及び無線基地局350)を介して受信した各種情報(センサ値、学習済みモデルへの入力値など)をプロセッサ212へわたす。また、通信インターフェース216は、プロセッサ212から受け取った学習済みモデルの出力値、または学習済みモデル自体などを、通信ネットワーク300(及び無線基地局350)を介してスマートシティ100内の各種機器10へ送信する。
ストレージ装置220は、例えば、ハードディスク装置または光記録媒体及びそのアクセス装置を有する。ストレージ装置220には、学習の結果得られた学習済モデルなどが記憶されている。なお、ストレージ装置220は、プロセッサ212上で実行される処理を実行するためのコンピュータプログラムを記憶してもよい。
図3は、サーバ200に備えられた制御装置210のプロセッサ212の機能ブロックを示す模式図である。制御装置210のプロセッサ212は、情報処理装置の一態様であり、受信部212aと、学習用データセット作成部212bと、待機状態設定部212cと、優先順位決定部212dと、優先順位判定部212eと、学習部212fと、記憶処理部212gと、学習済みモデル適用部212hと、送信部212iと、を有している。プロセッサ212が有するこれらの各部は、例えば、プロセッサ212上で動作するコンピュータプログラムにより実現される機能モジュールである。つまり、プロセッサ212が有するこれらの各部は、プロセッサ212とこれを機能させるためのプログラム(ソフトウェア)から構成される。また、そのプログラムは、制御装置210が備えるメモリ214または外部から接続される記録媒体に記録されていてもよい。あるいは、プロセッサ212が有するこれらの各部は、プロセッサ212に設けられる専用の演算回路であってもよい。
プロセッサ212の受信部212aは、通信可能に接続された複数の機器10から情報を受信する。具体的には、受信部212aは、通信ネットワーク300(及び無線基地局350)を介してスマートシティ100内の各種機器10から情報を受信する。
プロセッサ212の学習用データセット作成部212bは、受信部212aが受信した情報を用いて、受信した情報に含まれる各種データを分類して組み合わせることで、モデル毎に学習用のデータセットを作成する。学習用データセット作成部212bはモデル毎に学習用のデータセットを作成するため、学習用データセット作成部212bが作成する学習用のデータセットはモデルに応じて異なるものとなる。学習用データセット作成部212bが作成したデータセットは、ストレージ装置220に蓄積される。
プロセッサ212の待機状態設定部212cは、学習用のデータセットが学習を開始するために必要な所定値(第1閾値)以上蓄積されたモデルの学習を待機状態(スタンバイ状態)に設定する。学習を開始するために必要な所定値は、モデル毎に定められる値であって、モデル毎のデータセットの推定規模によって定まる。基本的には、高度な学習になるほど学習を開始するために必要な所定値は大きくなる。学習を開始するために必要な所定値は、モデル毎に予め定められた値であってもよく、サーバ200の制御装置210のメモリ214、またはストレージ装置220に格納されていてもよい。
プロセッサ212の優先順位決定部212dは、モデル毎の学習の優先順位を決定する。例えば、優先順位決定部212dは、モデルの出力パラメータが所定の事象の発生確率である場合、当該事象の発生頻度に応じて、発生頻度が高いほど優先順位を高くしてもよい。例えば、人命に関するモデルのうち、夏場の熱中症の発生頻度は不整脈の発生頻度よりも高いと考えられるので、優先順位決定部212dは、出力パラメータが「熱中症になる確率」であるモデルの優先順位が、出力パラメータが「不整脈になる確率」のであるモデルの優先順位よりも高くなるように優先順位を決定してもよい。一方、熱中症は安静にすれば回復する可能性が高いが、不整脈は直接命に係わる場合があるため、熱中症よりも不整脈の方が人命に対する危険性は高いと考えられる。このため、優先順位決定部212dは、出力パラメータと人命との関連度に基づいて、出力パラメータが「不整脈になる確率」であるモデルの優先順位が、出力パラメータが学習対象「熱中症になる確率」であるモデルの優先順位よりも高くなるように優先順位を決定してもよい。
また、優先順位決定部212dは、モデルの出力パラメータの値の予測困難性に応じて優先順位を決定してもよい。例えば、出力パラメータが「不整脈になる確率」であるモデルについては、スマートシティ100内の人が装着している機器(ウェアラブルデバイス等)から逐次得られる生体情報(心電、心拍数)に基づいて、比較的精度の高い学習済みモデルを作成することが可能である。一方、出力パラメータが「熱中症になる確率」であるモデルについては、気温や湿度などの気象条件の影響を受け易く、生体情報に気象条件を加えて学習を行う必要があり、精度の高い学習済みモデルを作成することに関し、出力パラメータが「不整脈になる確率」であるモデルよりも困難が伴う場合がある。このため、「熱中症になる確率」の予測困難性は、「不整脈になる確率」の予測困難性よりも高くなる可能性がある。更に、不整脈については、ウェアラブルデバイス等による心電、心拍数の計測結果に基づいてユーザに直接アラートを出すことが可能であり、学習結果を用いる必要がない場合もあり得る。このため、優先順位決定部212dは、モデルの出力パラメータの値の予測困難性に応じて、予測困難性が高い学習対象ほど優先順位が高くなるように優先順位を決定してもよい。この場合、出力パラメータが「熱中症になる確率」であるモデルの優先順位の方が、出力パラメータが「不整脈になる確率」であるモデルの優先順位よりも高くなるように優先順位が決定される。
以上のように、学習の優先順位を決定する要因として、モデルの出力パラメータに係る事象の発生頻度、出力パラメータと人命との関連度、および出力パラメータの値の予測困難性が挙げられる。したがって、より好ましくは、優先順位決定部212dは、モデルの出力パラメータに係る事象の発生頻度、出力パラメータと人命との関連度、および出力パラメータの値の予測困難性を表す指標(係数)の少なくとも2つ以上を乗算した値に基づいて優先順位を決定する。なお、モデルの出力パラメータに係る事象の発生頻度、出力パラメータと人命との関連度、および出力パラメータの値の予測困難性を表したテーブルは、予めストレージ装置220に格納されていてもよい。
また、優先順位決定部212dは、モデルの出力パラメータに係る事象の発生頻度の動的な変化に応じて優先順位を動的に変更してもよい。例えば、「熱中症になる確率」がモデルの出力パラメータである場合、熱中症になる確率は天候や季節に応じて変化し、天候が雨や曇りの場合、あるいは季節が冬の場合は、熱中症の発生頻度は低くなる。したがって、季節が冬の場合、出力パラメータが「熱中症になる確率」であるモデルを学習することの優先順位を他のモデルの学習に比べて高くする必要性は比較的低くなる。一方、風邪や低体温症の発生頻度は、季節が冬になり気温が低くなるほど高くなる。したがって、優先順位決定部212dは、モデルの出力パラメータに係る事象の天候や季節に応じて変化する発生頻度に基づき、優先順位を変更してもよい。なお、モデルの出力パラメータ毎の天候や季節に応じた発生頻度の変化を表すテーブルは、予めストレージ装置220に格納されていてもよい。以上により、動的に優先順位が変わっていく中で、学習開始時に最も高い優先順位のモデルが優先的に学習される。
プロセッサ212の優先順位判定部212eは、複数のモデルの学習が待機状態に設定されており、複数のモデルの学習が競合する場合に、学習の優先順位を判定する。また、優先順位判定部212eは、既に学習中のモデルがあり、1または複数のモデルの学習が待機状態に設定されている場合に、学習中のモデルと学習待機状態のモデルの優先順位を判定する。優先順位判定部212eは、予め定められた優先順位、または優先順位決定部212dが決定した優先順位に基づいて、学習の優先順位を判定する。
プロセッサ212の学習部212fは、複数のモデルについて学習に必要な数のデータセットが作成されると、モデル間の学習の優先順位に基づいて、学習に必要な数のデータセットが作成されたモデルのうち優先順位の高いモデルを優先的に機械学習させることにより、学習済みモデルを作成する。特に、出力パラメータが人命に関わるパラメータであるモデルの学習の優先順位は、出力パラメータが人命に関わらないモデルの学習の優先順位よりも高く設定されるため、学習部212fは、出力パラメータが人命に関わるパラメータであるモデルを出力パラメータが人命に関わらないモデルよりも優先的に機械学習させる。
具体的には、学習部212fは、モデルの学習中には、学習に必要な数のデータセットが作成されて学習を待機しているモデルがあっても、学習中のモデルの学習が完了するまで、待機しているモデルの学習は行わず、学習中のモデルの学習が完了すると、待機しているモデルのうち優先順位の高いモデルを優先的に機械学習させる。
また、学習部212fは、学習に必要な数のデータセットが新たに作成されたモデルの学習の優先順位が、現在学習中のモデルの学習の優先順位よりも高い場合には、現在学習中のモデルの学習を中断して、学習に必要な数のデータセットが新たに作成されたモデルを優先的に学習させる。
学習部212fは、好ましくは、優先順位の最も高い1のモデルを優先的に機械学習させる。一方、学習部212fは、プロセッサ212の演算能力と学習の演算負荷に応じて、2以上のモデルを並列して機械学習させることが可能な場合は、優先順位の高い2以上のモデルを並列して機械学習させてもよい。
図4は、学習部212fが学習用のデータセットに基づいて学習を行い、学習済みモデルを作成するニューラルネットワークの一例を示す模式図である。なお、図4に示すニューラルネットワーク自体は既に公知であるためここでは概要を説明する。図4における丸印は人工ニューロンを表しており、ニューラルネットワークにおいては、この人工ニューロンは、通常、ノード又はユニットと称される(ここでは、ノードと称す)。図4においてL=1は入力層、L=2およびL=3は隠れ層、L=4は出力層を夫々示している。図4に示されるように、入力層(L=1)が5個のノードからなり、入力値x、x、x、x、xが入力層(L=1)の各ノードに入力されている。一方、図4には模式的に6個のノードを有する隠れ層(L=2)および隠れ層(L=3)の2層が記載されているが、これら隠れ層の層数は、1個又は任意の個数とすることができ、またこれら隠れ層に存在するノードの数も任意の個数とすることができる。z21、z22、z23、z24、z25およびz26は隠れ層(L=2)の各ノードからの出力値を示しており、z31、z32、z33、z34、z35およびz36は隠れ層(L=3)の各ノードからの出力値を示している。なお、出力層(L=4)のノードの数は1個とされており、出力層のノードからの出力値がyで示されている。
入力層(L=1)の各ノードでは入力値x、x、x、x、xがそのまま出力される。一方、隠れ層(L=2)の各ノードには、入力層の各ノードの出力値x、x、x、x、xの値が入力され、隠れ層(L=2)の各ノードでは、夫々対応する重みwおよびバイアスbを用いて総入力値u2k=Σx・w+b(k=1~6)が算出される。
次いで、この総入力値u2kは活性化関数fにより変換され、隠れ層(L=2)のz2kで示される各ノードから、出力値z2k(=f(u2k))として出力される。一方、隠れ層(L=3)の各ノードには、隠れ層(L=2)の各ノードの出力値z21、z22、z23、z24、z25およびz26が入力され、隠れ層(L=3)の各ノードでは、夫々対応する重みwおよびバイアスbを用いて総入力値u3k=Σz・w+b(k=1~6)が算出される。この総入力値u3kは同様に活性化関数により変換され、隠れ層(L=3)の各ノードから、出力値z31、z32、z33、z34、z35およびz36として出力される、活性化関数として、例えばシグモイド関数σ(x)=1/(1+exp(-x))、正規化線形関数(ReLU)S(u)=max(0,u)などが用いられる。
一方、出力層(L=4)のノードには、隠れ層(L=3)の各ノードの出力値z31、z32、z33、z34、z35およびz36が入力され、出力層のノードでは、夫々対応する重みwおよびバイアスbを用いて総入力値u4k=Σz・w+bが算出されるか、又は、夫々対応する重みwのみを用いて総入力値4k=Σz・wが算出される。この例では、出力層のノードでは恒等関数が用いられており、出力層のノードからは、出力層のノードにおいて算出された総入力値u4kが、そのまま出力値yとして出力される。なお、出力層のノードの数は、2以上であってもよい。
学習用データセット作成部212bが作成した1つのデータセットは、入力値x,x,x,x,xと、入力値x,x,x,x,xに対する教師データyを含んでいる。或る入力値に対して教師データyが求められており、この入力値に対する出力層(L=4)からの出力値がyであった場合、誤差関数として平方誤差が用いられている場合には、平方誤差Eは、E=(1/2)・(y-y)で求められる。
学習部212fは、学習用データセットに含まれる入力値をニューラルネットワークに入力し、得られた出力値yとデータセットに含まれる教師データyから二乗誤差Eを計算する。そして、学習部212fは、複数の学習用のデータセットから得られる平方誤差Eの和を最小化するため、例えば誤差逆伝播法、確率的勾配降下法などの演算を行うことによって、各ノードの重みwおよびバイアスbを算出することで、学習済みモデルを作成する。
上述したように、学習用データセット作成部212bが作成する学習用のデータセットは、モデルに応じて異なる。一例として、出力パラメータが「スマートシティ100内の人が熱中症になる確率」であるモデルの場合、個々の人の体温および心拍数などの生体データと、気温、湿度、および日射量等のデータなどが入力値x,x,x,x,xとして取得され、教師データとして熱中症になる確率が収集され、1つのデータセットとされる。熱中症になる確率(教師データ)は、例えば、個々の人が熱中症になった場合(救急車で搬送された場合など)を‘1’とし、救急搬送されていないが体温が平常時よりも高い場合を‘0.5’とし、救急搬送されておらず体温にも何ら異常がない場合を‘0’とする。そして、体温を入力値x、心拍数を入力値x、気温を入力値x、湿度を入力値x、日射量を入力値xとし、教師データyとして、熱中症になる確率が入力される。学習部212fが複数の学習用のデータセットを学習すると、体温および心拍数などの生体データと、湿度、気温、日射量等のデータを入力として、熱中症になる確率を出力する学習済みモデルが得られる。
また、出力パラメータが「スマートシティ100への来訪者を乗せる自動運転車両を動かすために必要な電力量」であるモデルの場合、スマートシティ100への来訪者の数、来訪者の年齢(平均年齢)、見学先Aに向かう人数、見学先Bへ向かう人数、天候などが入力値x,x,x,x,xとして取得され、教師データとして来訪者を乗せた自動運転車両の消費電力量が取得され、1つのデータセットとされる。なお、来訪者の年齢が入力値に含まれるのは、年齢が高いほど歩く人が減り、自動運転車両を利用する人が多くなり、来訪者の年齢が自動運転車両を動かすために必要な電力量を変化させる要因となるためである。また、見学先A,Bへ向かう人数が入力値に含まれるのは、見学の目的地および人数に応じて自動運転車両の消費電力量が異なり、見学の目的地および人数が自動運転車両を動かすために必要な電力量を変化させる要因となるためである。また、天候が入力値に含まれるのは、天候が雨の場合は自動運転車両を利用する人が増加し、天候が晴れの場合は歩く人が増えて自動運転車両を利用する人が減少するため、天候が自動運転車両を動かすために必要な電力量を変化させる要因となるためである。自動運転車両の消費電力量(教師データ)は、複数の自動運転車両が運行している場合は各々の自動運転車両の消費電力量の合計値とされる。そして、スマートシティ100への来訪者の数を入力値x、来訪者の年齢を入力値x、見学先Aに向かう人数を入力値x、見学先Bへ向かう人数を入力値x、天候を入力値xとし、教師データyとして、来訪者を乗せた自動運転車両の消費電力量が入力される。学習部212fが複数の学習用のデータセットを学習すると、スマートシティ100への来訪者の数、来訪者の年齢(平均年齢)、見学先Aに向かう人数、見学先Bへ向かう人数、天候等のデータを入力として、スマートシティ100への来訪者を乗せる自動運転車両を動かすために必要な電力量を出力する学習済みモデルが得られる。
学習部212fは、学習に必要な数(第1閾値)よりも多い基準数(第2閾値)のデータセットが作成されたモデルがある場合には、優先順位に関わらず、基準数のデータセットが作成されたモデルを優先的に機械学習させてもよい。これにより、優先順位のみに基づいて学習を行うと、優先順位の低いモデルの学習が行われなくなる可能性があるが、学習用のデータセットが第2閾値以上蓄積されたモデルについては優先順位の高いモデルよりも優先的に学習が行われるので、優先順位の低いモデルの学習が行われなくなることが回避される。したがって、人命に関わらないモデルの学習用のデータセットが第2閾値以上蓄積された場合、人命に関わらないモデルは人命に関わるモデルよりも優先的に学習される。なお、第2閾値は、第1閾値と同様にモデル毎に定められる値である。
なお、学習部212fは、学習に必要な数よりも多い基準数のデータセットが作成されたモデルがある場合にそのモデルの学習について優先的に学習を行う代わりに、学習待機状態になった後、所定時間が経過したモデルがある場合に、そのモデルの学習について優先的に学習を行ってもよい。
プロセッサ212の記憶処理部212gは、学習部212fが学習用のデータセットを機械学習させることにより作成した学習済みモデルをストレージ装置220に記憶させるための処理を行う。記憶処理部212gは、任意のモデルについて、既にストレージ装置220に学習済みモデルが記憶されている場合は、学習部212fが学習用のデータセットを機械学習させることにより作成した学習済みモデルにより既にストレージ装置220に記憶されている学習済みモデルを更新するための処理を行ってもよい。
プロセッサ212の学習済みモデル適用部212hは、任意の学習済みモデルにスマートシティ100内の各種機器10から取得した入力値を入力し、学習済みモデルに係る事象の解析結果を学習済みモデルから出力させる。
プロセッサ212の送信部212iは、学習済みモデル適用部212hが学習済みモデルから出力させた解析結果をスマートシティ100内の各種機器10に送信する。また、送信部212iは、学習部212fが学習用のデータセットを機械学習させることにより作成した学習済みモデルをスマートシティ100内の各種機器10からの要求に応じて各種機器10へ送信する。
図5は、サーバ200の制御装置210のプロセッサ212が行う処理を示すフローチャートであって、プロセッサ212の受信部212a、学習用データセット作成部212b、待機状態設定部212cが行う処理を示すフローチャートである。図5の処理は、プロセッサ212により所定の制御周期毎に行われる。先ず、プロセッサ212の受信部212aが、通信ネットワーク300(及び無線基地局350)を介してスマートシティ100内の各種機器10から情報を受信する(ステップS10)。次に、プロセッサ212の学習用データセット作成部212bが、受信部212aが受信した情報に含まれる各種データを分類して組み合わせることで、学習用のデータセットをモデル毎に作成する(ステップS11)。作成された学習用のデータセットはサーバ200のストレージ装置220に蓄積される。
次に、プロセッサ212の待機状態設定部212cが、任意のモデルについて、学習用のデータセットを第1閾値以上蓄積したか否かを判定し(ステップS12)、学習用データセットを第1閾値以上蓄積した場合は、そのモデルを学習待機状態に設定する(ステップS13)。なお、学習待機状態に設定された後も、学習用のデータセットの作成および蓄積は学習が開始するまで継続して行われてよい。一方、任意のモデルについて、ステップS12で学習用のデータセットを第1閾値以上蓄積していない場合は、そのモデルを学習待機状態に設定することなくステップS11に戻る。
以上のように、図5の処理によれば、学習用データセットが第1閾値以上蓄積されたモデルについては、学習待機状態に設定される。
図6は、サーバ200の制御装置210のプロセッサ212が行う処理を示すフローチャートであって、プロセッサ212の優先順位判定部212e、学習部212fが行う処理を示すフローチャートである。図6の処理は、プロセッサ212により所定の制御周期毎に行われる。先ず、学習待機状態のモデルがあるか否かが判定され(ステップS20)、学習待機状態のモデルがある場合、優先順位判定部212eが、学習待機状態のモデルの優先順位を判定する(ステップS21)。一方、ステップS20で学習待機状態のモデルがない場合、ステップS20で待機する。
ステップS21の後、学習中のモデルの学習が終了しているか否かが判定され(ステップS22)、学習中のモデルの学習が終了している場合、学習待機状態のモデルの中に学習用データセットの蓄積量が第2閾値以上のものがあるか否かが判定される(ステップS23)。一方、学習中のモデルの学習が終了していない場合、ステップS20に戻る。
ステップS23において、学習待機状態のモデルの中に学習用データセットの蓄積量が第2閾値以上のものがない場合、学習部212fは、学習待機状態のモデルのうち最も優先順位の高いものを学習させる(ステップS24)。
一方、ステップS23において、学習待機状態のモデルの中に学習用データセットの蓄積量が第2閾値以上のものがある場合、学習部212fは、学習用データセットの蓄積量が第2閾値以上のモデルを学習させる(ステップS25)。ステップS24、S25の後、処理は終了する。
なお、プロセッサ212の演算能力を超えなければ、ステップS24において、学習部212fは、学習待機状態のモデルのうち優先順位の高い2つ以上のモデルを並列的に学習させてもよい。
また、ステップS23で学習待機状態のモデルの中に学習用データセットの蓄積量が第2閾値以上のものが複数存在する場合、ステップS25において、学習部212fは、学習用データセットの蓄積量が第2閾値以上のモデルのうち、最も優先順位の高い1のモデルを優先的に機械学習させる。この場合においても、プロセッサ212の演算能力を超えなければ、学習部212fは、ステップS25において、学習用データセットの蓄積量が第2閾値以上のモデルのうち、優先順位の高い2つ以上のモデルを並列的に学習させてもよい。
図7は、サーバ200の制御装置210のプロセッサ212が行う処理を示すフローチャートであって、既に学習中の学習対象があり、学習待機状態のモデルの優先順位が学習中のモデルの優先順位よりも高い場合に、学習中の学習を中断して学習待機状態のモデルの学習を行う処理を示すフローチャートである。図7の処理は、プロセッサ212により所定の制御周期毎に行われる。図7のフローチャートは、ステップS26~S29の処理が追加され、ステップS22,S23,S25の処理が行われない点で図6のフローチャートと主に相違している。以下では、図6の処理と異なる点を中心に説明する。
先ず、学習待機状態のモデルがあるか否かが判定され(ステップS20)、学習待機状態のモデルがある場合、優先順位判定部212eが、学習中のモデルおよび学習待機状態のモデルの優先順位を判定する(ステップS21)。一方、ステップS20で学習待機状態のモデルがない場合、ステップS20で待機する。
ステップS21の後、学習待機状態のモデルの中に学習中のモデルよりも優先順位の高いものがあるか否かが判定される(ステップS26)。そして、学習待機状態のモデルの中に学習中のモデルよりも優先順位の高いものがある場合、学習中のモデルの学習を中断または終了可能か否かが判定され(ステップS27)、学習中のモデルの学習を中断または終了可能な場合、学習部212fは、学習中のモデルの学習を中断または終了する(ステップS28)。
なお、ステップS27では、学習中のモデルについて学習の収束点が見えており、モデルの精度が確保できる場合は、学習中のモデルの学習が終了可能と判定される。これにより、学習を終了させたモデルは、その精度が確保できる状態で利用可能となる。
ステップS28の後、学習部212fが、学習待機状態のモデルのうち最も優先順位の高いものを学習させる(ステップS24)。なお、ステップS28で学習中のモデルの学習を中断した場合、ステップS24の学習が終了した後、中断した学習が再開される。
一方、ステップS26で学習待機状態のモデルの中に学習中のモデルよりも優先順位の高いものがない場合、またはステップS27で学習中のモデルの学習を中断または終了可能でない場合、学習部212fは学習中のモデルの学習を継続する(ステップS29)。ステップS24,S29の後、本制御周期における処理は終了する。
なお、図7の処理においても、図6と同様に、ステップS23,S25の処理が行われてもよい。
次に、人命に関わるモデルとして、スマートシティ100内の心臓の挙動の異常の有無を学習し、これに基づいて心臓の挙動の異常を判定する例を説明する。この例では、サーバ200の通信インターフェース216が、通信ネットワーク300および無線基地局350を介して、スマートシティ100内の人が装着しているウェアラブルデバイス(心電計)から、心臓の挙動を表す心電波形が表された心電情報を受信し、プロセッサ212へわたす。
図8は、心電情報解析処理に関する、制御装置210のプロセッサ212の学習済みモデル適用部212hの構成を示す機能ブロック図である。図8に示されるように、プロセッサ212は、時間周波数変換部21と、ピーク間隔検出部22と、異常判定部23とを有する。
時間周波数変換部21は、心電情報に表される心電波形を所定の時間長を持つフレーム単位で分割し、フレームごとに、心電波形に対して時間周波数変換を実行して、心電波形の周波数スペクトルを算出する。時間周波数変換部21は、時間周波数変換として、例えば、高速フーリエ変換(Fast Fourier Transform, FFT) を用いることができる。時間周波数変換部21は、各フレームに、ハミング窓またはハニング窓といった窓関数を乗じた後に時間周波数変換を行ってもよい。あるいは、時間周波数変換部21は、時間周波数変換として、離散コサイン変換またはウェーブレット変換を用いてもよい。フレームの時間長は、一つのフレームに心電波形の所定の種類のピーク(例えば、Rピーク)が複数個含まれるように、例えば、数秒から10数秒程度の長さであることが好ましい。
図9(a)及び図9(b)は、それぞれ、心電波形の周波数スペクトルの一例を示す図である。図9(a)及び図9(b)において、横軸は周波数を表し、縦軸はスペクトルの強度を表す。図9(a)に示される波形301は、心臓の挙動に異常が無い場合の心電波形についての周波数スペクトルを表し、図9(b)に示される波形302は、心房細動といった心臓の挙動に異常が有る場合の心電波形についての周波数スペクトルを表す。
図9(a)の波形301に示されるように、心臓の挙動に異常が無い場合には、心電波形についての周波数スペクトルにおいて、一定の周波数間隔ごとに明りょうなピークが現れる。これに対して、図9(b)の波形302に示されるように、心臓の挙動に異常が有る場合には、心電波形についての周波数スペクトルにおいて、ピークの現われる周波数間隔が不明りょうとなる。このように、心電波形の周波数スペクトルは、心臓の挙動の異常の有無に応じて異なる波形形状を有するので、心臓の挙動に異常が有るか否かを判定するための有用な情報となる。
時間周波数変換部21は、フレームごとの心電波形の周波数スペクトルを異常判定部23へ出力する。
ピーク間隔検出部22は、心電情報に表される心電波形の同一種類のピーク間の間隔及び異なる種類のピーク間の間隔のうちの少なくとも二つを検出する。
図10は、心電波形の一例を示す図である。図10において、横軸は時間を表し、縦軸は心電信号の強度を表す。そして波形400は、心電波形の一例を表す。心電波形400では、一般的に、心臓の一拍ごとに、P、Q、R、S、Tと呼ばれる、心電信号が極大値または極小値となるピークが現れる。Pピークは、心房の興奮過程において現れるピークである。また、Qピーク、Rピーク、Sピークは、それぞれ、心室の興奮過程において現れるピークである。そしてTピークは、心室筋の興奮が消退していく過程で現れるピークである。
本実施形態では、ピーク間隔検出部22は、これらのピークのうち、異なる種類の連続する二つのピーク間の間隔、及び、同じ種類の連続する二つのピーク間の間隔のうちの少なくとも二つ、好ましくは3個以上を検出する。
図11(a)及び図11(b)は、それぞれ、ピーク間隔検出部22が検出する二つのピーク間の間隔の一例を示す図である。図11(a)及び図11(b)において、横軸は時間を表し、縦軸は心電信号の強度を表す。そして波形500は、心電波形の一例を表す。図11(a)に示されるように、例えば、同一の心拍を表す波形において現れるPピークとその次に現われるQピーク間のP-Q間隔、Qピークとその次に現われるRピーク間のQ-R間隔、Rピークとその次に現われるSピーク間のR-S間隔、Sピークとその次に現われるTピーク間のS-T間隔、Tピークとその次に現われる、次の心拍のPピーク間のT-P間隔のうちの少なくとも一つが、ピーク間隔検出部22により検出される。これらのピークのうちの一つのみが検出される場合、後述する、同じ種類の連続する二つのピーク間の間隔も一つ以上検出される。より好ましくは、これらの間隔のうちの二つ以上若しくは全てがピーク間隔検出部22により検出されてもよい。
また、図11(b)に示されるように、例えば、一つの心拍を表す波形において現れるP、Q、R、S、Tのそれぞれのピークとその次の心拍を表す波形において現われる同種のピーク間の間隔、すなわち、P-P間隔、Q-Q間隔、R-R間隔、S-S間隔、T-T間隔のうちの少なくとも一つが、ピーク間隔検出部22により検出されてもよい。これらのピークのうちの一つのみが検出される場合、前述した、異なる種類の連続する二つのピーク間の間隔も一つ以上検出される。より好ましくは、これらの間隔のうちの二つ以上若しくは全てがピーク間隔検出部22により検出されてもよい。
ピーク間隔検出部22は、時間周波数変換部21と同様に、心電情報に表される心電波形を所定の時間長を持つフレーム単位で分割する。そしてピーク間隔検出部22は、フレームごとに、心電情報に表される心電波形において、心電信号の強度の時間変化を調べて心電信号の極大値及び極小値を検出することで、それぞれの種類のピークを検出する。例えば、ピーク間隔検出部22は、極大値または極小値となる心電信号の強度とその前後における心電信号の強度との差の絶対値が所定の閾値以上となる場合に、その極大値または極小値を、ピークとして検出する。あるいは、ピーク間隔検出部22は、心電波形からそれぞれの種類のピークを検出する様々な手法の何れに従って各ピークを検出してもよい。そしてピーク間隔検出部22は、ピーク間隔の検出対象となる二つのピークの出現タイミングの差を算出することで、そのピーク間隔を検出すればよい。
その際、ピーク間隔検出部22は、心電波形に重畳されたノイズの影響を軽減して各ピークを正確に検出するために、心電波形に対して所定の周波数帯域以外の周波数成分を減衰させるバンドパスフィルタを適用してもよい。そしてピーク間隔検出部22は、バンドパスフィルタを適用することでノイズが軽減された心電波形から、各ピーク及びピーク間隔を検出してもよい。なお、所定の周波数帯域は、例えば、各ピークに相当する周波数成分を含む帯域、例えば、1-100Hzの帯域とすることができる。さらに好ましくは、所定の周波数帯域は、2-40Hzの帯域とすることができる。また、一つのフレーム内に、同じ種類のピーク間隔が複数含まれる場合には、ピーク間隔検出部22は、それらピーク間隔の平均値を、改めてそのピーク間隔としてもよい。例えば、一つのフレーム内に複数のR-R間隔が含まれる場合、ピーク間隔検出部22は、それら複数のR-R間隔の平均値を、そのフレームにおけるR-R間隔とすればよい。
ピーク間隔検出部22は、フレームごとに、検出した2以上のピーク間隔を異常判定部23へ出力する。
異常判定部23は、フレームごとに、心電波形の周波数スペクトル及び1以上のピーク間隔を、心臓の挙動の異常の有無を判定するように予め学習された学習済みモデルに入力することで、被検者の心臓の挙動に異常が有るか否か判定する。
なお、異常判定部23は、心電波形の周波数スペクトルのうち、心臓の挙動との関連性が高い所定の周波数帯域に含まれる個々の周波数の値を学習済みモデルに入力してもよい。また、異常判定部23は、1以上のピーク間隔を、入力層ではなく、何れかの隠れ層から学習済みモデルに入力してもよい。
さらに、学習済みモデルは、検出した異常の種類に応じて異なる値を出力してもよい。このような学習済みモデルは、上述したように教師データを用いて、誤差逆伝搬法といった所定の教師有り学習手法に従って予め学習される。これにより、異常判定部23は、スマートシティ100内の人の心臓の挙動に異常が有るか否かを正確に判定することができる。
なお、異常判定部23は、識別器として、ニューラルネットワーク以外の機械学習手法による識別器を使用してもよい。例えば、異常判定部23は、異常判定部23として、サポートベクトルマシンを用いてもよい。
異常判定部23は、何れかのフレームについて、学習済みモデルが心臓の挙動に異常が有るとの判定結果を出力すると、心臓の挙動の異常を検出する。一方、心電情報についての何れのフレームについても、学習済みモデルが心臓の挙動に異常が無いとの判定結果を出力すると、異常判定部23は、心臓の挙動に異常が無いと判定する。なお、異常判定部23は、直近の所定期間において所定数(例えば、2以上)以上のフレームについて学習済みモデルが心臓の挙動に異常が有るとの判定結果を出力した場合に限り、心臓の挙動に異常が有ると判定してもよい。そして異常判定部23は、心臓の挙動の異常の有無についての検出結果を表す情報を、通信インターフェース216を介して、ウェアラブルデバイスあるいはスマートシティ100内の他の機器へ出力する。なお、学習済みモデルが、異常の種類を表す情報も出力する場合には、異常判定部23は、上記の検出結果を表す情報に、学習済みモデルにより得られた、異常の種類を表す情報を含めてもよい。
以上説明したように本実施形態によれば、学習されるモデルに優先順位が定められることで、優先順位に従って学習が順次に行われるため、サーバ200の処理能力を超えることなく、多種多様なモデルを学習することが可能となる。
10 機器
21 時間周波数変換部
22 ピーク間隔検出部
23 異常判定部
100 スマートシティ
200 サーバ
210 制御装置
212 プロセッサ
212a 受信部
212b 学習用データセット作成部
212c 待機状態設定部
212d 優先順位決定部
212e 優先順位判定部
212f 学習部
212g 記憶処理部
212h 学習済みモデル適用部
212i 送信部
214 メモリ
216 通信インターフェース
220 ストレージ装置
300 通信ネットワーク
301 波形
302 波形
350 無線基地局
1000 機械学習システム

Claims (5)

  1. 出力パラメータが異なる複数のモデルを機械学習させる情報処理装置であって、
    通信可能に接続された複数の機器から情報を受信する受信部と、
    前記受信部が受信した情報を用いて、モデル毎に学習用のデータセットを作成する学習用データセット作成部と、
    学習に必要な数の前記データセットが作成されるとモデルの学習を開始する学習部であって、複数のモデルについて学習に必要な数の前記データセットが作成されると、モデル間の学習の優先順位に基づいて、前記学習に必要な数のデータセットが作成されたモデルのうち優先順位の高いモデルを優先的に機械学習させる学習部と、
    を備え
    前記学習部は、モデルの学習中には、学習に必要な数のデータセットが作成されて学習を待機しているモデルがあっても、学習中のモデルの学習が完了するまで、前記待機しているモデルの学習は行わず、学習中のモデルの学習が完了すると、前記待機しているモデルのうち優先順位の高いモデルを優先的に機械学習させる、情報処理装置。
  2. 出力パラメータが異なる複数のモデルを機械学習させる情報処理装置であって、
    通信可能に接続された複数の機器から情報を受信する受信部と、
    前記受信部が受信した情報を用いて、モデル毎に学習用のデータセットを作成する学習用データセット作成部と、
    学習に必要な数の前記データセットが作成されるとモデルの学習を開始する学習部であって、複数のモデルについて学習に必要な数の前記データセットが作成されると、モデル間の学習の優先順位に基づいて、前記学習に必要な数のデータセットが作成されたモデルのうち優先順位の高いモデルを優先的に機械学習させる学習部と、
    を備え、
    前記学習部は、学習に必要な数のデータセットが新たに作成されたモデルの学習の優先順位が、現在学習中のモデルの学習の優先順位よりも高い場合には、現在学習中のモデルの学習を中断して、前記学習に必要な数のデータセットが新たに作成されたモデルを優先的に学習させる、情報処理装置。
  3. 出力パラメータが異なる複数のモデルを機械学習させる情報処理装置であって、
    通信可能に接続された複数の機器から情報を受信する受信部と、
    前記受信部が受信した情報を用いて、モデル毎に学習用のデータセットを作成する学習用データセット作成部と、
    学習に必要な数の前記データセットが作成されるとモデルの学習を開始する学習部であって、複数のモデルについて学習に必要な数の前記データセットが作成されると、モデル間の学習の優先順位に基づいて、前記学習に必要な数のデータセットが作成されたモデルのうち優先順位の高いモデルを優先的に機械学習させる学習部と、
    を備え、
    前記学習部は、前記学習に必要な数よりも多い基準数のデータセットが作成されたモデルがある場合には、前記優先順位に関わらず、前記基準数のデータセットが作成されたモデルを優先的に機械学習させる、情報処理装置。
  4. 出力パラメータが人命に関わるパラメータであるモデルの学習の優先順位は、出力パラメータが人命に関わらないモデルの学習の優先順位よりも高く設定される、請求項1~3のいずれか1項に記載の情報処理装置。
  5. 前記出力パラメータが所定の事象の発生確率である場合の当該事象の発生頻度、出力パラメータと人命との関連度、又は出力パラメータの値の予測困難性に基づいて前記優先順位を決定する優先順位決定部を更に備える、請求項1~4のいずれか1項に記載の情報処理装置。
JP2021114378A 2021-07-09 2021-07-09 情報処理装置 Active JP7088391B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021114378A JP7088391B1 (ja) 2021-07-09 2021-07-09 情報処理装置
US17/859,654 US20230008923A1 (en) 2021-07-09 2022-07-07 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021114378A JP7088391B1 (ja) 2021-07-09 2021-07-09 情報処理装置

Publications (2)

Publication Number Publication Date
JP7088391B1 true JP7088391B1 (ja) 2022-06-21
JP2023010321A JP2023010321A (ja) 2023-01-20

Family

ID=82100047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021114378A Active JP7088391B1 (ja) 2021-07-09 2021-07-09 情報処理装置

Country Status (2)

Country Link
US (1) US20230008923A1 (ja)
JP (1) JP7088391B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6644231B1 (ja) 2019-04-26 2020-02-12 Awl株式会社 画像分析装置、及び画像分析システム
JP6690743B1 (ja) 2019-01-23 2020-04-28 トヨタ自動車株式会社 機械学習装置
JP2021012695A (ja) 2019-07-03 2021-02-04 株式会社日立製作所 機械学習システムのためのデータ管理方法、装置、およびシステム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011100378A (ja) * 2009-11-09 2011-05-19 Sumitomo Electric Ind Ltd 情報推定装置、情報推定のためのコンピュータプログラム、及び情報推定方法
US11740932B2 (en) * 2018-05-04 2023-08-29 Apple Inc. Systems and methods for task switching in neural network processor
JP7263074B2 (ja) * 2019-03-22 2023-04-24 キヤノン株式会社 情報処理装置、及びその制御方法、プログラム、記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6690743B1 (ja) 2019-01-23 2020-04-28 トヨタ自動車株式会社 機械学習装置
JP6644231B1 (ja) 2019-04-26 2020-02-12 Awl株式会社 画像分析装置、及び画像分析システム
JP2021012695A (ja) 2019-07-03 2021-02-04 株式会社日立製作所 機械学習システムのためのデータ管理方法、装置、およびシステム

Also Published As

Publication number Publication date
US20230008923A1 (en) 2023-01-12
JP2023010321A (ja) 2023-01-20

Similar Documents

Publication Publication Date Title
US20210063214A1 (en) Activity Monitoring Systems And Methods
US20210065891A1 (en) Privacy-Preserving Activity Monitoring Systems And Methods
US20250372260A1 (en) Intelligent detection of wellness events using mobile device sensors and cloud-based learning systems
Mishra et al. IoT-enabled ECG-based heart disease prediction using three-layer deep learning and meta-heuristic approach
CN114830132A (zh) 用于处理包括生理信号的人类相关数据以利用边缘和云的分布式机器学习来制定情境感知决策的系统和方法
CN109009017B (zh) 一种智能健康监测系统及其数据处理方法
US20170119283A1 (en) Monitoring activities of daily living of a person
WO2018218310A1 (en) Digital health monitoring system
Premalatha et al. Wireless IoT and cyber-physical system for health monitoring using honey badger optimized least-squares support-vector machine
US20250149172A1 (en) System for forecasting a mental state of a subject and method
CN110916672A (zh) 一种基于一维卷积神经网络的老年人日常活动监测方法
WO2019046276A1 (en) DISTRIBUTED ANALYTICAL SYSTEM FOR THE IDENTIFICATION OF DISEASES AND INJURIES
Sundararajan et al. Heart diseases diagnosis using Chaotic Harris Hawk optimization with E-CNN for IoMT Framework
CN117297594A (zh) 基于毫米波雷达与热成像的居家健康协同监测方法及装置
CN120447441A (zh) 一种用于智能摇篮的控制方法及系统
CN119851422A (zh) 基于物联网的退休老年人居家安全监护系统
Hackmann et al. Toward a two-tier clinical warning system for hospitalized patients
Lin et al. GPS trajectories based personalized safe geofence for elders with dementia
US20240331869A1 (en) Fever Prediction
JP7088391B1 (ja) 情報処理装置
Veena et al. Processing of Healthcare Data to Investigate the Correlations and the Anomalies
KR102807123B1 (ko) 노유자시설 노약자 핏 및 ai분석 실버케어 플랫폼 시스템
Alam et al. Scaling longitudinal functional health assessment in multi-inhabitant smarthome
CN117831703A (zh) 基于图神经网络与深度学习的失能老人照护方案推荐方法
Lv et al. A real-time physiological signal acquisition and analyzing method based on fractional calculus and stream computing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210831

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220404

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220411

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220523

R151 Written notification of patent or utility model registration

Ref document number: 7088391

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151