[go: up one dir, main page]

JP7621091B2 - 情報処理装置および生体状態判定方法 - Google Patents

情報処理装置および生体状態判定方法 Download PDF

Info

Publication number
JP7621091B2
JP7621091B2 JP2020185561A JP2020185561A JP7621091B2 JP 7621091 B2 JP7621091 B2 JP 7621091B2 JP 2020185561 A JP2020185561 A JP 2020185561A JP 2020185561 A JP2020185561 A JP 2020185561A JP 7621091 B2 JP7621091 B2 JP 7621091B2
Authority
JP
Japan
Prior art keywords
unit
information
user
learning model
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020185561A
Other languages
English (en)
Other versions
JP2022075034A (ja
Inventor
智寛 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2020185561A priority Critical patent/JP7621091B2/ja
Priority to FR2111754A priority patent/FR3115976B1/fr
Publication of JP2022075034A publication Critical patent/JP2022075034A/ja
Application granted granted Critical
Publication of JP7621091B2 publication Critical patent/JP7621091B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/024Measuring pulse rate or heart rate
    • A61B5/02405Determining heart rate variability
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Psychiatry (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Description

本発明は、情報処理装置および生体状態判定方法に関する。
特許文献1には、眠気推定ルール更新装置に関し、「RRIデータを取得するRRI取得手段と、前記RRIデータに基づいて、自律神経の活動に関する複数種の指標について指標値を算出する指標値計算手段と、眠気推定ルールが記憶された記憶手段と、被検者から得られる情報または被検者の生体状態を解析して得られる情報である、眠気の有無の情報を出力する眠気情報出力装置から出力された情報を取得する眠気データ取得手段と、前記眠気データを用いて眠気推定ルールの適否を評価するための参照データを生成する参照データ生成手段と、前記指標値と前記参照データに基づき前記記憶手段に記憶されている眠気推定ルールを更新する更新手段とを具備する。」と記載されている。
特開2016-120062号公報
近年、運転者の脈拍数や心拍数などの生体情報を測定することで、眠気や疲労あるいは集中力の度合いなどの生体状態を判定し、判定結果に応じて、例えば事故を未然に防止するためにアラートを出力したり、車両を停止するなどの自動制御を行う技術が注目されている。
生体状態の判定にあたり、測定データに対してセンサ機種ごとに異なる特性差や測定対象の個人差あるいは測定方式の違いを考慮した補正が行われる。しかしながら、補正のための処理および条件などを各センサに対して予め設定する必要があるため煩わしい、という問題がある。そのため、センサ特性の違い等を吸収するための補正を必要とせず、より精度良く生体状態を判定することが求められている。
特許文献1には、RRI(R-R Interval:心拍間隔)を用いて眠気を判定する装置が開示されている。同文献の技術では、センサ機種の違いによる特性差を吸収するためにRRIデータを補正しており、補正に使用されるセンサ特性情報が予め設定されている。すなわち、同文献の技術では、センサ特性の違い等を吸収するための補正を必要としない生体状態の判定については考慮されていない。
そこで、本発明は、センサ特性の違い等を考慮した補正を必要とせず、より精度よく生体状態を判定することを目的とする。
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記の課題を解決する本発明の一態様に係る情報処理装置は、人の生体情報であるRRI(R-R Interval)データを用いて、心拍間隔のゆらぎを表すローレンツプロットのグラフを示す画像情報を生成する画像情報生成部と、前記画像情報を用いた機械学習により学習モデルを構築するモデル構築部と、乗車している車両のユーザから取得した前記生体情報に基づき生成された前記画像情報を前記学習モデルに入力し、眠気の有無、疲労の有無および集中力の有無に関する生体状態の判定結果である出力値を取得する生体状態判定部と、前記判定結果に基づく車内設備の制御を実施させるために、前記生体状態の判定結果を前記車両に実装されている所定の車両装置に出力する通信部と、を備える。
本発明によれば、センサ特性の違い等を考慮した補正を必要とせず、より精度よく生体状態を判定することができる。
なお、上記以外の課題、構成および効果等は、以下の実施形態の説明により明らかにされる。
第一実施形態に係る情報処理装置の概略構成の一例を示した図である。 情報処理装置における演算装置の機能構成の一例を示した機能ブロック図である。 図3(a)は、ユーザが眠気を感じていない時の心拍間隔のゆらぎを表したローレンツプロットの画像情報の一例を示した図である。図3(b)は、ユーザが眠気を感じている時の心拍間隔のゆらぎを表したローレンツプロットの画像情報の一例を示した図である。 学習モデル構築処理の一例を示したフロー図である。 生体状態判定処理の一例を示したフロー図である。 第二実施形態に係る情報処理装置およびサーバ装置の機能構成の一例を示した機能ブロック図である。
以下、本発明の実施形態について説明する。
<第一実施形態>
図1は、情報処理装置100の概略構成の一例を示した図である。情報処理装置100は、車両などの移動体に乗車しているユーザ(例えば、運転者)の生体情報を用いて生体状態を判定する装置である。具体的には、情報処理装置100は、心拍や脈拍などの測定結果から生成される生体情報(例えば、RRIデータ:R-R Interval)を用いて、心拍間隔のゆらぎを示すグラフ(ローレンツプロット)の画像情報を生成し、これを学習モデルに入力することで、眠い、眠くない、などの生体状態を判定する。
図示するように、情報処理装置100は、演算装置110と、センサ120と、通信装置130と、記憶装置140と、を有している。なお、情報処理装置100は、演算装置110、通信装置130および記憶装置140と、センサ120と、を同一筐体内に有していても良く、あるいは演算装置110、通信装置130および記憶装置140と、センサ120と、が各々、別個の筐体に収容されていても良い。また、演算装置110と、センサ120とは、通信ケーブルあるいは所定の無線通信規格(例えば、Bluetooth:登録商標)により相互通信可能に接続されている。
演算装置110は、情報処理装置100の様々な演算処理を行う装置である。図示するように、演算装置110は、情報処理装置100で行われる様々な演算処理を実行するCPU(Central Processing Unit)111と、CPU111で実行されるプログラムなどを格納するROM(Read Only Memory)112と、ROM112から読み出した各種情報を一時的に格納するRAM(Random Access Memory)113と、演算装置110と、センサ120と、を電気的に接続するためのI/F(インターフェイス)114と、これらを相互に接続するバス115と、を有している。
演算装置110は、生体情報(例えば、心拍間隔を示すRRIデータ)をセンサ120から取得し、これを用いて、心拍間隔のゆらぎを表したローレンツプロットのグラフを示す画像情報(以下、「ローレンツプロットの画像情報」という場合がある)を生成する。また、演算装置110は、生成した画像情報を用いて機械学習を行うことで、学習モデルを構築(生成)する。
また、演算装置110は、センサ120から取得した生体情報を用いて生成した画像情報を学習モデルに入力することで、学習モデルによる演算処理の結果である出力値を取得する。なお、出力値は、画像情報を用いた生体状態の判定結果を示した情報であり、例えば眠い、眠くない、疲れている、疲れていない、集中力が有る、集中力が無い、といった生体状態を示すものである。
また、演算装置110は、学習モデルから出力された出力値をMain Unit200(例えば、ナビゲーション装置やD/A(Digital Audio)などの車載器やECU(Engine Control Unit)など)で利用可能な所定のデータ形式に変換し、これらの装置に出力する。なお、車載器等は、情報処理装置100から取得した生体状態の判定結果を用いて、ユーザの生体状態に応じた処理(例えば、車内に音楽を流す、あるいはエアコンを制御して車内温度を変化させるなど)を実行する。
センサ120は、ユーザの心拍や脈拍などのバイタルデータを測定する測定装置である。具体的には、センサ120は、例えば車両の座席シートに埋め込まれた圧電計や、時計といった身体に接触させて身に付けるウェアラブルデバイスなど、ユーザの心拍(あるいは脈拍)を検出可能な接触式センサである。なお、センサ120は、マイクロ波やミリ波を人体に照射し、その反射波に基づいてユーザの心拍を検出するドップラーセンサなどの非接触式センサであっても良い。あるいは、センサ120は、血液に含まれるヘモグロビンの流量に基づいて心拍を検出可能なカメラであっても良い。
センサ120は、所定期間(例えば、測定開始から5分間、10分間あるいは30分間など)におけるユーザの心拍を測定し、測定結果として生体情報であるRRIデータを生成して情報処理装置100に出力する。なお、RRIデータは、心臓の鼓動の時間間隔である心拍間隔(R波の間隔)を示す情報である。
また、センサ120の種類は特に限定されるものではなく、ユーザの心拍あるいは脈拍などのバイタルデータを測定可能な測定装置であれば良い。例えば、センサ120は、検出した脈拍数に基づいて逆算的に所定期間におけるユーザの心拍間隔を算出し、RRIデータを生成可能な測定装置であっても良い。
通信装置130は、外部装置(例えば、Main Unit200)との間で情報通信を行うための通信モジュールなどである。通信装置130は、通信ケーブルあるいは所定の無線通信規格(例えば、Bluetooth)によりMain Unit200と相互通信可能に接続されており、生体状態の判定結果をMain Unit200に送信する。
記憶装置140は、デジタル情報を記憶可能ないわゆるハードディスク(Hard Disk Drive)やSSD(Solid State Drive)、フラッシュメモリあるいはこれら以外の不揮発性記憶装置である。記憶装置140は、例えば学習モデルを構築するために用いられる様々な情報や、構築された学習モデルを記憶している。
図2は、情報処理装置100における演算装置110の機能構成の一例を示した機能ブロック図である。図示するように、演算装置110は、演算部300と、制御部310と、記憶部320と、通信部330と、を有している。
演算部300は、演算装置110で実行される様々な処理を行う機能部である。具体的には、演算部300は、画像情報生成部301と、ラベリング部302と、モデル構築部303と、ユーザ認証部304と、生体状態判定部305と、データ形式変換部306と、を有している。なお、以下では、眠気に関する生体状態の判定を一例として説明する。
画像情報生成部301は、センサ120から取得した生体情報を用いて画像情報を生成する機能部である。具体的には、画像情報生成部301は、センサ120から取得したRRIデータを用いて、所定期間における心拍間隔のゆらぎを表したローレンツプロットの画像情報を生成する。
より具体的には、画像情報生成部301は、RRIデータを用いて、測定開始から最初(N番目(N=1))の心拍までの時間間隔を横軸(X軸)に取り、最初(N番目(N=1))の心拍から次(N+1番目(N=1))の心拍までの時間間隔を縦軸(Y軸)に取り、それらの交点をプロットする。続いて、画像情報生成部301は、最初(N番目(N=1))の心拍から次(N+1番目(N=1))の心拍までの時間間隔を横軸(X軸)に取り、次(N+1番目(N=1))の心拍からその次(N+1(N=2))の心拍までの時間間隔を縦軸(Y軸)に取り、それらの交点をプロットする。このように、画像情報生成部301は、所定期間において測定された全ての心拍の間隔について同様の処理を繰り返し行うことで、ローレンツプロットのグラフを生成する。
また、画像情報生成部301は、生成したローレンツプロットのグラフを所定のフォーマットで変換した画像情報を生成する。
図3(a)は、ユーザが眠気を感じていない時の心拍間隔のゆらぎを表したローレンツプロットの画像情報の一例を示している。図3(b)は、ユーザが眠気を感じている時の心拍間隔のゆらぎを表したローレンツプロットの画像情報の一例を示している。これらの図に示されるように、ユーザが眠気を感じていない時は心拍間隔の変動が少ないため、各プロットの位置が広がっておらず、ある一定の範囲内に収まるグラフ形状となる。一方で、ユーザが眠気を感じている時は心拍間隔の変動が大きいため、各プロットの位置が広い範囲に散らばったグラフ形状となる。このように、RRIデータに基づくローレンツプロットの画像情報は、ユーザの生体状態(例えば、眠い、眠くないなど)を表す特有の形状が示されるため、かかる画像情報を用いてユーザの生体状態を判定することができる。
ラベリング部302は、ラベリング処理を行う機能部である。具体的には、ラベリング部302は、ユーザの生体状態を示す正解ラベルをローレンツプロットの画像情報に対応付けるラベリング処理を行う。より具体的には、ラベリング部302は、測定期間においてユーザが眠気を感じていたか否かを示す正解ラベルを取得し、対応する期間におけるユーザの生体情報を用いて生成されたローレンツプロットの画像情報に対応付けるラベリング処理を行う。
なお、ラベリング部302は、所定の方法により正解ラベルを取得する。例えば、ラベリング部302は、測定期間の終了後、測定期間中に眠気を感じていたか否かの回答をユーザから受け付けるための画面情報を情報処理装置100あるいはMain Unit200が備える表示装置に表示し、ユーザから直接回答を受け付けることで正解ラベルを取得する。
あるいは、ラベリング部302は、車内を撮像可能な車内カメラを介して測定期間中のユーザの表情を撮像し、かかる画像情報を用いた顔認識を行うことで、測定期間中にユーザが眠気を感じていたか否かの正解ラベルを取得する。なお、このような顔認識の技術は、NEDO(New Energy Industrial Technology Development Organization)の評価方法といった公知技術が用いられれば良い。
なお、正解ラベルの取得方法は特に限定されるものではなく、測定期間中にユーザが眠気を感じていたか否かを示す正解ラベルが取得できれば、どのような方法であっても良い。
モデル構築部303は、学習モデル322を構築する機能部である。具体的には、モデル構築部303は、画像情報生成部301により生成されたローレンツプロットの画像情報と、かかる画像情報に対応付けられている正解ラベルと、を用いて機械学習を行うことにより学習モデル322を構築する。なお、学習モデル322の構築処理については後述する。
ユーザ認証部304は、ユーザ情報に基づいて、ユーザ認証を行う機能部である。なお、ユーザ情報には、ユーザを識別するためのユーザIDと、身体的特徴に基づき分類された所定のカテゴリーの中でユーザが属するカテゴリーと、が含まれる。ユーザ認証部304は、ユーザIDに対応付けられた学習モデル322またはユーザが属するカテゴリーに対応付けられた学習モデル322を記憶部320から検索する。
生体状態判定部305は、センサ120から取得された生体情報(RRIデータ)を用いて生成されたローレンツプロットの画像情報を学習モデル322に入力し、生体状態の判定結果を示す出力値を取得する機能部である。
データ形式変換部306は、学習モデル322の演算結果として出力された出力値(生体状態の判定結果を示す情報)を取得し、かかる出力値をMain Unit200が利用可能なデータ形式に変換する機能部である。また、データ形式変換部306は、通信部330を介して、変換後の出力値である生体状態の判定結果をMain Unit200に出力する。なお、変換するデータ形式は、Main Unit200で使用可能なデータ形式であれば特に限定されるものではない。
制御部310は、センサ120の動作を制御する機能部である。具体的には、制御部310は、生体情報の測定指示をセンサ120に出力する。また、制御部310は、ユーザ位置の認識やユーザに対する測定時間および照射する電波の周波数域など、所定の制御対象についてセンサ120に指示を出力する。
記憶部320は、様々なデータを記憶する機能部である。具体的には、記憶部320は、学習モデル322を構築する際の土台となる様々なベースモデル321を記憶している。なお、ベースモデル321には、例えば画像認識に優れた性能を発揮する畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)などがある。また、記憶部320は、構築された学習モデル322を記憶する。
学習モデル322は、情報処理装置100が搭載されている車両のユーザに対する測定により構築された学習モデル322や、身体的特徴に基づいて分類された各カテゴリーに属する人物(ユーザ以外の人物)に対して実施された測定により構築された複数の学習モデル322がある。なお、これらの学習モデル322は、ユーザIDやかかるカテゴリーが対応付けられて記憶部320に記憶されている。
通信部330は、Main Unit200との間で情報通信を行う機能部である。具体的には、通信部330は、生体状態の判定結果をMain Unit200に送信する。なお、通信部330は、正解ラベルをMain Unit200から取得しても良い。
以上、情報処理装置100の機能構成について説明した。
なお、演算部300および制御部310は、演算装置110のCPU111に処理を行わせるプログラムによって実現される。これらのプログラムは、例えばROM112に格納されており、実行にあたってRAM113上にロードされ、CPU111により実行される。なお、制御部310は、所定の制御回路によって実現されても良い。また、記憶部320は、RAM113またはROM112または記憶装置140、あるいはこれらの組み合わせにより実現される。また、通信部330は、通信装置130により実現される。
また、情報処理装置100の各機能ブロックは、本実施形態において実現される各機能を理解容易にするために、主な処理内容に応じて分類したものである。したがって、各機能の分類の仕方やその名称によって、本発明が制限されることはない。また、情報処理装置100の各構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
また、各機能部の全部または一部は、コンピュータに実装されるハードウェア(ASICといった集積回路など)により構築されてもよい。また、各機能部の処理が1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
[動作の説明]
次に、情報処理装置100で実行される学習モデル構築処理について説明する。
図4は、学習モデル構築処理の一例を示したフロー図である。かかる処理は、例えばユーザ(またはユーザとは異なる人物)が運転状態において、学習モデル構築処理の実行指示を受け付けたタイミングで開始される。以下では、ユーザを対象として学習モデル322が構築される場合を例に説明する。
処理が開始されると、以下のステップS001~ステップS005の処理により、機械学習に用いるための画像情報が生成される。具体的には、制御部310は、ユーザ(例えば、運転者)に対する生体情報の測定を実行(開始)するようにセンサ120に指示を出力する(ステップS001)。センサ120は、かかる指示に基づいて、ユーザに対する所定期間(例えば、5分間)の測定を実行し、測定データに基づいてRRIデータを生成して画像情報生成部301に出力する。
次に、モデル構築部303は、RRIデータをセンサ120から取得する(ステップS002)。なお、モデル構築部303は、取得したRRIデータを一時的に記憶部320に格納する。
次に、モデル構築部303は、データクリーニングを行う(ステップS003)。具体的には、モデル構築部303は、取得したRRIデータから外れ値の除去や数値として読み取れない情報(NaN)の補完処理を行う。なお、補完処理は、例えばNaNとなっているデータ箇所の前後の値の中間を採用するなど、所定の方法により実行される。
次に、画像情報生成部301は、RRIデータに基づいてローレンツプロットのグラフを生成し、かかるグラフの画像情報を生成する(ステップS004)。
次に、ラベリング部302は、生成された画像情報にラベリング処理を行う(ステップS005)。具体的には、ラベリング部302は、生成された画像情報に対応するRRIデータの測定期間における生体状態を示す正解ラベルをユーザから取得し、これを画像情報に対応付ける。
このようなステップS001~ステップS005の処理によって、ユーザを所定期間測定したRRIデータを用いて生成されたローレンツプロットの画像情報と、かかる期間における生体状態を示す正解ラベルと、が対応付けられた機械学習用情報が生成される。
次に、モデル構築部303は、所定数(例えば、100個)の機械学習用情報が生成されたか否かを判定する(ステップS006)。なお、所定数の機械学習用情報には、ユーザが眠いと感じている場合と、眠くないと感じている場合と、の各々の場合の心拍間隔のゆらぎを示したローレンツプロットの画像情報が所定の割合(例えば、略同数ずつ)で含まれているものとする。
そして、所定数の機械学習用情報が生成されていないと判定した場合(ステップS006でNo)、モデル構築部303は、処理をステップS001に戻す。一方で、所定数の機械学習用情報が生成されたと判定した場合(ステップS006でYes)、モデル構築部303は、処理をステップS007に移行する。
ステップS007では、モデル構築部303は、機械学習用情報を任意の割合で分割する。具体的には、モデル構築部303は、後述の精度検証にホールドアウト法を用いるため、機械学習用情報すなわち生体状態を示す正解ラベルが対応付けられているローレンツプロットの画像情報を訓練用データと検証用データとに分割する。なお、訓練用データと検証用データの分割割合は任意である。例えば、訓練用データと検証用データとは、6:4や7:3など任意の割合で分割される。
次に、モデル構築部303は、ステップS008~ステップS011の処理により、学習モデル322を構築する。具体的には、モデル構築部303は、ベースモデル321を決定する(ステップS008)。より具体的には、モデル構築部303は、所定のベースモデル321(例えば、畳み込みニューラルネットワーク)を記憶部320から取得し、これをモデル構築に用いるためのベースモデル321に決定する。
次に、モデル構築部303は、訓練用データを用いて機械学習を実行する(ステップS009)。ここで、機械学習について説明する。モデル構築部303は、畳み込みニューラルネットワークなどの決定されたベースモデル321が示す伝達関数に訓練用データの画像情報を入力し、正解ラベルに対する予測結果としてベースモデル321から出力された出力値と、入力した画像情報に対応付けられている正解ラベルとを比較する。また、モデル構築部303は、正解ラベルに対して出力値が異なっていた場合、それをフィードバックし、伝達関数の目的変数を変更する。また、モデル構築部303は、このような予測とフィードバックの処理を訓練用データ全てについて実行することで機械学習を行い、学習モデル322を構築する。
次に、モデル構築部303は、検証用データによる学習モデル322の精度検証を実行する(ステップS010)。具体的には、モデル構築部303は、構築した学習モデル322に対して検証用データを入力する。また、モデル構築部303は、かかる学習モデル322からの出力値と、検証用データの画像情報に対応付けられている正解ラベルと、の比較に基づき、構築した学習モデル322の精度を検証する。
次に、モデル構築部303は、学習モデル322の精度が充分か否かを判定する(ステップS011)。具体的には、モデル構築部303は、ステップS010において検証した学習モデル322の精度が充分と判断される所定の基準値(例えば、正解率80%以上など)を満たしているか否かに基づき判定を行う。そして、精度が充分と判定した場合(ステップS011でYes)、モデル構築部303は、処理をステップS012に移行する。一方で、精度が充分ではないと判定した場合(ステップS011でNo)、モデル構築部303は、処理をステップS001に戻す。
なお、モデル構築部303は、ステップS011を経由して実行するステップS009およびステップS010の処理において、新たな訓練用データおよび検証用データを用いてこれらの処理を実行する。具体的には、モデル構築部303は、ステップS001において制御部310を介してセンサ120に新たな測定の実行指示を出力し、取得した新たな生体情報を用いて、前述のステップS002~S010の処理と同様の処理を行う。
また、ステップS012では、モデル構築部303は、ユーザIDまたは身体的特徴に基づいて分類された所定のカテゴリーを、構築された学習モデル322に対応付けて記憶部320に格納(保存)する。
また、モデル構築部303は、学習モデル322を保存すると、本フローの処理を終了する。
なお、ユーザとは異なる人物を対象として学習モデル322を構築する場合、モデル構築部303は、身体的特徴に基づいて分類された各カテゴリーに属する人物に対して測定を行うことで、各カテゴリーに対応する学習モデル322を構築する。なお、カテゴリーは、身体的特徴の種類およびその範囲の組み合わせごとに分類される。例えば、カテゴリーの一例として、「性別=男性、年齢=30代、身長=170cm~180cm、体重=60kg~70kg、持病=無し」、「性別=女性、年齢=40代、身長=150cm~160cm、体重=50kg~60kg、持病=無し」などがある。
モデル構築部303は、このように分類されているカテゴリーに属する母集団の人物に対して測定を行い、それによって取得した生体情報に基づいて生成した画像情報を用いて、各カテゴリーに対応する学習モデル322を構築する。
これにより、後述する生体状態判定処理において、ユーザは、自身のユーザ認証に基づいて、本人への測定によって構築された学習モデル322あるいはユーザと同じカテゴリーに属する人物に対する測定により構築された学習モデル322を適用して生体状態を判定することができる。
次に、情報処理装置100で実行される生体状態判定処理について説明する。
図5は、生体状態判定処理の一例を示したフロー図である。かかる処理は、例えば車両のエンジンが始動したタイミング(イグニッションキーがON状態になった時)、あるいはユーザから処理の開始指示を受け付けたタイミングで開始される。なお、エンジンの始動は、例えば通信部330を介してECUからエンジンが始動したことを示す情報をユーザ認証部304が取得することで検知されれば良い。また、ユーザによる開始指示は、例えば情報処理装置100が備える処理開始の指示ボタンが押下されることで行われ、それをユーザ認証部304が検知すれば良い。
処理が開始されると、ユーザ認証部304は、ユーザの個人認証を行う(ステップS021)。具体的には、ユーザ認証部304は、所定の入力装置を介して入力されたユーザIDが対応付けられている学習モデル322を記憶部320から検索する。また、かかる学習モデル322が無い場合、ユーザ認証部304は、ユーザの属するカテゴリーが対応付けられた学習モデル322を記憶部320から検索する。
なお、所定の入力装置は、例えばナビゲーション装置などのMain Unit200であっても良い。この場合、ユーザ認証部304は、通信部330を介してMain Unit200からユーザの入力情報を取得すれば良い。また、入力装置は、情報処理装置100が備えていても良い。
また、認証方式は、ユーザ情報の入力に限定されない。例えば、車両が車内映像を撮像する車内カメラを搭載している場合、ユーザ認証部304は、車内カメラが撮像した映像情報を取得し、これを用いて顔認証を実行することで、ユーザの身体的特徴を特定しても良い。この方式を採用する場合、情報処理装置100は、通信装置130を介して車内カメラと情報通信可能に接続されていれば良い。
また、認証方式は、指紋認証であっても良い。この方式を採用する場合、情報処理装置100が指紋認証センサを備えていれば良い。あるいは車両の所定箇所(例えば、ハンドルなど)に指紋認証センサが設置されている場合、情報処理装置100は、例えば通信装置130を介して接続されているECUから指紋情報を取得し、予め記憶部320に記憶されている指紋情報と照合することでユーザの身体的特徴を特定しても良い。
次に、ユーザ認証部304は、対応する学習モデル322があるか否かを判定する(ステップS022)。具体的には、ユーザ認証部304は、ユーザIDまたはユーザが属するカテゴリーが対応付けられた学習モデル322が記憶部320に格納されているか否に基づき、かかる判定を行う。そして、対応する学習モデル322があると判定した場合(ステップS022でYes)、ユーザ認証部304は、処理をステップS023に移行する。一方で、対応する学習モデル322がないと判定した場合(ステップS022でNo)、ユーザ認証部304は、処理をステップS030に移行する。
なお、ステップS030では、生体状態判定部305は、対応する学習モデル322がないことをユーザに通知する。例えば、生体状態判定部305は、対応する学習モデル322がないことを通知するための所定のメッセージを生成し、通信部330を介して、かかるメッセージをMain Unit200である車載器の表示装置に表示させる。また、生体状態判定部305は、かかるメッセージをMain Unit200に表示させると、本フローの処理を終了する。
また、対応する学習モデル322があると判定された場合に移行するステップS023の処理では、ユーザ認証部304は、対応する学習モデル322を記憶部320から取得する。
また、次に、生体状態判定部305は、制御部310を介してセンサ120に心拍などのバイタルデータの測定指示を出力する(ステップS024)。また、次に、生体状態判定部305は、センサ120から出力されたRRIデータを取得すると(ステップS025)、これを取得された学習モデル322に入力する(ステップS026)。
また、次に、生体状態判定部305は、学習モデル322の演算結果として出力された出力値すなわち測定期間におけるユーザの眠気の有無に関する判定結果(眠い/眠くない)を取得する(ステップS027)。
また、データ形式変換部306は、出力値を所定のデータ形式に変換し(ステップS028)、通信部330を介してMain Unit200へ出力する(ステップS029)。また、データ形式変換部306は、生体状態の判定結果である出力値をMain Unit200に出力すると、本フローの処理を終了する。
以上、本実施形態の情報処理装置100について説明した。
このような情報処理装置によれば、センサ特性の違い等を考慮した補正を必要とせず、より精度よく生体状態を判定することができる。特に、情報処理装置は、生体情報であるRRIデータを用いて、心拍間隔のゆらぎを視覚的に表現したローレンツプロットの画像情報を生成し、かかる画像情報を用いて生体状態を判定する。例えば、RRIデータを学習モデルに入力して生体状態を判定する場合、センサ特性の違いが数値データに反映されてしまうため、補正のための処理やその条件などを予め設定した上で補正を行う必要があるが、情報処理装置によれば、生体状態を示す傾向を視覚的に判別可能な画像情報を用いて生体状態を判定するため、補正および補正のための設定を必要とせず、精度良く生体状態を判定することができる。
<第二実施形態>
図6は、本実施形態に係る情報処理装置100およびサーバ装置400の機能構成の一例を示した機能ブロック図である。図示するように、情報処理装置100は、例えばLAN(Local Area Network)など所定のネットワークNを介して、サーバ装置400と相互通信可能に接続されている。
なお、サーバ装置400における画像情報生成部411、ラベリング部412およびモデル構築部413と、記憶部420およびベースモデル421と、通信部430と、は各々、第一実施形態の情報処理装置100における画像情報生成部301、ラベリング部302およびモデル構築部303と、記憶部320およびベースモデル321と、通信部330に対応し、同様の処理を行う機能部および情報であるため、本実施形態では詳細な説明を省略する。
前述の第一実施形態では、情報処理装置100で学習モデル322を構築したが、本実施形態では、センサ120から取得した生体情報をサーバ装置400に送信し、サーバ装置の演算部410が有する画像情報生成部411、ラベリング部412およびモデル構築部413により学習モデル322が構築される。
具体的には、情報処理装置100の演算部300は、学習モデル構築処理において、センサ120から生体情報(RRIデータ)を取得すると、通信部330を介して、サーバ装置400に送信する。サーバ装置400の画像情報生成部411、ラベリング部412およびモデル構築部413は、通信部430を介してRRIデータを取得すると、前述のステップS003~ステップS011と同様の方法により学習モデル322を構築する。
また、サーバ装置400のモデル構築部413により構築された学習モデル322は、サーバ装置400の通信部430を介して情報処理装置100に送信され、記憶部320に格納される。また、情報処理装置100は、記憶部320に格納されている学習モデル322を用いて、前述と同様の生体状態判定処理を実行する。
このような第二実施形態に係る情報処理装置100およびサーバ装置400によれば、学習モデル322の構築を処理性能が高いサーバ装置で実行することができるため、情報処理装置100のスペックを抑制することができ、その結果、製造コストを節約することができる。
なお、本発明は、第一実施形態および第二実施形態の情報処理装置100に限定されるものではなく、様々な変形例が可能である。例えば、第一実施形態における演算装置110(演算部300および制御部310)、通信装置130および記憶装置140は、Main Unit200であるナビゲーション装置などの車載器やECUに内蔵されていても良い。
また、前述の実施形態では、眠い/眠くない、といった判定結果を出力値としたが、本発明はこれに限られるものではなく、情報処理装置100は、例えば「少し眠い」、「非常に眠い」、「眠気(低)」、「眠気(中)」および「眠気(高)」などのように、生体状態の強度レベルを含む判定結果を出力しても良い。
なお、このような判定は、例えば正解ラベルを生体状態における複数のレベルに細分化して画像情報に対応付け、それらを用いた機械学習により学習モデル322を構築することで実現可能である。
このような変形例に係る情報処理装置100によれば、ユーザの生体状態をより細かいレベルで判定することができる。
また、前述の実施形態では、ローレンツプロットの画像情報を生成したが、本発明はこれに限られず、例えばユーザの心電図波形を示す画像情報を生成し、それを用いて生体状態を判定するようにしても良い。
このような変形例に係る情報処理装置によっても、生体状態を示す傾向を視覚的に判別可能な画像情報を用いて生体状態を判定するため、補正および補正のための設定を必要とせず、精度良く生体状態を判定することができる。
また、本発明は、上記の実施形態や変形例などに限られるものではなく、これら以外にも様々な実施形態および変形例が含まれる。例えば、上記の実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態や変形例の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
100・・・情報処理装置、110・・・演算装置、111・・・CPU、112・・・ROM、113・・・RAM、114・・・I/F(インターフェイス)、115・・・バス、120・・・センサ、130・・・通信装置、140・・・記憶装置、200・・・Main Unit、300・・・演算部、301・・・画像情報生成部、302・・・ラベリング部、303・・・モデル構築部、304・・・ユーザ認証部、305・・・生体状態判定部、306・・・データ形式変換部、310・・・制御部、320・・記憶部、321・・・ベースモデル、322・・・学習モデル、330・・・通信部

Claims (4)

  1. 人の生体情報であるRRI(R-R Interval)データを用いて、心拍間隔のゆらぎを表すローレンツプロットのグラフを示す画像情報を生成する画像情報生成部と、
    前記画像情報を用いた機械学習により学習モデルを構築するモデル構築部と、
    乗車している車両のユーザから取得した前記生体情報に基づき生成された前記画像情報を前記学習モデルに入力し、眠気の有無、疲労の有無および集中力の有無に関する生体状態の判定結果である出力値を取得する生体状態判定部と、
    前記判定結果に基づく車内設備の制御を実施させるために、前記生体状態の判定結果を前記車両に実装されている所定の車両装置に出力する通信部と、を備える
    ことを特徴とする情報処理装置。
  2. 請求項に記載の情報処理装置であって、
    身体的特徴の種類およびその範囲の組み合わせごとに分類された所定のカテゴリーに属する人物に対する測定により取得された前記生体情報を用いて構築された前記学習モデルを記憶している記憶部をさらに備える
    ことを特徴とする情報処理装置。
  3. 請求項に記載の情報処理装置であって、
    前記学習モデルは、ユーザの識別情報または当該ユーザの識別情報および前記所定のカテゴリーが対応付けられて前記記憶部に記憶され、
    前記ユーザの識別情報または前記ユーザの属する前記カテゴリーに対応する前記学習モデルを前記記憶部から検索するユーザ認証部を、さらに備える
    ことを特徴とする情報処理装置。
  4. 情報処理装置が行う生体状態判定方法であって、
    前記情報処理装置は、
    人の生体情報であるRRI(R-R Interval)データを用いて、心拍間隔のゆらぎを表すローレンツプロットのグラフを示す画像情報を生成するステップと、
    前記画像情報を用いた機械学習により学習モデルを構築するステップと、
    乗車している車両のユーザから取得した前記生体情報に基づき生成された前記画像情報を前記学習モデルに入力し、眠気の有無、疲労の有無および集中力の有無に関する生体状態の判定結果である出力値を取得するステップと、
    前記判定結果に基づく車内設備の制御を実施させるために、前記生体状態の判定結果を前記車両に実装されている所定の車両装置に出力する通信ステップと、を行う
    ことを特徴とする生体状態判定方法。
JP2020185561A 2020-11-06 2020-11-06 情報処理装置および生体状態判定方法 Active JP7621091B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020185561A JP7621091B2 (ja) 2020-11-06 2020-11-06 情報処理装置および生体状態判定方法
FR2111754A FR3115976B1 (fr) 2020-11-06 2021-11-05 Dispositif de traitement de l’information et procédé de détermination d’état biologique

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020185561A JP7621091B2 (ja) 2020-11-06 2020-11-06 情報処理装置および生体状態判定方法

Publications (2)

Publication Number Publication Date
JP2022075034A JP2022075034A (ja) 2022-05-18
JP7621091B2 true JP7621091B2 (ja) 2025-01-24

Family

ID=81456297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020185561A Active JP7621091B2 (ja) 2020-11-06 2020-11-06 情報処理装置および生体状態判定方法

Country Status (2)

Country Link
JP (1) JP7621091B2 (ja)
FR (1) FR3115976B1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002065650A (ja) 2000-09-04 2002-03-05 Nissan Motor Co Ltd 疲労度判定装置
JP2007272834A (ja) 2006-03-31 2007-10-18 Equos Research Co Ltd ドライバモデル作成装置、運転支援装置、及び運転行動判定装置
US20090234552A1 (en) 2005-12-28 2009-09-17 National University Corporation Nagoya University Driving Action Estimating Device, Driving Support Device, Vehicle Evaluating System, Driver Model Creating Device, and Driving Action Determining Device
JP2018082931A (ja) 2016-11-24 2018-05-31 本田技研工業株式会社 覚醒度処理方法および覚醒度処理装置
JP2018082986A (ja) 2016-11-25 2018-05-31 日本光電工業株式会社 検出装置および当該検出装置を備える見守りシステム
JP2018151910A (ja) 2017-03-14 2018-09-27 オムロン株式会社 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
JP2018171124A (ja) 2017-03-31 2018-11-08 日本電気株式会社 睡眠状態推定装置、睡眠状態推定方法および睡眠状態推定プログラム
JP2019502437A (ja) 2015-12-07 2019-01-31 スマート ソリューションズ テクノロジーズ,エス.エル. 心房細動検出システムおよび使用方法
JP2019067385A (ja) 2017-09-28 2019-04-25 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、及び、運転支援方法
WO2020158804A1 (ja) 2019-02-01 2020-08-06 シャープ株式会社 血圧測定装置、モデル設定装置、および血圧測定方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002065650A (ja) 2000-09-04 2002-03-05 Nissan Motor Co Ltd 疲労度判定装置
US20090234552A1 (en) 2005-12-28 2009-09-17 National University Corporation Nagoya University Driving Action Estimating Device, Driving Support Device, Vehicle Evaluating System, Driver Model Creating Device, and Driving Action Determining Device
JP2007272834A (ja) 2006-03-31 2007-10-18 Equos Research Co Ltd ドライバモデル作成装置、運転支援装置、及び運転行動判定装置
JP2019502437A (ja) 2015-12-07 2019-01-31 スマート ソリューションズ テクノロジーズ,エス.エル. 心房細動検出システムおよび使用方法
JP2018082931A (ja) 2016-11-24 2018-05-31 本田技研工業株式会社 覚醒度処理方法および覚醒度処理装置
JP2018082986A (ja) 2016-11-25 2018-05-31 日本光電工業株式会社 検出装置および当該検出装置を備える見守りシステム
JP2018151910A (ja) 2017-03-14 2018-09-27 オムロン株式会社 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
JP2018171124A (ja) 2017-03-31 2018-11-08 日本電気株式会社 睡眠状態推定装置、睡眠状態推定方法および睡眠状態推定プログラム
JP2019067385A (ja) 2017-09-28 2019-04-25 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、及び、運転支援方法
WO2020158804A1 (ja) 2019-02-01 2020-08-06 シャープ株式会社 血圧測定装置、モデル設定装置、および血圧測定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
古林せなみ,今井健,石原三四郎,藤生克仁,大江和彦 ,深層学習を用いた心電図波形の正常異常判定に関する研究,医療情報学会・人工聴能学会 AIM合同研究資料,Vol.2018,AIMED-005,2018年,p1-5

Also Published As

Publication number Publication date
JP2022075034A (ja) 2022-05-18
FR3115976A1 (fr) 2022-05-13
FR3115976B1 (fr) 2025-11-21

Similar Documents

Publication Publication Date Title
CN115802931B (zh) 检测用户温度和评估呼吸系统病症的生理症状
CN108888277B (zh) 心理测试方法、系统及终端设备
KR20140096609A (ko) 생체정보를 통한 운전자 개인인식 및 운전상태 변화정보 제공방법
WO2018180134A1 (ja) 感情認識装置および感情認識プログラム
Basjaruddin et al. Measurement device for stress level and vital sign based on sensor fusion
CN109949438B (zh) 异常驾驶监测模型建立方法、装置及存储介质
US12310743B2 (en) Sleep apnea syndrome determination apparatus, sleep apnea syndrome determination method, and sleep apnea syndrome determination program
Liu et al. Toward nonintrusive camera-based heart rate variability estimation in the car under naturalistic condition
KR20220038968A (ko) 인공지능 기반의 수면마취 안전도 예측 장치 및 방법
JP7621091B2 (ja) 情報処理装置および生体状態判定方法
JP2014158600A (ja) 集中状態推定システム、推定装置、筆記具、推定方法及びプログラム
KR20170123133A (ko) 생체정보를 이용한 감성 인식 시스템 및 방법
JP4830765B2 (ja) 活動量計測システム
JP2007000280A (ja) 覚醒度低下判定装置
Khan et al. Smart Steering Wheel: Design of IoMT‐Based Non‐Invasive Driver Health Monitoring System to Enhance Road Safety
CN119416003A (zh) 一种基于多模态融合的驾驶状态识别方法及系统
CN113598773A (zh) 数据处理装置以及用于评估用户不适的方法
CN116018088B (zh) 生物体信息运算系统
Rundo et al. Advanced temporal dilated convolutional neural network for a robust car driver identification
JP7502931B2 (ja) バイタルデータ測定装置およびバイタルデータ測定方法
JP7602250B2 (ja) 居眠り検知装置、検知方法、及びコンピュータプログラム
JP7596020B2 (ja) データ生成装置、データ生成方法、及び、プログラム
JP2024141284A (ja) 学習方法、学習装置、学習プログラム、及び感情推定装置
Peruzzini et al. Toward the Definition of a Technological Set-up for Drivers' Health Status Monitoring
KR20220087137A (ko) 생체 정보를 이용한 행동장애 진단 및 치료 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250114

R150 Certificate of patent or registration of utility model

Ref document number: 7621091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150