[go: up one dir, main page]

JP5729345B2 - 感情モニタリングシステム - Google Patents

感情モニタリングシステム Download PDF

Info

Publication number
JP5729345B2
JP5729345B2 JP2012089493A JP2012089493A JP5729345B2 JP 5729345 B2 JP5729345 B2 JP 5729345B2 JP 2012089493 A JP2012089493 A JP 2012089493A JP 2012089493 A JP2012089493 A JP 2012089493A JP 5729345 B2 JP5729345 B2 JP 5729345B2
Authority
JP
Japan
Prior art keywords
emotion
display
occupant
seating position
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012089493A
Other languages
English (en)
Other versions
JP2013216241A (ja
Inventor
知理 蜂須賀
知理 蜂須賀
聡司 野添
聡司 野添
塩谷 武司
武司 塩谷
坂井 誠
誠 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2012089493A priority Critical patent/JP5729345B2/ja
Priority to PCT/JP2013/002333 priority patent/WO2013153781A1/ja
Priority to CN201380019356.3A priority patent/CN104244824B/zh
Priority to DE112013001979.5T priority patent/DE112013001979T5/de
Priority to US14/390,806 priority patent/US9465978B2/en
Publication of JP2013216241A publication Critical patent/JP2013216241A/ja
Application granted granted Critical
Publication of JP5729345B2 publication Critical patent/JP5729345B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/742Details of notification to user or communication with user or patient; User input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/7405Details of notification to user or communication with user or patient; User input means using sound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/742Details of notification to user or communication with user or patient; User input means using visual displays
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/7405Details of notification to user or communication with user or patient; User input means using sound
    • A61B5/7415Sound rendering of measured values, e.g. by pitch or volume variation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Psychiatry (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Description

本発明は、感情モニタリングシステムに関する。
特許文献1には、以下のような技術が開示されている。車両における複数の乗員の顔表情を取得し、各乗員における表情の良好度を、車外環境と関連付けて学習し、時系列的に検知する。そして、乗員の表情が良好に保たれるような走行ルート(車外環境)を提案する。
特開2011−117905号公報
特許文献1記載の技術において、乗員の顔表情に関する情報は、ルート選択支援処理に用いられるだけであり、表示されないので、各乗員は他の乗員の感情を知ることができない。本発明は以上の点に鑑みなされたものであり、上記の課題を解決できる感情モニタリングシステムを提供することを目的とする。
本発明の感情モニタリングシステムは、車両の2以上の着座位置について、その着座位置に着座する乗員の顔画像を取得可能な顔画像取得手段と、顔画像取得手段により取得した顔画像に基づいて乗員の感情を表す感情情報を取得する感情情報取得手段と、感情情報取得手段により取得した感情情報に対応する感情表示を作成する感情表示作成手段とを備えることを特徴とする。
本発明の感情モニタリングシステムは、例えば、車両に複数の乗員がいる場合、各乗員の感情を表す感情表示を作成することができる。そのため、乗員は、例えば、他の乗員が直接は見えない位置に着座していても、その乗員の異変等に容易に気付くことができる。
感情モニタリングシステム1の構成を表すブロック図である。 感情モニタリングシステム1が実行するメイン処理を表すフローチャートである。 感情モニタリングシステム1が実行する感情判定処理を表すフローチャートである。 感情モニタリングシステム1が実行する感情表示作成処理を表すフローチャートである。 乗員101の顔におけるAU(Action Unit)を表す説明図である。 感情表示の表示例を表す説明図である。 感情表示の表示例を表す説明図である。 感情表示の表示例を表す説明図である。 感情表示の表示例を表す説明図である。
1.感情モニタリングシステム1の構成
感情モニタリングシステム1の構成を、図1に基づいて説明する。感情モニタリングシステム1は、車両に搭載される車載システムであり、カメラ(顔画像取得手段)3、着座位置検出部5、乗員識別部(乗員識別手段)7、記憶部9、特徴量抽出部11、感情判定部(感情情報取得手段)13、感情表示作成部(感情表示作成手段)15、記憶部(第1の記憶手段、第2の記憶手段)17、及びインタフェース部19を備える。着座位置検出部5、乗員識別部7、特徴量抽出部11、感情判定部13、及び感情表示作成部15は周知のコンピュータにより構成される。
カメラ3は、車室内の天井に設置され、その撮像範囲は、車室内の全着座位置(運転席、助手席、後部座席右、後部座席左等)をカバーする。よって、カメラ3は、車室内の全着座位置について、その着座位置に着座する乗員101の顔及び体を撮影可能である。なお、カメラ3は、着座位置ごとに1つずつ設置されていてもよい。この場合、各カメラ3が、対応する着座位置に着座する一人の乗員101の顔及び体を撮影する。また、カメラ3として、車室内の前方(運転席及び助手席)を撮影するカメラと、車室内の後方(後部座席)を撮影するカメラとが設置されていてもよい。
着座位置検出部5は、カメラ3により撮影された画像から、乗員101の着座位置を検出する。すなわち、カメラ3により撮影された画像において、着座位置ごとに、乗員101が着座しているか否かを画像認識により判断する。
乗員識別部7は、カメラ3により撮影された画像を用いて、乗員101を識別する。詳しくは後述する。
記憶部9は、乗員101を識別するための識別子を記憶している。この識別子は、画像から画像認識により抽出可能な各乗員固有の特徴であり、例えば、顔のパターン(目、鼻、口等の顔のパーツの形状や大きさ、顔のパーツ相互の位置関係等)、衣服の形状や色、体型等が挙げられる。記憶部9は、過去に登録された乗員101の識別子を、乗員ごとに記憶している。また、記憶部9には、識別子と関連付けて、着座位置、後述する感情情報、及び乗員の名称等を記憶することができる。また、記憶部9は、感情判定部13が感情を判定する際に参照するデータベースを記憶している。
特徴量抽出部11は、カメラ3により撮影された画像から、乗員101の顔を認識し、さらに、その顔において、予め設定された特徴量(AU)を画像処理によって抽出する。カメラ3により撮影された画像において複数の乗員101の顔を認識した場合は、それぞれの乗員について、特徴量(AU)を抽出する。なお、特徴量の抽出についての詳細は後述する。
感情判定部13は、特徴量抽出部11により抽出された特徴量(AU)から、乗員101の感情を判定し、感情情報を作成する。カメラ3により撮影された画像において複数の乗員101の顔を認識した場合は、それぞれの乗員について、感情情報を作成する。なお、感情情報の作成についての詳細は後述する。
感情表示作成部15は、感情判定部13が作成した感情情報を用いて、感情表示を作成する。また、感情表示作成部15は、報知音も作成する。感情表示及び報知音の作成についての詳細は後述する。
記憶部17は、感情表示作成部15が感情表示及び報知音を作成する際に用いるマップ(感情情報の種類に関する基準、感情の強さと感情表示の態様との対応関係)を記憶している。このマップには、(i)乗員101ごとに記憶され、その乗員101の識別子と関連付けられたマップと、(ii)汎用のマップとの2種類がある。マップの内容については後に詳述する。
インタフェース部19は、画像を表示可能なディスプレイ19a、音声を出力可能なスピーカ19b、音声を入力可能なマイク19c、及び乗員101の入力操作を受け付ける操作部(キーボード、各種スイッチ、タッチパネル等)19dを備える。インタフェース部19は、ディスプレイ19aに、感情表示作成部15が作成した感情表示を表示する。また、スピーカ19bにより、感情表示作成部15が作成した報知音を発音する。また、マイク19cへの音声入力や操作部19dへの入力操作により、記憶部17に記憶されたマップの編集(新たなマップの追加、既存のマップに対する内容の追加や書き換え、マップの削除等)が可能である。
インタフェース部19のディスプレイ19aは、車両の運転者が見ることができるもの(例えば他の乗員は見難いか、見えないもの)とすることができる。このようなディスプレイ19aとしては、例えば、メータの表示画面、ナビ画面のデュアルディスプレイ表示画面等が挙げられる。また、ディスプレイ19aは、運転者以外の乗員の一部又は全部が見ることができるもの(例えば運転者は見難いか、見えないもの)であってもよい。このようなディスプレイ19aとしては、例えば、シートの背面側や天井に設けられたディスプレイが挙げられる。また、ディスプレイ19aは、運転者と他の乗員の両方が見ることができるものであってもよい。
2.感情モニタリングシステム1が実行する処理
感情モニタリングシステム1が実行する処理を、図2〜図8に基づいて説明する。感情モニタリングシステム1は、それが搭載されている車両のイグニッションがONである期間中、図2に示す処理を所定時間ごとに繰り返し実行する。図2のステップ1では、カメラ3が、車両の全着座位置をカバーする範囲の画像を取得する。車両における任意の着座位置に乗員が着座している場合、その乗員の顔及び体は、前記の画像に含まれる。また、車両の2以上の着座位置に、それぞれ乗員が着座している場合は、全ての乗員の顔及び体が、前記の画像に含まれる。
ステップ2では、着座位置検出部5が、前記ステップ1で取得した画像を画像解析することにより、車両の着座位置ごとに、乗員が着座しているか否かを判断する。
ステップ3では、乗員識別部7が、前記ステップ2において乗員が着座していると判断した全ての着座位置において、着座している乗員の識別を次のように実行する。まず、前記ステップ2において乗員が着座していると判断した一つの着座位置αについて、前記ステップ1で取得した画像を用いて、その着座位置αに着座している乗員の識別子を抽出する。次に、抽出した識別子を記憶部9に既に記憶されている識別子と対比する。対比の結果、記憶部9に記憶されている識別子の中に、着座位置αに着座している乗員の識別子と同一又は近似する識別子があれば、その識別子を、着座位置αと関連付けて記憶部9に記憶する。一方、対比の結果、記憶部9に記憶されている識別子の中に、着座位置αに着座している乗員の識別子と同一又は近似する識別子がなければ、着座位置αに着座している乗員の識別子を、着座位置αと関連付けて新たに記憶部9に記憶する。
上記の処理を、着座位置αだけでなく、前記ステップ2において乗員が着座していると判断した全ての着座位置β、γ・・・についても同様に実行する。
ステップ4では、前記ステップ2において乗員が着座していると判断した着座位置において、乗員の感情を表す感情情報を取得する感情判定処理を実行する。前記ステップ2において乗員が着座していると判断した着座位置が複数ある場合は、その複数の着座位置の全てにおいて、乗員の感情情報を取得する。
この感情判定処理を図3に基づいて説明する。図3のステップ11では、カメラ3によって、車室内の全着座位置をカバーする画像を、所定時間ごとに繰り返し取得する。
ステップ12では、特徴量抽出部11が、前記ステップ11で繰り返し取得した画像(乗員の顔を含む顔画像)のそれぞれに対して画像解析を行うことで、乗員の顔の特徴部(例えば、眉や瞼、口)を抽出し、さらに、時間の経過に伴う特徴部の動き(以下、AU(Action Unit)とする)を抽出する。AUとしては、表1、及び図5に示すものがある。なお、図5におけるR、Lは、顔における右、左を意味する。
人の感情と、AUとの間に相関関係があることが知られている(Ekmanの提唱するFacial Action Coding System)。
ステップ13では、感情判定部13が、前記ステップ12で抽出したAUから、乗員の感情を判定する。具体的には、以下のようにする。記憶部9は、AUと感情との対応関係を示すデータベースを予め記憶している。このデータベースは、例えば、以下のような対応関係を記憶している。
喜び:6R, 6L, 12R, 12L, 25
驚き:1R, 1L, 2R, 2L, 5R, 5L, 25, 27
悲しみ:1R, 1L, 4R, 4L, 15R, 15L, 17
前記ステップ12で抽出したAUをこのデータベースに適用することで、乗員の感情の種類(喜び、悲しみ等)を判断することができる。また、AUの大きさから、感情の強さを判断することができる。この感情の種類と感情の強さとを含む情報を、感情情報とする。感情情報は、前記ステップ2において乗員が着座していると判断した着座位置の全てにおいて作成される。また、感情情報は、記憶部9に、対応する着座位置及び識別子と関連付けて記憶される。例えば、着座位置αに着座した乗員(その識別子は識別子Xとする)の感情情報は、着座位置α、及び識別子Xと関連付けて記憶部9に記憶される。以上のように、特徴量抽出部11が、カメラ3により取得した顔画像に基づいて乗員の感情を表す感情情報を取得する。
図2に戻り、ステップ5では、感情表示作成部15が、前記ステップ4で取得した感情情報に対応する感情表示を作成する感情表示作成処理を行う。この感情表示作成処理を図4に基づいて説明する。図4のステップ21では、前記ステップ13で記憶部9に記憶した感情情報を呼び出す。感情情報が複数ある場合は全て呼び出す。
ステップ22では、記憶部17からマップを呼び出す。詳しくは、以下のように行う。まず、前記ステップ2において乗員が着座していると判断した一つの着座位置αについて、その着座位置αと関連付けて記憶されている識別子を記憶部9から読み出す。次に、その読み出した識別子と関連付けられたマップを記憶部17において探し、関連付けられたマップがあれば、そのマップを読み出す。一方、関連付けられたマップがなければ、汎用のマップを読み出す。前記ステップ2において乗員が着座していると判断した着座位置が着座位置α以外にもある場合は、着座位置α以外の全ての着座位置についても、同様にマップを呼び出す。
ここで、マップは、表2〜表4に示すようなものである。
表2のマップは、ある識別子Xに関連付けられたマップであり、表3のマップは、識別子Xとは別の識別子Yに関連付けられたマップであり、表4のマップは、いずれの識別子にも関連付けられていない汎用のマップである。
各マップは、感情表示を作成すべき感情情報の種類に関する基準を含んでいる。すなわち、各マップは、感情の全種類のうち、一部の感情の種類を有する感情情報を、感情表示を作成する感情情報とし、他の感情の種類を有する感情情報を、感情表示を作成しない感情情報として規定している(表2〜4における「感情表示の作成」の列)。「感情表示の作成」の列における内容は、マップごと(すなわち識別子ごとに)に異なっていてもよいし、共通であってもよい。
例えば、表2のマップでは、「感情表示の作成」の列において「○」が付されている、笑顔(喜び)、怒り(イライラ)、驚き(ヒヤリハット)、退屈、眠気のいずれかの感情の種類を有する感情情報は、感情表示を作成する感情情報とし、「感情表示の作成」の列において「×」が付されている、悲しみ(泣き顔)、困惑のいずれかの感情の種類を有する感情情報は、感情表示を作成しない感情情報としている。表3、表4のマップでも同様である。
また、各マップは、感情表示の表示態様(表示色、点灯か点滅か)を規定している。すなわち、各マップにおいて、「表示色」の列は、感情表示の色を、感情情報における感情の種類ごとに規定しており、「点灯又は点滅」の列は、感情情報における感情の強さ(L1〜L10の10段階で表され、数値が大きいほど感情が強い)と、感情表示の点灯/点滅の態様との関係を規定している。例えば、表2のマップにおいて、感情の種類が笑顔(喜び)である感情情報に基づき作成される感情表示の色は桃色であり、感情の強さがL1〜L5の範囲では感情表示が点灯(輝度が一定)し、L6〜L10では感情表示が点滅するように規定されている。表3、表4のマップでも同様である。
ステップ23では、感情表示及び報知音を以下のようにして作成する。前記ステップ2において乗員が着座していると判断した一つの着座位置αについて、前記ステップ22において読み出したマップと、着座位置αに関連付けられた感情情報とから、感情表示を作成する。そのために、まず、感情情報における感情の種類が、マップの「感情表示の作成」の欄において「○」が付されているものである(すなわち、感情情報の種類に関する基準に合致する)か否かを判断する。「○」が付されているものである場合は、その感情情報について感情表示を作成する。一方、「×」が付されているものである場合は、その感情情報については、感情表示を作成しない。
感情表示を作成する場合は、感情情報における感情の種類に応じて、感情表示のデザインを決定する。なお、感情の種類と感情表示のデザインとは予め関連付けられ、記憶部17に記憶されている。例えば、感情の種類が笑顔(喜び)の場合の感情表示のデザインは、図6における感情表示217のデザインであり、感情の種類が怒り(イライラ)の場合の感情表示のデザインは、図6における感情表示219のデザインであり、感情の種類が眠気の場合の感情表示のデザインは、図6における感情表示221のデザインである。また、感情表示を作成する場合は、マップに基づき、感情表示の色を決定するとともに、感情情報における感情の強さに応じて、点灯/点滅の態様(感情表示の態様)を決定する。
また、着座位置αについて感情表示を作成する場合は、車室における着座位置αの位置に基づき、感情表示の表示場所を決定する。具体的には、着座位置αが運転席であれば、感情表示の表示場所を、運転席に対応する位置とし、着座位置αが助手席であれば、感情表示の表示場所を、助手席に対応する位置とし、着座位置αが後部座席右であれば、感情表示の表示場所を、後部座席右に対応する位置とし、着座位置αが後部座席左であれば、感情表示の表示場所を、後部座席左に対応する位置とする。
以上により、着座位置αにおける感情表示(デザイン、色、点灯/点滅の態様)とその表示場所とが決定される。前記ステップ2において乗員が着座していると判断した着座位置が着座位置α以外にもある場合は、着座位置α以外の全ての着座位置についても、同様に感情表示とその表示場所の作成処理を実行する。
また、本ステップ23では、感情情報に応じて、報知音の発音の有無も決定する。感情表示を作成する感情情報の中に、感情の強さがマップにおける「報知音」の列の条件に該当するものが一つでもあれば、報知音の発音を決定する。報知音は、「報知音」の列の条件に該当した感情の種類に応じて異なるものとすることができる。一方、感情表示を作成する感情情報の中に、感情の強さがマップにおける「報知音」列の条件に該当するものが一つもなければ、報知音を発音しないことを決定する。「報知音」の種類や音量は、感情の強さがマップにおける「報知音」の列の条件に該当した乗員の識別子に応じて設定されてもよいし、その乗員の着座位置に応じて設定されてもよい。
図2に戻り、ステップ6では、感情表示作成部15が、前記ステップ23で決定した内容(感情表示とその表示場所、報知音の発音の有無)を表す信号をインタフェース部19に出力する。作成した感情表示が複数ある場合は、その全てを出力する。
また、ステップ6では、前記ステップ2において、乗員が着座していいない着座位置があった場合は、その着座位置の位置情報をインタフェース部19に出力する。この位置情報は、インタフェース部19において、乗員が着座していない着座位置を表示するために使用される。また、前記ステップ23において、乗員は着座しているが感情表示を作成しないと判断した着座位置があった場合は、その着座位置の位置情報をインタフェース部19に出力する。この位置情報は、インタフェース部19において、乗員は着座しているが感情表示を作成しなかった着座位置を表示するために使用される。
なお、インタフェース部19では、感情表示作成部15から入力した信号に応じて以下の表示や発音を行う。すなわち、インタフェース部19のディスプレイ19aは、例えば、図6に示すように、感情表示215、217、219、221を表示する。なお、図6は4つの着座位置全てにおいて乗員を検出し、全ての着座位置において感情表示を作成した場合の表示例である。
感情表示215、217、219、221のデザイン、色、及び点灯/点滅の態様は、前記ステップ23において決められたものである。また、感情表示215、217、219、221は、前記ステップ23で決定した表示場所に基づき、それぞれの感情表示に対応する着座位置に関連付けて表示される。例えば、感情表示215は、着座位置のうち、運転席に着座した乗員(ドライバ)の感情情報から作成されたものであるが、その感情表示215は、模式的に運転席を表す場所205に表示される。同様に、助手席に着座した乗員の感情情報から作成された感情表示217は、模式的に助手席を表す場所207に表示され、後部座席右に着座した乗員の感情情報から作成された感情表示219は、模式的に後部座席右を表す場所209に表示され、後部座席左に着座した乗員の感情情報から作成された感情表示221は、模式的に後部座席左を表す場所211に表示される。
なお、インタフェース部19のディスプレイ19aは、車室の外形を表す線203、車両の進行方向を表す矢印213、ハンドルを表す記号215等により、運転席を表す場所205、助手席を表す場所207、後部座席右を表す場所209、及び後部座席左を表す場所211をそれぞれ表現する。
また、図7は、4つの着座位置全てにおいて乗員を検出したが、運転席と助手席のみにおいて感情表示を作成し、後部座席においては感情情報を作成しなかった場合の表示例である。この場合、インタフェース部19のディスプレイ19aのうち、模式的に後部座席右を表す場所209、及び模式的に後部座席左を表す場所211には、乗員を検出したが、感情情報を作成しなかった場合に特有の表示がなされる。この表示は、内部がブランクの円225、227(いずれの感情表示とも異なり、乗員を検出しない場合の表示とも異なる表示)である。
また、図8は、運転席と助手席において乗員を検出し、そこでは感情表示を作成したが、後部座席では乗員を検出しなかった場合の表示例である。この場合、インタフェース部19のディスプレイ19aのうち、模式的に後部座席右を表す場所209、及び模式的に後部座席左を表す場所211には、何も表示されない(いずれの感情表示とも異なり、内部がブランクの円225、227とも異なる表示となる)。
また、インタフェース部19は、感情表示作成部15が警報音を発音すると決定した場合は、スピーカ19bにより警報音を発音する。
ステップ7では、車両のイグニッションがオンであるか否かを判断する。オンである場合はステップ1に進み、オフである場合は本処理を終了する。
なお、記憶部17に記憶されているマップは、インタフェース部19のマイク19cに乗員の音声を入力することにより、または、インタフェース部19における操作部19dを操作することにより変更・再設定することができる。図2に示す処理の途中でマップが変更・再設定された場合、その処理は中断され、ステップ1に戻る。なお、音声入力によるマップの変更・再設定は常時可能であるが、操作部19dの操作によるマップの変更・再設定は、車両の停止時のみ可能である。
3.感情モニタリングシステム1が奏する効果
(1)感情モニタリングシステム1は、車両に複数の乗員がいる場合、各乗員の感情を表す感情表示を作成することができる。そのため、乗員は、直接は見えない位置に着座している他の乗員の異変に容易に気付くことができる。特に、ドライバは、運転に必要な注意力を保持しながら、同乗者の状況を把握することができる。
(2)感情モニタリングシステム1は、感情表示を、その感情表示に対応する乗員の着座位置に関連付けて表示する。そのため、感情表示と乗員との対応関係を容易に理解することができる。
(3)感情モニタリングシステム1は、感情情報の種類に関する基準を規定したマップを備え、その基準に合致した感情情報について感情表示を作成する。そのため、作成する感情表示を、重要度の高いものに限定できる。また、上記のマップは、各乗員ごとに記憶されているため、各乗員の事情に応じて、表示する感情表示を決めることができる。
(4)感情モニタリングシステム1は、感情の強さと感情表示の態様との対応関係を規定したマップを備え、そのマップに基づき、感情の強さに応じて感情表示の態様を変化させることができる。そのため、感情表示から、感情の強さを容易に理解することができる。また、上記のマップは、各乗員ごとに記憶されているため、各乗員の事情に応じて、感情表示の態様を決めることができる。
(5)感情モニタリングシステム1は、乗員を識別し、その識別結果に応じて、対応するマップを使用する。そのため、乗員が途中で着座位置を変えた場合でも、その乗員に対応したマップを使用することができる。
4.その他の実施形態
(1)例えば、感情モニタリングシステム1は、乗員として運転者のみを検出し、その運転者の感情情報における感情の種類が特定の種類であり、且つ感情の強さが所定の閾値以上であることを条件として、インタフェース部19のスピーカ19bにより、機械的合成音声(例えば「どうしましたか?」)を発音してもよい。
(2)また、感情モニタリングシステム1は、乗員の感情情報における感情の種類が特定の種類であり、且つ感情の強さが所定の閾値以上であることを条件として、その乗員に予め対応付けられた感情快適化手段(例えばエアコン調整、音量調整、楽曲再生、声かけ等)の一部又は全部を、その乗員又は他の乗員に提案してもよい。
(3)また、検出した乗員のうち、所定の割合を超える乗員から、所定の感情の種類を有する感情情報を取得することを条件として、報知(例えばインタフェース部19のスピーカ19bによりブザー音を鳴らす)を行ってもよい。
(4)カメラ3を着座位置ごとに設置している場合、乗員を検出しなかったカメラ3の電源をオフにすることができる。
(5)着座位置における乗員の検出は、各着座位置に設置されたセンサ(例えばシートセンサ)により行ってもよい。
(6)感情モニタリングシステム1は、インタフェース部19を備えないものであってもよい。この場合、感情表示作成部15から外部の機器(例えばカーナビゲーションシステム、携帯端末等)に信号を出力し、その外部の機器により感情表示を表示し、報知音を発音することができる。外部の機器における表示は、上述したディスプレイ19aの表示と同様のものとすることができる。
(7)インタフェース部19のディスプレイ19aに感情表示を表示する態様は、図9に示すものであってもよい。感情表示303、304、305、306の左側には、それぞれ、感情表示に対応する着座位置を表す「運転席」、「助手席」、「後部座席右」、「後部座席左」が表示されている。すなわち、感情表示303、304、305、306は、その感情表示に対応する着座位置(その感情表示の元となる感情情報を取得した乗員の着座位置)に関連付けて表示されている。
また、感情表示303、304、305、306の右側には、それぞれ、その感情表示に対応する乗員の名称が表示されている。すなわち、前記ステップ3において、記憶部9に記憶されている識別子の中に、着座位置に着座している乗員の識別子と同一又は近似する識別子があった場合は、その識別子に対応する乗員の名称を感情表示の右側に表示し、記憶部9に記憶されている識別子の中に、着座位置に着座している乗員の識別子と同一又は近似する識別子がなかった場合は、「ゲスト1」、「ゲスト2」等の表示を行う。
(8)マップにおける「感情表示の作成」の列は、全ての感情の種類について、「○」であってもよい。この場合、全ての感情情報に基づき、感情表示を作成することができる。
(9)感情表示の態様は、任意に設定することができる。例えば、感情の種類が同じであっても、感情の強さに応じて、感情表示における様々な態様(例えば、感情表示の色、感情表示の明るさ、感情表示の大きさ、感情表示の動き等)を変えてもよい。また、感情の強さが所定の閾値に達しない場合は、感情表示を作成しないようにしてもよい。感情の強さが所定の閾値に達しない場合の表示は、図7における円225、227のような表示とすることができる。
(10)マップは、記憶部17に、着座位置に関連付けて記憶されていてもよい。この場合、前記ステップ22では、着座位置αに関連付けられたマップを読み出し、そのマップを用いて、着座位置αにおける感情表示及び報知音を作成する。そのため、感情情報の種類に関する基準や、感情の強さと感情表示の態様との対応関係は、着座位置ごとに設定されることになる。
1・・・感情モニタリングシステム、3・・・カメラ、5・・・着座位置検出部、
7・・・乗員識別部、9・・・記憶部、11・・・特徴量抽出部、13・・・感情判定部、
15・・・感情表示作成部、17・・・記憶部、19・・・インタフェース部、
19a・・・ディスプレイ、19b・・・スピーカ、19c・・・マイク、
19d・・・操作部、101・・・乗員、
215、217、219、221、303、304、305、306・・・感情表示

Claims (3)

  1. 車両の2以上の着座位置について、その着座位置に着座する乗員(101)の顔画像を取得可能な顔画像取得手段(3)と、
    前記顔画像取得手段により取得した顔画像に基づいて前記乗員の感情を表す感情情報を取得する感情情報取得手段(13)と、
    前記乗員の前記着座位置を検出する着座位置検出手段と、
    前記感情情報の種類に関する基準を前記着座位置ごとに記憶した第1の記憶手段と、
    前記感情情報取得手段により取得した前記感情情報のうち、前記感情情報の種類に関する基準に合致した前記感情情報に対応する感情表示を作成する感情表示作成手段と、
    を備え
    前記感情表示作成手段は、前記感情情報の種類に関する基準として、前記感情表示を作成する前記乗員の前記着座位置における前記感情情報の種類に関する基準を用いることを特徴とする感情モニタリングシステム(1)。
  2. 車両の2以上の着座位置について、その着座位置に着座する乗員の顔画像を取得可能な顔画像取得手段と、
    前記顔画像取得手段により取得した顔画像に基づいて前記乗員の感情を表す感情情報を取得する感情情報取得手段と、
    前記乗員の前記着座位置を検出する着座位置検出手段と、
    前記感情の強さと前記感情表示の態様との対応関係を前記着座位置ごとに記憶した第2の記憶手段と、
    前記感情情報取得手段により取得した前記感情情報に対応する感情表示を、前記対応関係に基づき決定される態様で作成する感情表示作成手段と、
    を備え、
    前記感情表示作成手段は、前記対応関係として、前記感情表示を作成する前記乗員の前記着座位置における前記対応関係を用いることを特徴とする感情モニタリングシステム。
  3. 前記感情表示を、その感情表示に対応する前記乗員の前記着座位置に関連付けて表示する表示手段(19a)を備えることを特徴とする請求項1又は2に記載の感情モニタリングシステム。
JP2012089493A 2012-04-10 2012-04-10 感情モニタリングシステム Expired - Fee Related JP5729345B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012089493A JP5729345B2 (ja) 2012-04-10 2012-04-10 感情モニタリングシステム
PCT/JP2013/002333 WO2013153781A1 (ja) 2012-04-10 2013-04-04 感情モニタリングシステム
CN201380019356.3A CN104244824B (zh) 2012-04-10 2013-04-04 情绪监视系统
DE112013001979.5T DE112013001979T5 (de) 2012-04-10 2013-04-04 Befindlichkeitsüberwachungssystem
US14/390,806 US9465978B2 (en) 2012-04-10 2013-04-04 Feeling monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012089493A JP5729345B2 (ja) 2012-04-10 2012-04-10 感情モニタリングシステム

Publications (2)

Publication Number Publication Date
JP2013216241A JP2013216241A (ja) 2013-10-24
JP5729345B2 true JP5729345B2 (ja) 2015-06-03

Family

ID=49327366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012089493A Expired - Fee Related JP5729345B2 (ja) 2012-04-10 2012-04-10 感情モニタリングシステム

Country Status (5)

Country Link
US (1) US9465978B2 (ja)
JP (1) JP5729345B2 (ja)
CN (1) CN104244824B (ja)
DE (1) DE112013001979T5 (ja)
WO (1) WO2013153781A1 (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6664048B2 (ja) * 2014-05-16 2020-03-13 Case特許株式会社 車両
JP5818050B1 (ja) * 2015-01-28 2015-11-18 ビックリック株式会社 ステータス判定システム
CN104853481B (zh) * 2015-04-01 2018-08-14 浙江农林大学 一种led心情呈现与调节装置及方法
JP2017054241A (ja) * 2015-09-08 2017-03-16 株式会社東芝 表示制御装置、方法及びプログラム
KR101823611B1 (ko) * 2015-10-05 2018-01-31 주식회사 감성과학연구센터 Au 기반의 감성 표정 정보 추출 방법
US11194405B2 (en) 2015-10-08 2021-12-07 Panasonic Intellectual Property Corporation Of America Method for controlling information display apparatus, and information display apparatus
CN106562793B (zh) * 2015-10-08 2021-12-21 松下电器(美国)知识产权公司 信息提示装置的控制方法、以及信息提示装置
JP6656079B2 (ja) * 2015-10-08 2020-03-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報提示装置の制御方法、及び、情報提示装置
CN113532464B (zh) * 2015-10-08 2024-10-25 松下电器(美国)知识产权公司 控制方法、个人认证装置和记录介质
FR3048175A1 (fr) * 2016-02-29 2017-09-01 Peugeot Citroen Automobiles Sa Dispositif et procede de detection d'un etat de distraction cognitive d'un conducteur
JP6818424B2 (ja) * 2016-04-13 2021-01-20 キヤノン株式会社 診断支援装置、情報処理方法、診断支援システム及びプログラム
CN106127828A (zh) * 2016-06-28 2016-11-16 广东欧珀移动通信有限公司 一种增强现实的处理方法、装置及移动终端
US10133942B2 (en) 2016-07-05 2018-11-20 Nauto Global Limited System and method for automatic driver identification
US10209081B2 (en) 2016-08-09 2019-02-19 Nauto, Inc. System and method for precision localization and mapping
JP6940612B2 (ja) 2016-09-14 2021-09-29 ナウト, インコーポレイテッドNauto, Inc. ニアクラッシュ判定システムおよび方法
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
JP6382273B2 (ja) * 2016-09-30 2018-08-29 本田技研工業株式会社 施設満足度算出装置
JP6657048B2 (ja) * 2016-09-30 2020-03-04 本田技研工業株式会社 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
US10246014B2 (en) 2016-11-07 2019-04-02 Nauto, Inc. System and method for driver distraction determination
JP7060779B2 (ja) * 2017-03-28 2022-04-27 テイ・エス テック株式会社 組み合わせ選定システム
JP6686959B2 (ja) 2017-04-11 2020-04-22 株式会社デンソー 車両用報知装置
US10417816B2 (en) 2017-06-16 2019-09-17 Nauto, Inc. System and method for digital environment reconstruction
EP3638542B1 (en) 2017-06-16 2022-01-26 Nauto, Inc. System and method for contextualized vehicle operation determination
WO2018229550A1 (en) 2017-06-16 2018-12-20 Nauto Global Limited System and method for adverse vehicle event determination
JP6897377B2 (ja) * 2017-07-11 2021-06-30 トヨタ自動車株式会社 情報提供装置
CN107647873B (zh) * 2017-08-31 2021-04-02 维沃移动通信有限公司 一种情绪的检测方法及移动终端
JP6613290B2 (ja) 2017-11-28 2019-11-27 株式会社Subaru 運転アドバイス装置及び運転アドバイス方法
KR102564854B1 (ko) 2017-12-29 2023-08-08 삼성전자주식회사 정규화된 표현력에 기초한 표정 인식 방법, 표정 인식 장치 및 표정 인식을 위한 학습 방법
CN110027473B (zh) * 2018-01-04 2024-04-30 哈曼国际工业有限公司 用于车厢中的增强的媒体体验的情境天窗
JP6713490B2 (ja) * 2018-02-07 2020-06-24 本田技研工業株式会社 情報提供装置及び情報提供方法
WO2019169031A1 (en) 2018-02-27 2019-09-06 Nauto, Inc. Method for determining driving policy
CN108501956A (zh) * 2018-03-13 2018-09-07 深圳市海派通讯科技有限公司 一种基于情绪识别的智能刹车方法
JP7091796B2 (ja) * 2018-04-12 2022-06-28 株式会社Jvcケンウッド 映像制御装置、車両用撮影装置、映像制御方法およびプログラム
CN110667468A (zh) * 2018-07-03 2020-01-10 奥迪股份公司 驾驶辅助系统和驾驶辅助方法
CN109050396A (zh) * 2018-07-16 2018-12-21 浙江合众新能源汽车有限公司 一种车载智能机器人
JP7235276B2 (ja) * 2018-08-21 2023-03-08 株式会社データ・テック 運行管理装置及びコンピュータプログラム
US11049299B2 (en) * 2018-09-26 2021-06-29 The Alchemy Of You, Llc System and method for improved data structures and related interfaces
JP7115216B2 (ja) * 2018-10-24 2022-08-09 トヨタ自動車株式会社 情報処理装置および情報処理方法
JP7429498B2 (ja) * 2018-11-06 2024-02-08 日産自動車株式会社 運転支援方法及び運転支援装置
JP2020095538A (ja) * 2018-12-13 2020-06-18 本田技研工業株式会社 情報処理装置及びプログラム
CN109711299A (zh) * 2018-12-17 2019-05-03 北京百度网讯科技有限公司 车辆客流统计方法、装置、设备及存储介质
JP7092045B2 (ja) * 2019-01-16 2022-06-28 トヨタ自動車株式会社 車室内制御装置
JP7131433B2 (ja) * 2019-02-26 2022-09-06 トヨタ自動車株式会社 車載用情報処理装置、車両間情報処理システム、及び情報処理システム
JP7264079B2 (ja) * 2020-02-05 2023-04-25 トヨタ自動車株式会社 感情推定装置、方法、プログラムおよび車両
CN111772648A (zh) * 2020-06-10 2020-10-16 南京七岩电子科技有限公司 一种结合hrv信号和面部表情判断情绪的方法及设备
US12374129B2 (en) 2021-03-16 2025-07-29 Mitsubishi Electric Corporation Occupant detection device, occupant detection system, and occupant detection method
US11793434B1 (en) * 2022-05-18 2023-10-24 GM Global Technology Operations LLC System to perform visual recognition and vehicle adaptation
JP7786364B2 (ja) 2022-12-23 2025-12-16 トヨタ自動車株式会社 運転支援装置
CN116138781A (zh) * 2023-02-03 2023-05-23 浙江极氪智能科技有限公司 用户情绪可视化方法、装置、电子设备及可读存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003339681A (ja) * 2002-05-27 2003-12-02 Denso Corp 車両用表示装置
EP1845491A4 (en) * 2005-02-03 2008-02-13 Pioneer Corp Image processing device, image processing method, image processing program and computer readable recording medium
KR100680030B1 (ko) * 2005-11-17 2007-02-07 (주)폴리다임 이모티콘 메시지 변환시스템 및 변환방법
JP2010092094A (ja) * 2008-10-03 2010-04-22 Nikon Corp 画像処理装置、画像処理プログラム及びデジタルカメラ
JP2010226484A (ja) * 2009-03-24 2010-10-07 Nikon Corp 画像表示装置およびデジタルカメラ
CN101540090B (zh) * 2009-04-14 2011-06-15 华南理工大学 基于多元信息融合的驾驶员疲劳监测方法
JP2011117905A (ja) * 2009-12-07 2011-06-16 Pioneer Electronic Corp ルート選択支援装置及びルート選択支援方法

Also Published As

Publication number Publication date
US20150078632A1 (en) 2015-03-19
US9465978B2 (en) 2016-10-11
DE112013001979T5 (de) 2015-03-12
CN104244824A (zh) 2014-12-24
WO2013153781A1 (ja) 2013-10-17
JP2013216241A (ja) 2013-10-24
CN104244824B (zh) 2016-09-07

Similar Documents

Publication Publication Date Title
JP5729345B2 (ja) 感情モニタリングシステム
JP2014167438A (ja) 情報通知装置
JPWO2011043006A1 (ja) 制御装置および車両周囲監視装置
TWI738132B (zh) 基於動作分析的人機交互方法、車載裝置
JP2017007652A (ja) 言語制御のための文脈を認識する方法、言語制御のための言語制御信号を決定する方法、および方法を実施するための装置
JP2014096632A (ja) 撮像システム
US11440408B2 (en) Electronic device and text providing method therefor
CN112506353A (zh) 车辆交互系统、方法、存储介质和车辆
JP5687889B2 (ja) 車室内監視装置
JP6115278B2 (ja) 車両用表示装置
JP2025188238A (ja) 出力装置
JP2022132278A (ja) 映像制御装置
CN117087531A (zh) 控制灯光显示设备的方法和装置
JP2018083583A (ja) 車両感情表示装置、車両感情表示方法および車両感情表示プログラム
WO2022124164A1 (ja) 注目対象共有装置、注目対象共有方法
JP2006015803A (ja) 車両用表示装置、および車両用表示装置を搭載した車両
US20230143429A1 (en) Display controlling device and display controlling method
JP2023114500A (ja) 状態判定装置、状態判定方法、および、プログラム
CN116533232A (zh) 一种车载机器人的控制方法、装置及车载机器人
JP2023085752A (ja) 情報提供支援方法、情報提供支援装置、情報提供支援プログラム、及び、情報提供システム
CN109141461A (zh) 汽车地图导航控制系统和方法
US20200210736A1 (en) Information processing apparatus and computer readable storage medium
JP2018097474A (ja) 情報提供システム
JP2026010869A (ja) 情報処理装置、情報処理方法、及びプログラム
JPWO2014054171A1 (ja) 車載情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150323

R151 Written notification of patent or utility model registration

Ref document number: 5729345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees