JP2016115117A - 判定装置および判定方法 - Google Patents
判定装置および判定方法 Download PDFInfo
- Publication number
- JP2016115117A JP2016115117A JP2014252940A JP2014252940A JP2016115117A JP 2016115117 A JP2016115117 A JP 2016115117A JP 2014252940 A JP2014252940 A JP 2014252940A JP 2014252940 A JP2014252940 A JP 2014252940A JP 2016115117 A JP2016115117 A JP 2016115117A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- state
- shape
- driver
- shape parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Emergency Alarm Devices (AREA)
Abstract
【課題】運転者の顔および目の状態をより正確に判定すること。【解決手段】判定装置は、被験者の三次元顔形状と、被験者の目の位置と、目の形状の変化の状態と形状パラメータとが対応付けられた変化情報とが登録された三次元顔モデルを記憶する記憶部と、撮像装置で撮像された運転者の撮像画像を、三次元顔形状と照合して、目の位置を特定する照合部と、形状パラメータを変化させて、撮像画像における目の状態に対応する形状パラメータを特定する形状パラメータ判定部と、撮像画像における目の開眼の状態を示す開眼度を算出する開眼度算出部と、開眼度と、特定された形状パラメータとに基づいて、運転者の顔および目の状態を判定する判定部と、を備えた。【選択図】図4
Description
本発明は、判定装置および判定方法に関する。
近年、撮像された静止画像または動画像に含まれる顔の位置および向き、ならびに目および口等の顔部品の状態を検出する顔検出技術の開発が進められている。例えば、車両においては、運転者の顔検出結果から開閉眼判定を行って、居眠り運転等を検知し、警報等の所定の処理を行うことができる。
従来から、居眠り運転等を検知するために、運転者の開閉眼の状態を検知する他、車両運動等の運転挙動から居眠り運転等の推定情報を用いる技術が知られている(例えば、特許文献1参照)。また、顔検出結果から得られる運転者の目の上下瞼間距離である開眼度と瞼形状の双方を利用して運転者の開閉眼状態を検知し、居眠り運転等を検知する技術も知られている(例えば、特許文献2参照)。
しかしながら、運転者が下方を向いた場合に目の上下瞼間距離である開眼度が低下して開閉眼判定を誤る場合もあることから、これを回避するために、運転者のまぶたの輪郭形状から運転者が下方視をしているか否かを判定して運転者の眠気を検知する技術が知られている(例えば、特許文献3、4参照)。
しかしながら、従来技術では、まぶた形状だけで下方視と判定できない場合もある。また、従来技術では、二次元画像上でのまぶたの形状は、顔とカメラ間の相対的な角度関係に従って、見えが変化する。このため、従来技術では、運転者の顔および目の状態を正確に判定することが困難である。
そこで、本発明の課題の一つは、運転者の顔および目の状態をより正確に判定することができる判定装置および判定方法を提供することである。
本発明の判定装置は、被験者の三次元顔形状と、被験者の目の位置と、前記目の形状の変化の状態と形状パラメータとが対応付けられた変化情報とが登録された三次元顔モデルを記憶する記憶部と、撮像装置で撮像された運転者の撮像画像を、前記三次元顔形状と照合して、前記目の位置を特定する照合部と、前記形状パラメータを変化させて、前記撮像画像における前記目の状態に対応する形状パラメータを特定する形状パラメータ判定部と、前記撮像画像における前記目の開眼の状態を示す開眼度を算出する開眼度算出部と、前記開眼度と、特定された前記形状パラメータとに基づいて、前記運転者の顔および目の状態を判定する判定部と、を備えた。上記構成により、誤判断を回避して、より正確に運転者の顔および目の状態を判断することができる。
また、本発明の判定装置において、前記判定部は、前記開眼度と、特定された前記形状パラメータとに基づいて、前記運転者が下方視の状態であるか否かを判定する。上記構成により、誤判断を回避して、より正確に運転者の下方視を判断することができる。
また、本発明の判定装置において、前記三次元顔モデルにおける前記目の形状の変化の状態は、前記目の標準の状態から前記被験者の下方視の状態までの変化を示し、前記判定部は、前記開眼度が閉眼を示す範囲内である場合に、特定された前記形状パラメータが下方視を示す範囲内にあるか否かを判定し、前記形状パラメータが下方視を示す範囲内である場合に、前記運転者は下方視状態であると判定する。上記構成により、誤判断を回避して、より正確に運転者の下方視を判断することができる。
また、本発明の判定装置において、前記判定部は、前記開眼度が閉眼を示す範囲内である場合であって、特定された前記形状パラメータが下方視を示す範囲外である場合には、前記運転者は閉眼状態であると判定する。上記構成により、誤判断を回避して、より正確に運転者の閉眼状態を判断することができる。
また、本発明の判定装置は、前記運転者が閉眼状態であると判定された場合、および前記運転者が下方視状態であると判定された場合には、前記運転者に警告を促す動作を行う処理部、をさらに備えた。上記構成により、運転者の脇見運転や居眠り運転を防止することができる。
また、本発明の判定装置は、前記被験者の撮像画像に基づいて、前記三次元顔形状と前記目の位置とを含む三次元顔構造データと、前記目の形状の変化の状態と前記形状パラメータとが対応付けられた前記変化情報と、を求める計測部と、計測された前記三次元顔構造データと前記変化情報とを、前記三次元顔モデルとして前記記憶部に登録するモデル生成部と、をさらに備えた。上記構成により、上記構成により、誤判断を回避して、より正確に運転者の顔および目の状態を判断することができる。
また、本発明の判定方法は、判定装置で実行される判定方法であって、前記判定装置は、被験者の三次元顔形状と、被験者の目の位置と、前記目の形状の変化の状態と形状パラメータとが対応付けられた変化情報とが登録された三次元顔モデルを記憶する記憶部、を備え、撮像装置で撮像された運転者の撮像画像を、前記三次元顔形状と照合して、顔の向きを特定し、特定された前記顔の向きにおける前記目の位置を特定する照合部と、前記形状パラメータを変化させて、前記撮像画像における前記目の状態に対応する形状パラメータを特定し、前記撮像画像における前記目の開眼の状態を示す開眼度を算出し、前記開眼度と、特定された前記形状パラメータとに基づいて、前記運転者の顔および目の状態を判定する。上記構成により、誤判断を回避して、より正確に運転者の顔および目の状態を判断することができる。
以下、本実施形態の判定装置を車両1に搭載した例をあげて説明する。
本実施形態では、車両1は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。
図1に示されるように、車両1の車体2は、運転者(不図示)が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード(インストルメントパネル)12から突出したステアリングホイールである。
また、図1に示されるように、本実施形態では、一例として、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。さらに、本実施形態では、これら四つの車輪3は、いずれも操舵されうるように(転舵可能に)構成されている。
また、車室2a内のダッシュボード12の車幅方向すなわち左右方向の中央部には、モニタ装置11が設けられている。モニタ装置11には、表示装置や音声出力装置が設けられている。表示装置は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置は、例えば、スピーカである。また、表示装置は、例えば、タッチパネル等、透明な操作入力部で覆われている。乗員は、操作入力部を介して表示装置の表示画面に表示される画像を視認することができる。また、乗員は、表示装置の表示画面に表示される画像に対応した位置において手指等で操作入力部を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。
また、図2に示すように、ハンドルコラム202には、撮像装置201が設置されている。この撮像装置201は、例えば、CCD(Charge Coupled Device)カメラ等である。撮像装置201は、座席2bに着座する運転者302の顔が、視野中心に位置するように、視野角及び姿勢が調整されている。この撮像装置201は、運転者302の顔を順次撮影し、撮影により得た画像についての画像データを順次出力する。
次に、本実施形態にかかる車両1における判定装置を有する判定システムについて説明する。図3は、本実施形態にかかる判定システム100の構成の一例を示すブロック図である。図3に例示されるように、判定システム100では、ECU14や、モニタ装置11、操舵システム13、測距部16,17等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(Controller Area Network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16、測距部17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部等の操作信号等を、受け取ることができる。ここで、ECU14は、判定装置の一例である。
ECU14は、例えば、CPU14a(Central Processing Unit)や、ROM14b(Read Only Memory)、RAM14c(Random Access Memory)、表示制御部14d、音声制御部14e、SSD14f(Solid State Drive、フラッシュメモリ)等を有している。CPU14aは、車両1全体の制御を行う。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行できる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15で得られた画像データを用いた画像処理や、表示装置で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。
なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。
図4は、本実施形態のECU14の機能的構成を示すブロック図である。図4に示されるように、ECU14は、入力部401と、顔データ計測部402と、モデル生成部403と、照合部404と、形状パラメータ判定部405と、開眼度算出部406と、下方視判定部407と、処理部408と、三次元顔モデル410とを主に備えている。図4に示される、三次元顔モデル410を除く各構成は、ECU14として構成されたCPU14aが、ROM14b内に格納されたプログラムを実行することで実現される。なお、これらの構成をハードウェアで実現するように構成しても良い。
三次元顔モデル410は、SSD14f等の記憶媒体に保存されている。三次元顔モデル410は、統計的顔形状モデルであり、平均的な被験者の三次元顔形状と、被験者の目や口、鼻等の顔部品の位置と、被験者の目の形状の変化情報とが登録されている。三次元顔モデル410は、一例として、CLM(Constrained Local Model),AAM(Active Appearance Model),ASM(Active Shape Model)を用いることができるが、これらに限定されるものではない。
本実施形態のECU14は、この三次元顔モデル410を用いて、運転者の顔をトラッキングしながら、運転者の顔の向きと運転者の目の位置を検出し、運転者の上下瞼間の距離である開眼度を求め、目の形状に対応した形状パラメータを特定し、開眼度と形状パラメータに基づいて、運転者が下方を見ている状態(下方視の状態)であるか否か、開眼しているか否かを判定している。詳細について以下説明する。
図5は、本実施形態の三次元顔モデル410の一例を説明するための模式図である。図5では、例示的な顔のモデルMを示している。モデルMは、例えば100人の被験者から得られた顔形状から平均的な顔の立体的形状を示し、それぞれ所定の顔部品を表す複数の特徴点Pを含んでいる。特徴点Pは、任意の点を原点とした座標により表される。図5に示す例では、眉、目、鼻、口および輪郭を表す特徴点Pを示しているが、モデルMは図5に示したものとは異なる特徴点Pを含んでもよい。
三次元顔モデル410には、さらに、変化情報が登録されている。変化情報は、運転者の顔の表情や動作の変化に伴う運転者の目の形状の段階的な変化と、段階ごとの形状パラメータとが対応付けられたデータである。具体的には、変化状態として、顔が無表情で正面を向いて目が開いている状態を標準の状態とし、この標準の状態から表情が笑顔になるまでの目の形状の段階的な変化、標準の状態から目を閉じるまでの目の形状の段階的な変化、標準の状態から下を向く(下方視)までの目の形状の段階的な変化等の各状態が形状パラメータと対応付けられて三次元顔モデル410に登録されている。
図6は、本実施形態の三次元顔モデル410に登録された変化情報の一例を示す模式図である。図6に示す例では、標準の目の状態から目を閉じるまでの目の形状の段階的な変化が段階ごとに異なる値をとる形状パラメータ1と対応付けられている。また、標準の目の状態から笑顔になるまでの目の形状の段階的な変化が段階ごとに異なる値をとる形状パラメータ2と対応付けられている。さらに、標準の目の状態から下方視までの目の形状の段階的な変化が段階ごとに異なる値をとる形状パラメータ3と対応付けられている。それぞれの形状パラメータ1,2,3は、いずれも標準の目の状態から変化後の目の形状の状態に向かうに従って、値が段階的に小さくなる。
但し、これに限定されるものではなく、変化後の状態に向かうに従って、値が大きくなるように形状パラメータを構成してもよい。または、変化の種類に応じて、値が大きくなったり小さくなったり等異なる変化となるように、形状パラメータを構成してもよい。
なお、変化情報として登録される目の形状の変化は、図6に示す例に限定されるものではなく、他に、標準の目の状態からあくびをしたときまでの目の形状の段階的な変化、標準の目の状態から目を凝らす状態までの目の形状の段階的な変化、標準の目の状態から目を見開いた状態までの目の形状の段階的な変化を、段階ごとに形状パラメータと対応付けて三次元顔モデル410に登録するように構成することができる。
三次元顔モデル410の生成は、図4に示す、入力部401、顔データ計測部402、モデル生成部403により、以下のように行われる。図7は、本実施形態における三次元顔モデル410の生成処理の手順の一例を示すフローチャートである。
まず、管理者等は、3Dスキャナ等で例えば100人の被験者の顔を撮像する(S11)。また、S11では、上記多数の被験者のそれぞれに対し、標準の顔の状態から、笑顔や、目を閉じた状態、下向きの状態等の種々の変化の動作を行わせて、3Dスキャナ等で撮像する。なお、被験者の人数は100人に限定されるものではない。
入力部401は、かかる撮像画像を入力する。そして、顔データ計測部402は、入力された撮像画像から、複数人の被験者の顔形状、目や口等の顔部品の特徴点を抽出して、平均的な顔形状、顔部品の位置等の三次元顔構造データを計測する(S12)。ここで、顔データ計測部402は、計測部の一例である。
さらに、S12では、顔データ計測部402は、S11で撮像した被験者の種々の変化の動作の撮像画像から、例えば、非特許文献「Active Appearance Model 探索による目領域構造の自動抽出 森山 剛 金出 武雄 Jeffrey F. Cohn 小沢 慎治『画像の認識・理解シンポジウム(MIRU2006)』」に示されるような三次元顔モデル作成の手順に従って、主成分分析等の統計的データ解析手法により、目の形状の段階的な変化の状態に対応する形状パラメータを抽出する。
具体的には、撮像画像中の目の輪郭を構成する各点の座標を並べたベクトルをxで表すと、xは形状を表す。顔データ計測部402は、これを標準の目の状態から変化後の状態までの全ての撮像画像について平均し、平均形状xavを求める。顔データ計測部402は、標準の目の状態から変化後の状態までの各xのxavとの偏差を主成分分析して、固有ベクトルPsを求める。このとき、xは次の(1)式で表される。
x=xav+Psbs・・・(1)
ここで、bsは主成分得点ベクトルであり、これを形状パラメータと呼ぶ。すなわち、顔データ計測部402は、(1)式から形状パラメータbsを求める。
ここで、bsは主成分得点ベクトルであり、これを形状パラメータと呼ぶ。すなわち、顔データ計測部402は、(1)式から形状パラメータbsを求める。
そして、顔データ計測部402は、目の形状の段階的な変化の状態と形状パラメータとを対応付けて図6に示したような変化情報を生成する。
モデル生成部403は、計測された三次元顔構造データである平均的な顔形状、顔部品の位置、および上記変化情報を、三次元顔モデル410として生成する(S13)。これにより、平均的な顔のモデルが三次元顔モデル410に登録されて生成されることになる。
次に、本実施形態の判定処理について説明する。図8は、本実施形態にかかる判定処理の手順の一例を示すフローチャートである。まず、撮像装置201が運転者を撮像する(S31)。撮像は一定時間間隔で周期的に行われる。撮像された運転者の撮像画像は、照合部404へ入力される。
照合部404は、運転者の二次元の撮像画像と、三次元顔モデル410を構成する三次元顔構造データに適合させる(S32)。すなわち、照合部404は、モデルフィッティングとモデルのトラッキングを行う。これにより、照合部404は、運転者の顔の向きを特定(推定)し、さらに、三次元顔モデル410上での目の位置の検索を行い特定(推定)することになる。
ここで、本実施形態において、モデルフィッティングは、統計的顔形状モデルである三次元顔モデル410に図7の手順で作成された平均的な顔のモデルを初期状態として用い、該モデルの特徴点Pを撮像画像の顔の各部分に位置させることによって、該顔に近似したモデルMを生成する。
また、本実施形態において、モデルのトラッキングでは、モデルフィッティングにおいてモデルMが生成された後に、S31で周期的に撮像される運転者の撮像画像中の顔に合うようにモデルMを継続的に適合させる。本実施形態では、テンプレートを用いることによってモデルのトラッキングを行っている。
図9は、本実施形態における三次元顔モデル410における顔のモデルMについて作成されるテンプレートTを示す模式図である。テンプレートTは、画像中のモデルMの特徴点Pを含む所定範囲の領域を有する。例えば、テンプレートTは、眉を表す特徴点Pを含む領域、目を表す特徴点Pを含む領域、鼻を表す特徴点Pを含む領域、口を表す特徴点Pを含む領域および輪郭を表す特徴点Pを含む領域を有する。テンプレートTの各領域は、1または2以上の特徴点と対応しており、該特徴点の座標と紐付けられている。すなわち、テンプレートTが有する領域の画像中の位置が決まれば、該領域に対応する特徴点Pの座標を算出することができる。
本実施形態に係るモデルのトラッキングでは、テンプレートTが有する各領域の画像中の位置を決定し、該各領域の位置を用いてモデルMの該画像中の角度、位置および大きさを決定する。そして、モデルMに対してこれらの決定された角度、位置および大きさを適用することによって、モデルMを該画像に適合させることができる。テンプレートTが有する領域の位置および数は、モデルのトラッキングが可能である限り任意に選択され得る。
図8に戻り、S32により適合された三次元顔モデルにより、目の位置が特定されるため、形状パラメータ判定部405は、三次元眼モデルを作成する。そして、形状パラメータ判定部405は、二次元の撮像画像を三次元眼モデルに適合させる(S33)。すなわち、形状パラメータ判定部405は、形状パラメータを変化させ、形状パラメータに対応する目の形状と撮像画像の目の形状とを照合する。形状パラメータ判定部405は、撮像画像中の目の形状に対応する形状パラメータを三次元顔モデル410から特定する。
次に、開眼度算出部406は、撮像画像における運転者の開眼度を算出する(S34)。開眼度は、運転者の開眼の状態を示すものであり、本実施形態では、上下瞼間の距離である。開眼度算出部406による開眼度の算出手法としては、撮像画像の画素から算出する等の公知の手法を用いる。なお、本実施形態では、開眼度として上下瞼間の距離を用いているが、開眼の状態を示すものであれば、これに限定されるものではない。
下方視判定部407は、S33で特定された形状パラメータと、S34で算出された開眼度に基づいて、運転者が開眼の状態か閉眼の状態かを判定する。具体的には、以下の処理が行われる。
下方視判定部407は、S34で算出された開眼度が、所定の閉閾値以下であるか否かを判断する(S35)。ここで、閉閾値は、目が閉じている状態を示す最大の上下瞼間距離である。従って、開眼度が閉閾値以下であることは、目が閉じている可能性があることを意味する。閉閾値は予め定められており、ROM14bやSSD14f等に記憶されている。
開眼度が閉閾値より大きい場合には(S35:No)、下方視判定部407は、運転者の目は開眼の状態であると判断する(S38)。そして、処理は終了する。
一方、S35で、開眼度が閉閾値以下である場合には(S35:Yes)、下方視判定部407は、S33で特定された形状パラメータが所定の下方視閾値以下であるか否かを判断する(S36)。ここで、下方視閾値は、運転者が下方視をしているときの目の形状の形状パラメータの最大値である。従って、形状パラメータが下方視閾値以下の範囲である場合には、目の形状が下方視のときの目の形状の範囲であることを意味する。下方視閾値は予め定められており、ROM14bやSSD14f等に記憶されている。なお、下方視閾値は、個人毎に定められるものであってもよい。また、状況に応じて下方視閾値を変化させるように構成してもよい。
なお、本実施形態では、形状パラメータが下方視閾値以下の場合に目の形状が下方視の範囲としているが、これは、図6を用いて上述したとおり、標準の目の形状が下方視に近づくに従って、本実施形態の形状パラメータが小さくなるように設定されているからである。従って、形状パラメータの設定の仕方によっては、下方視の範囲の境界となる下方視閾値の定め方は異なってくる。
S36で、形状パラメータが下方視閾値以下の場合には(S36:Yes)、下方視判定部407は、運転者が下方視を行っていると判断する(S40)。すなわち、S35の判断で、開眼度は閉閾値以下で上下瞼間の距離は小さいが、形状パラメータは下方視の範囲内にあるため、下方視判定部407は、運転者は下方視を行っているため上下瞼間の距離が小さくなっているのであり、開眼の状態であると判断するのである。これにより、より正確に運転者の下方視および開眼状態を検出することができる。この場合、開眼状態ではあるが、運転者は運転中に、前方をみずに、スマートフォン等の操作等で下方をみていることが考えられる。このため、処理部408は、前方を向かせるための警報2を、モニタ装置11の音声出力装置から出力させる(S41)。そして、処理は終了する。
一方、S36で、形状パラメータが下方視閾値より大きい場合には(S36:No)、下方視判定部407は、運転者は閉眼の状態であると判断する(S37)。すなわち、S35の判断で、開眼度は閉閾値以下で上下瞼間の距離は小さくなっており、形状パラメータからも下方視の範囲内ではないため、下方視判定部407は、運転者は目を閉じていると判断する。これにより、より正確に運転者の閉眼状態を検出することができる。この場合、運転者が居眠り運転をしている可能性が高いため、処理部408は、モニタ装置11の音声出力装置から警報1を出力する(S39)。なお、本実施形態では、警報1を出力しているが、運転者に警告を促して居眠りの状態から起こすような動作を行うものであれば、これに限定されるものではない。
このように本実施形態では、三次元顔モデル410に、目の形状の変化に対応した形状パラメータを登録して、開眼度の他この形状パラメータを用いて運転者の開閉眼および下方視などの表情や動作等を判断しているので、顔と撮像装置201の相対位置や角度に依存しない顔の表情や動作等の推定(特定)が可能となる。このため、本実施形態によれば、誤判断を回避して、より正確に運転者の開閉眼や下方視等の顔および目の状態を判断することができる。
また、本実施形態では、運転者の顔の目の形状を、二次元の撮像画像だけでなく、三次元の顔モデルを用いて推定(特定)しているので、撮像装置201に対する垂直方向の相対的な顔の位置および顔の向きの影響を受けることが少ない。このため、本実施形態によれば、より正確に目の形状を推定することができ、これにより、より正確に運転者の開閉眼や下方視等の顔および目の状態を判定することができる。
また、本実施形態では、三次元顔モデルに撮像画像をフィッティングしているので、目の上下左右まぶたに対して同時にフィッティングすることになり、上下左右まぶたで独立に曲線を検出する従来技術に比べて、撮像画像中のノイズに対してロバストに開閉眼や下方視等の顔および目の状態の検出を行うことができる。
また、本実施形態では、運転者が下方視や閉眼状態であると判定された場合には、処理部408は、運転者に警告を促す動作の一例として警報を、モニタ装置11の音声出力装置から出力させるので、運転者の脇見運転や居眠り運転を防止することができる。
本実施形態では、三次元顔モデル410に、標準の目の状態から下方視に至るまでの目の形状の変化を形状パラメータとともに登録して、下方視の判定を行っているが、下方視以外の判定を行うように、三次元顔モデル410、形状パラメータ判定部405、下方視判定部407等を構成してもよい。
例えば、三次元顔モデル410に、さらに、標準の目の状態からあくびをしたときまでの目の形状の段階的な変化を形状パラメータとともに登録し、あくびの判定を行うように三次元顔モデル410、形状パラメータ判定部405、下方視判定部407等を構成することができる。
また、三次元顔モデル410に、さらに、標準の目の状態から目を凝らす状態までの目の形状の段階的な変化までの目の形状の段階的な変化を形状パラメータとともに登録し、まぶしくて目を細めたことを判定するように、三次元顔モデル410、形状パラメータ判定部405、下方視判定部407等を構成してもよい。
また、形状パラメータを、上記非特許文献「Active Appearance Model 探索による目領域構造の自動抽出 森山 剛 金出 武雄 Jeffrey F. Cohn 小沢 慎治『画像の認識・理解シンポジウム(MIRU2006)』」や非特許文献「Costen, N., Cootes, T.F., Taylor, C.J.: Compensating for ensemble-specificity effects when building facial models. Image and Vision Computing 20, 673−682」に示されているように、個人内差と個人間差とに分類して登録されるように三次元顔モデル410を構成してもよい。
また、本実施形態では、運転者の開閉眼の判定を正確に行うために、下方視の判定を行っているが、これに限定されるものではない、インタフェースとの対話等、人間的なやり取りにおいて、本実施形態の手法の下方視の検出を用いるように、三次元顔モデル410、形状パラメータ判定部405、下方視判定部407等を構成してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 車両
14 ECU
201 撮像装置
401 入力部
402 顔データ計測部
403 モデル生成部
404 照合部
405 形状パラメータ判定部
406 開眼度算出部
407 下方視判定部
408 処理部
410 三次元顔モデル
14 ECU
201 撮像装置
401 入力部
402 顔データ計測部
403 モデル生成部
404 照合部
405 形状パラメータ判定部
406 開眼度算出部
407 下方視判定部
408 処理部
410 三次元顔モデル
Claims (7)
- 被験者の三次元顔形状と、被験者の目の位置と、前記目の形状の変化の状態と形状パラメータとが対応付けられた変化情報とが登録された三次元顔モデルを記憶する記憶部と、
撮像装置で撮像された運転者の撮像画像を、前記三次元顔形状と照合して、前記目の位置を特定する照合部と、
前記形状パラメータを変化させて、前記撮像画像における前記目の状態に対応する形状パラメータを特定する形状パラメータ判定部と、
前記撮像画像における前記目の開眼の状態を示す開眼度を算出する開眼度算出部と、
前記開眼度と、特定された前記形状パラメータとに基づいて、前記運転者の顔および目の状態を判定する判定部と、
を備えた判定装置。 - 前記判定部は、前記開眼度と、特定された前記形状パラメータとに基づいて、前記運転者が下方視の状態であるか否かを判定する、
請求項1に記載の判定装置。 - 前記三次元顔モデルにおける前記目の形状の変化の状態は、前記目の標準の状態から前記被験者の下方視の状態までの変化を示し、
前記判定部は、前記開眼度が閉眼を示す範囲内である場合に、特定された前記形状パラメータが下方視を示す範囲内にあるか否かを判定し、前記形状パラメータが下方視を示す範囲内である場合に、前記運転者は下方視状態であると判定する、
請求項2に記載の判定装置。 - 前記判定部は、前記開眼度が閉眼を示す範囲内である場合であって、特定された前記形状パラメータが下方視を示す範囲外である場合には、前記運転者は閉眼状態であると判定する、
請求項3に記載の判定装置。 - 前記運転者が閉眼状態であると判定された場合、および前記運転者が下方視状態であると判定された場合には、前記運転者に警告を促す動作を行う処理部、
をさらに備えた請求項3または4に記載の判定装置。 - 前記被験者の撮像画像に基づいて、前記三次元顔形状と前記目の位置とを含む三次元顔構造データと、前記目の形状の変化の状態と前記形状パラメータとが対応付けられた前記変化情報と、を求める計測部と、
計測された前記三次元顔構造データと前記変化情報とを、前記三次元顔モデルとして前記記憶部に登録するモデル生成部と、
をさらに備えた請求項1〜5のいずれか一つに記載の判定装置。 - 判定装置で実行される判定方法であって、
前記判定装置は、被験者の三次元顔形状と、被験者の目の位置と、前記目の形状の変化の状態と形状パラメータとが対応付けられた変化情報とが登録された三次元顔モデルを記憶する記憶部、を備え、
撮像装置で撮像された運転者の撮像画像を、前記三次元顔形状と照合して、顔の向きを特定し、特定された前記顔の向きにおける前記目の位置を特定する照合部と、
前記形状パラメータを変化させて、前記撮像画像における前記目の状態に対応する形状パラメータを特定し、
前記撮像画像における前記目の開眼の状態を示す開眼度を算出し、
前記開眼度と、特定された前記形状パラメータとに基づいて、前記運転者の顔および目の状態を判定する、
ことを含む判定方法。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014252940A JP2016115117A (ja) | 2014-12-15 | 2014-12-15 | 判定装置および判定方法 |
| CN201510919928.4A CN105701445A (zh) | 2014-12-15 | 2015-12-11 | 判定装置及判定方法 |
| US14/968,001 US20160171321A1 (en) | 2014-12-15 | 2015-12-14 | Determination apparatus and determination method |
| EP15199835.8A EP3033999B1 (en) | 2014-12-15 | 2015-12-14 | Apparatus and method for determining the state of a driver |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014252940A JP2016115117A (ja) | 2014-12-15 | 2014-12-15 | 判定装置および判定方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016115117A true JP2016115117A (ja) | 2016-06-23 |
Family
ID=56141923
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014252940A Pending JP2016115117A (ja) | 2014-12-15 | 2014-12-15 | 判定装置および判定方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016115117A (ja) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018526045A (ja) * | 2015-06-22 | 2018-09-13 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 目開幅を利用してまばたき事象と計器視線とを区別する方法および装置 |
| JP2019087170A (ja) * | 2017-11-10 | 2019-06-06 | アルパイン株式会社 | 瞼開閉判定装置および眠気検知装置 |
| JP2020035137A (ja) * | 2018-08-29 | 2020-03-05 | カシオ計算機株式会社 | 開閉状態判定装置、方法、プログラム、音声認識装置、及びロボット |
| JP2021026748A (ja) * | 2019-08-01 | 2021-02-22 | 肇▲慶▼学院 | マシンビジョンに基づく過労運転検出警告システム及び方法 |
| CN112740300A (zh) * | 2018-09-20 | 2021-04-30 | 五十铃自动车株式会社 | 车辆用监视装置 |
| CN112740302A (zh) * | 2018-09-20 | 2021-04-30 | 五十铃自动车株式会社 | 车辆用监视装置 |
| CN112740301A (zh) * | 2018-09-20 | 2021-04-30 | 五十铃自动车株式会社 | 车辆用监视装置 |
| CN115590482A (zh) * | 2022-07-20 | 2023-01-13 | 重庆长安汽车股份有限公司(Cn) | 一种驾驶员异常行为预测方法、装置、设备及存储介质 |
| WO2024195072A1 (ja) * | 2023-03-23 | 2024-09-26 | 三菱電機株式会社 | 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及び乗員状態判定プログラム |
| WO2026014240A1 (ja) * | 2024-07-08 | 2026-01-15 | ミネベアミツミ株式会社 | 情報処理方法、プログラム、及び情報処理装置 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008171065A (ja) * | 2007-01-09 | 2008-07-24 | Denso Corp | 眠気検知装置 |
| JP2008257575A (ja) * | 2007-04-06 | 2008-10-23 | Fujitsu Ltd | 入眠状態検知方法、入眠状態検知装置、入眠状態検知システム及びコンピュータプログラム |
| JP2010142345A (ja) * | 2008-12-17 | 2010-07-01 | Aisin Seiki Co Ltd | 眼開閉判別装置及びプログラム |
| JP2010250419A (ja) * | 2009-04-13 | 2010-11-04 | Seiko Epson Corp | 目の様態を検出する画像処理装置 |
| JP2011128966A (ja) * | 2009-12-18 | 2011-06-30 | Denso Corp | 顔特徴点検出装置および眠気検出装置 |
-
2014
- 2014-12-15 JP JP2014252940A patent/JP2016115117A/ja active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008171065A (ja) * | 2007-01-09 | 2008-07-24 | Denso Corp | 眠気検知装置 |
| JP2008257575A (ja) * | 2007-04-06 | 2008-10-23 | Fujitsu Ltd | 入眠状態検知方法、入眠状態検知装置、入眠状態検知システム及びコンピュータプログラム |
| JP2010142345A (ja) * | 2008-12-17 | 2010-07-01 | Aisin Seiki Co Ltd | 眼開閉判別装置及びプログラム |
| JP2010250419A (ja) * | 2009-04-13 | 2010-11-04 | Seiko Epson Corp | 目の様態を検出する画像処理装置 |
| JP2011128966A (ja) * | 2009-12-18 | 2011-06-30 | Denso Corp | 顔特徴点検出装置および眠気検出装置 |
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018526045A (ja) * | 2015-06-22 | 2018-09-13 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 目開幅を利用してまばたき事象と計器視線とを区別する方法および装置 |
| JP2019087170A (ja) * | 2017-11-10 | 2019-06-06 | アルパイン株式会社 | 瞼開閉判定装置および眠気検知装置 |
| JP7196467B2 (ja) | 2018-08-29 | 2022-12-27 | カシオ計算機株式会社 | 開閉状態判定装置、開閉状態判定方法及びプログラム |
| JP2020035137A (ja) * | 2018-08-29 | 2020-03-05 | カシオ計算機株式会社 | 開閉状態判定装置、方法、プログラム、音声認識装置、及びロボット |
| CN112740300A (zh) * | 2018-09-20 | 2021-04-30 | 五十铃自动车株式会社 | 车辆用监视装置 |
| CN112740302A (zh) * | 2018-09-20 | 2021-04-30 | 五十铃自动车株式会社 | 车辆用监视装置 |
| CN112740301A (zh) * | 2018-09-20 | 2021-04-30 | 五十铃自动车株式会社 | 车辆用监视装置 |
| US11403858B2 (en) | 2018-09-20 | 2022-08-02 | Isuzu Motors Limited | Vehicular monitoring device |
| JP2021026748A (ja) * | 2019-08-01 | 2021-02-22 | 肇▲慶▼学院 | マシンビジョンに基づく過労運転検出警告システム及び方法 |
| CN115590482A (zh) * | 2022-07-20 | 2023-01-13 | 重庆长安汽车股份有限公司(Cn) | 一种驾驶员异常行为预测方法、装置、设备及存储介质 |
| WO2024195072A1 (ja) * | 2023-03-23 | 2024-09-26 | 三菱電機株式会社 | 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及び乗員状態判定プログラム |
| JPWO2024195072A1 (ja) * | 2023-03-23 | 2024-09-26 | ||
| JP7696527B2 (ja) | 2023-03-23 | 2025-06-20 | 三菱電機モビリティ株式会社 | 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及び乗員状態判定プログラム |
| WO2026014240A1 (ja) * | 2024-07-08 | 2026-01-15 | ミネベアミツミ株式会社 | 情報処理方法、プログラム、及び情報処理装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3033999B1 (en) | Apparatus and method for determining the state of a driver | |
| JP2016115117A (ja) | 判定装置および判定方法 | |
| JP6572538B2 (ja) | 下方視判定装置および下方視判定方法 | |
| CN110765807B (zh) | 驾驶行为分析、处理方法、装置、设备和存储介质 | |
| CN107665330B (zh) | 在车辆中检测头部姿势的系统、方法和计算机可读介质 | |
| US9928404B2 (en) | Determination device, determination method, and non-transitory storage medium | |
| CN112590794A (zh) | 确定车辆驾驶员接管车辆控制的能力估计值的方法和装置 | |
| US9202106B2 (en) | Eyelid detection device | |
| JP2016115120A (ja) | 開閉眼判定装置および開閉眼判定方法 | |
| JP6479272B1 (ja) | 視線方向較正装置、視線方向較正方法および視線方向較正プログラム | |
| US9606623B2 (en) | Gaze detecting apparatus and method | |
| JP7290930B2 (ja) | 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム | |
| CN113906442A (zh) | 活动识别方法和设备 | |
| JPWO2019163124A1 (ja) | 三次元位置推定装置及び三次元位置推定方法 | |
| JP6459856B2 (ja) | 車両運転支援装置、車両運転支援方法、およびプログラム | |
| JP6759743B2 (ja) | 視認方向推定装置 | |
| JP2019175210A (ja) | 口形状検出装置 | |
| KR102486161B1 (ko) | 차량, 차량의 제어 방법 및 영상 탐색 장치 | |
| JP2016115119A (ja) | 開閉眼判定装置、及び開閉眼判定方法 | |
| JP7483160B2 (ja) | 乗員監視装置及び乗員監視方法 | |
| JP2023097182A (ja) | ドライバ挙動判定装置、ドライバ挙動判定方法及びドライバ挙動判定用コンピュータプログラム | |
| US20230123623A1 (en) | Gesture detecting apparatus and gesture detecting method | |
| KR20230071593A (ko) | 인공 지능을 이용하여 운전자의 주시 상태를 판단하는 차량 장치 및 그 제어 방법 | |
| US20240246542A1 (en) | Driver state detection device | |
| US20230326069A1 (en) | Method and apparatus for determining a gaze direction of a user |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171110 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181019 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181030 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190709 |