[go: up one dir, main page]

JP7518021B2 - 較正装置及び較正方法 - Google Patents

較正装置及び較正方法 Download PDF

Info

Publication number
JP7518021B2
JP7518021B2 JP2021036643A JP2021036643A JP7518021B2 JP 7518021 B2 JP7518021 B2 JP 7518021B2 JP 2021036643 A JP2021036643 A JP 2021036643A JP 2021036643 A JP2021036643 A JP 2021036643A JP 7518021 B2 JP7518021 B2 JP 7518021B2
Authority
JP
Japan
Prior art keywords
calibration
user
face
positions
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021036643A
Other languages
English (en)
Other versions
JP2022136843A (ja
Inventor
裕司 安井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021036643A priority Critical patent/JP7518021B2/ja
Priority to US17/684,025 priority patent/US11881035B2/en
Priority to CN202210198617.3A priority patent/CN115050089B/zh
Publication of JP2022136843A publication Critical patent/JP2022136843A/ja
Application granted granted Critical
Publication of JP7518021B2 publication Critical patent/JP7518021B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Position Input By Displaying (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Description

本発明は、較正装置及び較正方法に関する。
車両の乗員に対して適切なサービスを提供したり、乗員の動作を記録したりするために、乗員の視線を検出するための視線検出装置が車両に搭載されることがある。視線検出装置は、人の顔の画像に基づいてその人の視線を検出する。視線検出の精度を向上するための方法として、特許文献1には、視線の検出結果を較正(キャリブレーション)する技術が記載されている。
特開2017-129898号公報
車両の乗員(特に運転者)は、車両の速度に応じて、異なる特性で視線を動かす。そのため、視線検出処理の較正もそれぞれの特性に従って行うことになる。また、乗員がサングラスを着用している場合など、乗員の瞳を検出できない場合もある。較正を適切に行うことが視線検出の精度の向上につながる。本発明の一部の側面は、視線検出の精度を向上するための技術を提供することを目的とする。
上記課題に鑑みて、ユーザの視線検出処理を較正する較正装置であって、前記ユーザの瞳を検出可能かどうかを判定する判定手段と、複数の位置のそれぞれを見るように前記ユーザに指示する指示手段と、前記複数の位置のそれぞれについて、各位置を見ている前記ユーザの顔の画像を取得する取得手段と、前記ユーザの顔の画像に基づいて、視線検出処理を較正する較正手段と、を備え、前記較正装置は、前記指示手段が、前記複数の位置のそれぞれを、顔を動かして見るように指示し、前記較正手段が、当該指示に応じて個別の位置を見ている前記ユーザの顔の画像に基づいて前記視線検出処理を較正する第1較正処理と、前記指示手段が、前記複数の位置のそれぞれを、顔を動かさずに見るように指示し、前記較正手段が、当該指示に応じて個別の位置を見ている前記ユーザの顔の画像に基づいて前記視線検出処理を較正する第2較正処理と、を実行可能であり、前記較正装置は、前記判定手段によって前記ユーザの瞳を検出可能であると判定された場合に、前記第1較正処理と前記第2較正処理との両方を実行し、前記判定手段によって前記ユーザの瞳を検出可能でないと判定された場合に、前記第1較正処理を実行し、前記第2較正処理を実行しない、較正装置が提供される。
上記手段により、視線検出の精度が向上する。
本開示の一部の実施形態の車両の構成例を説明する模式図。 本開示の一部の実施形態のドライブレコーダの構成例を説明するブロック図。 本開示の一部の実施形態の車室内の画像例を説明する図。 本開示の一部の実施形態のドライブレコーダの動作例を説明するフロー図。 本開示の一部の実施形態のドライブレコーダの動作例を説明するフロー図。 本開示の一部の実施形態の運転者の視線の動きを説明する模式図。 本開示の一部の実施形態のドライブレコーダの動作例を説明するフロー図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
本発明の一部の実施形態は、車両のユーザの視線を検出するための視線検出装置に関する。視線検出装置は、ユーザの顔の画像に基づいて視線検出処理を較正する較正装置としても機能する。以下の説明では、ユーザが車両の乗員である実施形態について説明する。すなわち、視線検出及び構成は、車内において行われる。しかし、以下の実施形態は、他の環境における視線検出及び構成にも適用可能である。車両は、典型的には四輪車である。しかし、以下の実施形態は、他のタイプの車両に適用されてもよい。車両の乗員は、典型的には車両の運転者である。しかし、以下の実施形態は、運転者以外の乗員、例えば助手席に乗車している乗員に適用されてもよい。以下の説明では、車両の乗員として運転者の視線検出を行う場合について説明する。
図1を参照して、視線検出装置の取り付け位置の例について説明する。車両100に、ドライブレコーダ101が取り付けられている。図1の例で、ドライブレコーダ101は、車両100のルームミラーに取り付けられている。ドライブレコーダ101の取り付け位置はこれに限られず、車両100の乗員の顔を撮影可能な任意の位置であってもよい。ドライブレコーダ101が視線検出装置として機能する。
ドライブレコーダ101は、単体として動作可能であってもよいし、車両100の制御装置(例えば、制御ECU(Electronic Control Unit)102)と連携して動作可能であってもよい。ドライブレコーダ101が単体として動作可能である場合に、ドライブレコーダ101は車両100から電力の供給を受けてもよい。
図2を参照して、ドライブレコーダ101の構成例について説明する。ドライブレコーダ101は、プロセッサ201と、記憶装置202と、前方用カメラ203と、車内用カメラ204と、入力装置205と、出力装置206と、通信装置207とを備える。
プロセッサ201は、ドライブレコーダ101全体の動作を制御する。プロセッサ201は、例えばCPU(Central Processing Unit)によって実現されてもよい。記憶装置202は、ドライブレコーダ101の動作に関連するデータを記憶する。例えば、記憶装置202は、ドライブレコーダ101の動作を規定したプログラム、このプログラムの実行時の一時データ、前方用カメラ203及び車内用カメラ204で撮影された画像、運転者の視線検出の結果などを記憶してもよい。記憶装置202は、RAM(Random Access Memory)やROM(Read Only Memory)などのメモリによって実現されてもよい。さらに、記憶装置202は、SSD(Solid State Drive)などの補助記憶装置を含んでもよい。
前方用カメラ203は、車両100の前方の風景を撮影するためのカメラである。前方用カメラ203は、例えば広角カメラであってもよい。前方用カメラ203は、ドライブレコーダ101の前側(車両100前方側)に位置する。車内用カメラ204は、車両100の車室内の風景を撮影するためのカメラである。車内用カメラ204は、例えば魚眼カメラであってもよい。車内用カメラ204は、ドライブレコーダ101の後側(車両100後方側)に位置する。
入力装置205は、車両100の乗員からの指示を入力するための装置である。入力装置205は、例えばボタンやタッチパネルなどで実現される。出力装置206は、車両100の乗員に向けて情報を出力するための装置である。出力装置206は、視覚情報を提供する表示装置(例えば、液晶ディスプレイやインジケータ)であってもよいし、聴覚情報を提供する音響装置(例えば、スピーカ)であってもよいし、これらの両方を含んでもよい。ドライブレコーダ101が出力装置206を有する代わりに、又はこれに加えて、ドライブレコーダ101は、車両100に対して情報の出力を指示してもよい。指示を受けた車両100は、自身の出力装置(不図示)から乗員に向けて情報を出力する。
通信装置207は、ドライブレコーダ101が他の装置(例えば、制御ECU102)と通信するための装置である。通信装置207は、他の装置と有線で通信してもよいし、他の装置と無線で通信してもよい。無線通信は、短距離通信(例えば、Bluetooth(登録商標))などのプロトコルに準拠した通信であってもよい。通信装置207は省略可能であってもよい。
図3(A)は、ドライブレコーダ101の車内用カメラ204で撮影された画像300の一例を示す。画像300には、車両100の車室内が写っており、具体的に、運転者301が写っている。この実施例では車両100が右ハンドルであるため、運転者301は画像300の左側に位置する。車両100が左ハンドルであるならばその逆となる。図3(B)は、ドライブレコーダ101の車内用カメラ204で撮影された画像310の別の例を示す。画像310は、運転者301がサングラス311を着用している点で画像300とは異なる。
続いて、ドライブレコーダ101が実行する視線検出処理について説明する。視線検出処理とは、運転者の視線(どこを見ているか)を検出する処理のことである。視線検出処理は、車内用カメラ204によって撮影された運転者の顔の画像を解析することによって行われる。
一般的に、車両の運転者は、車両が停止中であれば、顔を動かして対象物に視線を向け、車両が走行中であれば、顔をなるべく動かさずに(顔を正面に向けたまま)瞳だけを動かして対象物に視線を向ける傾向がある。そこで、ドライブレコーダ101は、車両100の速度を考慮に入れて視線検出処理を行う。例えば、ドライブレコーダ101は、車両100の速度がゼロの場合に、顔の方向を優先して視線検出処理を行う。このように、顔の方向を優先する視線検出処理を、以下では顔優先処理と呼ぶ。ドライブレコーダ101は、車両100の速度が非ゼロの場合に、瞳の方向を優先して視線検出処理を行う。このように、瞳の方向を優先する視線検出処理を、以下では瞳優先処理と呼ぶ。瞳とは、虹彩のことであってもよいし、瞳孔のことであってもよいし、虹彩と瞳孔とを合わせたものであってもよい。
ドライブレコーダ101は、顔優先処理及び瞳優先処理を既存の手法と同様の手法で行ってもよい。例えば、ドライブレコーダ101は、これらの処理を以下のように実行してもよい。一部の実施形態において、顔優先処理を実行するために、ドライブレコーダ101は、画像に含まれる運転者の顔の輪郭における各パーツ(目、鼻、口など)の位置に基づいて運転者の視線を検出する。顔優先処理では、瞳の位置を考慮しなくてもよいし、瞳の位置に基づく視線に低い重みを割り当ててもよい。瞳優先処理を実行するために、ドライブレコーダ101は、画像に含まれる運転者の目における瞳の位置に基づいて運転者の視線を検出する。瞳優先処理では、顔の方向を考慮しなくてもよいし、顔の方向に基づく視線に低い重みを割り当ててもよい。
別の実施形態において、ドライブレコーダ101は、機械学習によって得られたモデルに基づいて顔優先処理及び瞳優先処理を行ってもよい。例えば、ドライブレコーダ101の記憶装置202に、運転者が顔を動かして対象物に視線を向けたことによって得られた運転者の画像を教師データとして学習したモデル(以下、顔優先モデルと呼ぶ)と、運転者が顔をできるだけ動かさずに瞳のみを動かして対象物に視線を向けたことによって得られた運転者の画像を教師データとして学習したモデル(以下、瞳優先モデルと呼ぶ)と、の2つのモデルのDNN(Deep Neural Network)モデルが記憶されていてもよい。顔優先処理を実行するために、ドライブレコーダ101は、取得された運転者の画像を顔優先モデルに適用することによって運転者の視線を検出する。瞳優先処理を実行するために、ドライブレコーダ101は、取得された運転者の画像を瞳優先モデルに適用することによって運転者の視線を検出する。
ドライブレコーダ101は、車両100の速度に基づいて、顔優先処理と瞳優先処理とを択一的に選択してもよい。例えば、ドライブレコーダ101は、車両100の速度がゼロの場合に顔優先処理を実行し、車両100の速度が非ゼロの場合に瞳優先処理を実行してもよい。これにかえて、ドライブレコーダ101は、車両100の速度の関数として得られる重みを使用して顔優先処理の結果と瞳優先処理の結果とに重みづけを行うことによって、視線を検出してもよい。ドライブレコーダ101は、車両100の速度を前方用カメラ203又は車内用カメラ204による画像に基づいて決定してもよいし、車両100から取得してもよい。
ドライブレコーダ101は、視線検出の精度を向上するために、視線検出処理の較正(キャリブレーション)を行う。較正とは、ドライブレコーダ101によって認識される視線と、実際の視線との誤差を軽減するために、視線検出処理のパラメータを調整する処理のことである。具体的に、ドライブレコーダ101は、運転者に特定の較正位置(例えば、正面やフロントウィンドウの隅)を見るように指示し、較正位置と、較正位置を見ている運転者の顔の画像とを対応付ける。較正位置とは、較正を行うために運転者に対して見ることを指示する位置のことである。ドライブレコーダ101は、顔優先処理と瞳優先処理とのそれぞれについて個別に較正を行う。顔優先処理と瞳優先処理とは、どちらが先に実行されてもよい。
図4を参照して、顔優先処理の較正方法について説明する。図4の動作は、ドライブレコーダ101のプロセッサ201が記憶装置202(具体的にはメモリ)に読み出されたプログラムを実行することによって行われてもよい。これにかえて、図4の動作の一部又は全部は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)のような専用回路によって実行されてもよい。図4の動作は、運転者から較正開始の指示を受けたことに応じて開始されてもよい。較正は、安全確保のために、車両が停止中に行われる。
ステップS401で、プロセッサ201は、運転中の姿勢を取ることを運転者に指示する。この指示は、例えば出力装置206(例えば、スピーカー)によって乗員に出力される。以下、運転者への指示は同様に出力されてもよい。運転中の姿勢とは、例えば運転中と同様にシートに座り、ハンドルを把持した姿勢である。このような姿勢を運転者に取らせるための指示として、プロセッサ201は、例えば「ハンドルを両手で握って、運転姿勢をとってください。」のような通知を運転者へ向けて行ってもよい。この通知は、音声で行われてもよいし、ディスプレイ上への表示によって行われてもよい。
ステップS402で、プロセッサ201は、事前に設定された複数の較正位置のうち、未処理の1つを選択する。例えば、事前に設定された複数の較正位置は、運転者の正面と、フロントウィンドウの四隅とを含む。複数の較正位置は、これらの一部を含まなくてもよいし、他の位置を含んでもよい。この複数の較正位置の設定は、記憶装置202に事前に記憶されている。未処理の較正位置とは、後述するステップS403及びS404の処理が行われていない較正位置のことである。
ステップS403で、プロセッサ201は、選択された1つの較正位置(例えば、フロントウィンドウの右上)を、顔を動かして見るように運転者に指示する。その後、プロセッサ201は、運転者が視線の移動に要すると考えられる所定の時間待機する。これにかえて、プロセッサ201は、車内用カメラ204からの画像に基づいて、運転者の顔の方向が移動を開始し、その後停止したことを判定してもよい。顔を動かして較正位置を見ることの指示は、例えば「顔を動かしてフロントウィンドウの右上を見てください。」のように、顔を動かすことの指示を明示的に含んでもよい。これにかえて、顔を動かして較正位置を見ることの指示は、例えば「フロントウィンドウの右上を自然に見てください。」のように、顔を動かすことの指示を暗黙的に含んでもよい。このステップの実行時に車両は停止中である。そのため、運転者は、自然に見ることを指示されれば、顔を動かして較正位置を見ると考えられる。
ステップS404で、プロセッサ201は、車内用カメラ204によって撮影された運転者の画像を取得する。この画像は、指示された較正位置を見ている運転者の顔を含む。その後、プロセッサ201は、取得した画像を、選択中の較正位置に関連付けて記憶装置202に記憶する。
ステップS405で、プロセッサ201は、事前に設定されている複数の較正位置に未処理の較正位置が残っているかどうかを判定する。プロセッサ201は、未処理の較正位置が残っている場合(ステップS405で「YES」)に、処理をステップS402に戻し、ステップS402~S405を繰り返す。プロセッサ201は、未処理の較正位置が残っていない場合(ステップS405で「NO」)に、処理をステップS406に遷移する。
ステップS406で、プロセッサ201は、複数の較正位置に関連して記憶装置202に記憶されている運転者の顔の画像に基づいて、顔優先処理を較正する。例えば、プロセッサ201は、画像間の顔の向きの移動量(移動角度)と、較正位置間の距離とに基づいて、顔の向きの移動量に対する視線の移動距離の比率を調整してもよい。顔優先処理を機械学習で行う場合に、プロセッサ201は、例えば以下のように較正を行う。まず、DNNのモデルとして、DNNの出力を補正できる入力パラメータを有するモデルを選択する。プロセッサ201は、較正時に、DNNの出力と、実際の較正位置との誤差が最小となるように、このパラメータを調整する。較正位置間の距離は車種によって異なりうるため、記憶装置202に事前に記憶されていてもよい。
図5を参照して、瞳優先処理の較正方法について説明する。図5の動作は、ドライブレコーダ101のプロセッサ201が記憶装置202(具体的にはメモリ)に読み出されたプログラムを実行することによって行われてもよい。これにかえて、図5の動作の一部又は全部は、ASICやFPGAのような専用回路によって実行されてもよい。図5の動作は、運転者から較正開始の指示を受けたことに応じて開始されてもよい。較正は、安全確保のために、車両が停止中に行われる。
ステップS501で、プロセッサ201は、運転中の姿勢を取ることを運転者に指示する。ステップS501は、ステップS401と同様であってもよい。
ステップS502で、プロセッサ201は、事前に設定された複数の較正位置のうち、未処理の1つを選択する。ステップS502は、ステップS402と同様であってもよい。瞳優先処理の較正における複数の較正位置と、顔優先処理の較正における複数の較正位置とは、同じであってもよいし、異なっていてもよい。
ステップS503で、プロセッサ201は、選択された1つの較正位置(例えば、フロントウィンドウの右上)を、顔を動かさずに見るように運転者に指示する。その後、プロセッサ201は、運転者が視線の移動に要すると考えられる所定の時間待機する。これにかえて、プロセッサ201は、車内用カメラ204からの画像に基づいて、運転者の瞳の位置が移動を開始し、その後停止したことを判定してもよい。顔を動かさずに較正位置を見ることの指示は、例えば「顔を動かさずにフロントウィンドウの右上を見てください。」のように、顔を動かさないことの指示を明示的に含んでもよい。これにかえて、顔を動かさずに較正位置を見ることの指示は、例えば「フロントウィンドウの右上を眼だけで見てください。」のように、顔を動かさないことの指示を暗黙的に含んでもよい。
ステップS504で、プロセッサ201は、車内用カメラ204によって撮影された運転者の画像を取得する。この画像は、較正位置を見ている運転者の顔(特に、瞳)を含む。その後、プロセッサ201は、取得した画像を、選択中の較正位置に関連付けて記憶装置202に記憶する。
ステップS505で、プロセッサ201は、事前に設定されている複数の較正位置に未処理の較正位置が残っているかどうかを判定する。プロセッサ201は、未処理の較正位置が残っている場合(ステップS505で「YES」)に、処理をステップS502に戻し、ステップS502~S505を繰り返す。プロセッサ201は、未処理の較正位置が残っていない場合(ステップS505で「NO」)に、処理をステップS506に遷移する。
ステップS506で、プロセッサ201は、複数の較正位置に関連して記憶装置202に記憶されている運転者の顔の画像に基づいて、瞳優先処理を較正する。例えば、プロセッサ201は、画像間の瞳の移動量(移動角度)と、較正位置間の距離とに基づいて、瞳の移動量に対する視線の移動距離の比率を調整してもよい。瞳優先処理を機械学習で行う場合に、プロセッサ201は、上述の顔優先処理の較正と同様に瞳優先処理の較正を行ってもよい。
図6を参照して、較正位置について説明する。視界600は、運転者の視界を示す。視界600は、フロントウィンドウ601やハンドルなどのような、車両100の車室前方の部品を含む。図6の例において、複数の較正位置は、運転者の正面にある位置602と、フロントウィンドウ601の四隅にある位置603~606を含む。位置603~606はいずれも運転者の正面にない。複数の較正位置を選択する順番は任意でよい。以下では、位置602~606の順に、ステップ502で較正位置が選択されるとする。この例では、運転者の正面にある位置602が最初に選択されるが、位置602は途中で選択されてもよい。
図5の瞳優先処理の較正方法では、瞳の位置に基づいて視線検出処理が較正される。しかし、図3(B)のように、運転者がサングラス311を着用していると、ドライブレコーダ101は、運転者の瞳を検出できない。このような場合に図5の瞳優先処理の較正方法を実行したとしても、適切に較正を行うことができない。そこで、一部の実施形態において、ドライブレコーダ101は、運転者の瞳を検出可能であると判定された場合に、顔優先処理のための較正処理と、瞳優先処理のための較正処理との両方を実行する。一方、ドライブレコーダ101は、運転者の瞳を検出可能でないと判定された場合に、顔優先処理のための較正処理を実行し、瞳優先処理のための較正処理を実行しない。上述のように、顔優先処理のための較正処理は、図4で説明したように、プロセッサ201が、複数の較正位置のそれぞれを、顔を動かして見るように指示し、当該指示に応じて個別の位置を見ている運転者の顔の画像に基づいて視線検出処理を較正することを含む。瞳優先処理のための較正処理は、図5で説明したように、プロセッサ201が、複数の較正位置のそれぞれを、顔を動かさずに見るように指示し、当該指示に応じて個別の位置を見ている運転者の顔の画像に基づいて視線検出処理を較正することを含む。
図7を参照して、どのような視線検出処理のための較正処理を実行するかの動作について説明する。図7の動作は、ドライブレコーダ101のプロセッサ201が記憶装置202(具体的にはメモリ)に読み出されたプログラムを実行することによって行われてもよい。これにかえて、図5の動作の一部又は全部は、ASICやFPGAのような専用回路によって実行されてもよい。図7の動作は、運転者から較正開始の指示を受けたことに応じて開始されてもよい。
ステップS701で、プロセッサ201は、図4で説明した顔優先処理のための較正処理を実行する。ステップS702で、プロセッサ201は、運転者の瞳を検出可能かどうかを判定する。プロセッサ201は、運転者の瞳を検出可能である場合(ステップS702で「YES」)に、処理をステップS703に遷移し、図5で説明した瞳優先処理のための較正処理を実行する。プロセッサ201は、運転者の瞳を検出可能でない場合(ステップS702で「NO」)に、処理を終了する。
ステップS702において、プロセッサ201は、例えば車内用カメラ204によって撮影された運転者の顔の画像を解析することによって、運転者の瞳を検出可能かどうかを判定してもよい。例えば、プロセッサ201は、運転者がサングラスを着用している場合や、運転者が目深に帽子をかぶっている場合、運転者が眼鏡を着用しており、レンズに光が反射している場合などに、運転者の瞳を検出可能でないと判定してもよい。これにかえて、プロセッサ201は、運転者からの事前の入力(例えば、ドライブレコーダ101からの「瞳を検出可能な状態ですか?」という問い合わせに対する応答)に基づいて、運転者の瞳を検出可能かどうかを判定してもよい。
図7に示されるように、プロセッサ201は、運転者の瞳を検出可能かどうかに関わらず、顔優先処理のための較正処理を実行する。一方、プロセッサ201は、運転者の瞳を検出可能な場合にのみ、瞳優先処理のための較正処理を実行し、それ以外の場合に、瞳優先処理のための較正処理を実行しない。これによって、較正の精度を下げるような状況で瞳優先処理のための較正処理が行われることが回避される。
上述の実施形態では、顔優先モデルを、運転者が顔を動かして対象物に視線を向けたことによって得られた運転者の画像を教師データとして学習したモデルとした。これにかえて又はこれに加えて、顔優先モデルは、較正時に顔を動かしながら適合したモデルであってもよい。また、上述の実施形態では、瞳優先モデルを、運転者が顔をできるだけ動かさずに瞳のみを動かして対象物に視線を向けたことによって得られた運転者の画像を教師データとして学習したモデルとした。これにかえて又はこれに加えて、瞳優先モデルは、較正時に顔を動かさずに瞳を動かしながら適合したモデルであってもよい。
上記の実施形態では、ドライブレコーダ101が視線検出装置として機能した。これにかえて、車両100に内蔵されている制御ECU102が視線検出装置として機能してもよい。この場合に、制御ECU102は、図4及び図5で説明されたドライブレコーダ101の動作を実行する。制御ECU102は、ドライブレコーダ101の車内用カメラ204で撮影された運転者の画像を取得してもよいし、他の車内用カメラで撮影された運転者の画像を取得してもよい。後者の場合に、ドライブレコーダ101は省略可能である。
<実施形態のまとめ>
<項目1>
ユーザ(301)の視線検出処理を較正する較正装置(101)であって、
前記ユーザの瞳を検出可能かどうかを判定する判定手段(201)と、
複数の位置(602~606)のそれぞれを見るように前記ユーザに指示する指示手段(201)と、
前記複数の位置のそれぞれについて、各位置を見ている前記ユーザの顔の画像(300、310)を取得する取得手段(201)と、
前記ユーザの顔の画像に基づいて、視線検出処理を較正する較正手段(201)と、を備え、
前記較正装置は、
前記指示手段が、前記複数の位置のそれぞれを、顔を動かして見るように指示し、前記較正手段が、当該指示に応じて個別の位置を見ている前記ユーザの顔の画像に基づいて前記視線検出処理を較正する第1較正処理と、
前記指示手段が、前記複数の位置のそれぞれを、顔を動かさずに見るように指示し、前記較正手段が、当該指示に応じて個別の位置を見ている前記ユーザの顔の画像に基づいて前記視線検出処理を較正する第2較正処理と、を実行可能であり、
前記較正装置は、
前記判定手段によって前記ユーザの瞳を検出可能であると判定された場合に、前記第1較正処理と前記第2較正処理との両方を実行し、
前記判定手段によって前記ユーザの瞳を検出可能でないと判定された場合に、前記第1較正処理を実行し、前記第2較正処理を実行しない、較正装置。
この項目によれば、視線検出処理の較正を適切に行えるため、視線検出の精度が向上する。
<項目2>
前記判定手段は、前記ユーザがサングラス(311)を着用している場合に、前記ユーザの瞳を検出可能でないと判定する、項目1に記載の較正装置。
<項目3>
前記複数の位置は、前記ユーザが乗車している車両(100)のフロントウィンドウ(601)の隅を含む、項目1又は2に記載の較正装置。
この項目によれば、視線検出処理の較正を一層適切に行える。
<項目4>
前記指示手段は、前記複数の位置を見るように前記ユーザに指示する前に、前記ユーザにハンドルを把持するよう指示する、項目1乃至3の何れか1項に記載の較正装置。
この項目によれば、較正時にユーザが運転中の姿勢をとる可能性が高まる。
<項目5>
項目1乃至4の何れか1項に記載の較正装置として機能するドライブレコーダ(101)。
この項目によれば、外付け可能なドライブレコーダによって視線検出を行える。
<項目6>
項目1乃至4の何れか1項に記載の較正装置として機能する制御装置(102)を内蔵する車両(100)。
この項目によれば、車両によって視線検出を行える。
<項目7>
コンピュータを、項目1乃至4の何れか1項に記載の較正装置の各手段として機能させるためのプログラム。
この項目によれば、上述の較正装置を構成するプログラムが提供される。
<項目8>
較正装置(101)においてユーザ(301)の視線検出処理を較正する方法であって、
前記較正装置は、
複数の位置(602~606)のそれぞれを、顔を動かして見るように指示し、当該指示に応じて個別の位置を見ている前記ユーザの顔の画像(300、310)に基づいて視線検出処理を較正する第1較正処理と、
複数の位置のそれぞれを、顔を動かさずに見るように指示し、当該指示に応じて個別の位置を見ている前記ユーザの顔の画像に基づいて視線検出処理を較正する第2較正処理と、を実行可能であり、
前記方法は、
前記ユーザの瞳を検出可能かどうかを判定する判定工程と、
前記判定工程において前記ユーザの瞳を検出可能であると判定された場合に、前記第1較正処理と前記第2較正処理との両方を実行する第1実行工程と、
前記判定工程において前記ユーザの瞳を検出可能でないと判定された場合に、前記第1較正処理を実行し、前記第2較正処理を実行しない第2実行工程と、を有する、方法。
この項目によれば、視線検出処理の較正を適切に行えるため、視線検出の精度が向上する。
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
100 車両、101 ドライブレコーダ、311 サングラス、601 フロントウィンドウ

Claims (8)

  1. ユーザの視線検出処理を較正する較正装置であって、
    前記ユーザの瞳を検出可能かどうかを判定する判定手段と、
    複数の位置のそれぞれを見るように前記ユーザに指示する指示手段と、
    前記複数の位置のそれぞれについて、各位置を見ている前記ユーザの顔の画像を取得する取得手段と、
    前記ユーザの顔の画像に基づいて、視線検出処理を較正する較正手段と、を備え、
    前記較正装置は、
    前記指示手段が、前記複数の位置のそれぞれを、顔を動かして見るように指示し、前記較正手段が、当該指示に応じて個別の位置を見ている前記ユーザの顔の画像に基づいて前記視線検出処理を較正する第1較正処理と、
    前記指示手段が、前記複数の位置のそれぞれを、顔を動かさずに見るように指示し、前記較正手段が、当該指示に応じて個別の位置を見ている前記ユーザの顔の画像に基づいて前記視線検出処理を較正する第2較正処理と、を実行可能であり、
    前記較正装置は、
    前記判定手段によって前記ユーザの瞳を検出可能であると判定された場合に、前記第1較正処理と前記第2較正処理との両方を実行し、
    前記判定手段によって前記ユーザの瞳を検出可能でないと判定された場合に、前記第1較正処理を実行し、前記第2較正処理を実行しない、較正装置。
  2. 前記判定手段は、前記ユーザがサングラスを着用している場合に、前記ユーザの瞳を検出可能でないと判定する、請求項1に記載の較正装置。
  3. 前記複数の位置は、前記ユーザが乗車している車両のフロントウィンドウの隅を含む、請求項1又は2に記載の較正装置。
  4. 前記指示手段は、前記複数の位置を見るように前記ユーザに指示する前に、前記ユーザにハンドルを把持するよう指示する、請求項1乃至3の何れか1項に記載の較正装置。
  5. 請求項1乃至4の何れか1項に記載の較正装置として機能するドライブレコーダ。
  6. 請求項1乃至4の何れか1項に記載の較正装置として機能する制御装置を内蔵する車両。
  7. コンピュータを、請求項1乃至4の何れか1項に記載の較正装置の各手段として機能させるためのプログラム。
  8. 較正装置においてユーザの視線検出処理を較正する方法であって、
    前記較正装置は、
    複数の位置のそれぞれを、顔を動かして見るように指示し、当該指示に応じて個別の位置を見ている前記ユーザの顔の画像に基づいて視線検出処理を較正する第1較正処理と、
    複数の位置のそれぞれを、顔を動かさずに見るように指示し、当該指示に応じて個別の位置を見ている前記ユーザの顔の画像に基づいて視線検出処理を較正する第2較正処理と、を実行可能であり、
    前記方法は、
    前記ユーザの瞳を検出可能かどうかを判定する判定工程と、
    前記判定工程において前記ユーザの瞳を検出可能であると判定された場合に、前記第1較正処理と前記第2較正処理との両方を実行する第1実行工程と、
    前記判定工程において前記ユーザの瞳を検出可能でないと判定された場合に、前記第1較正処理を実行し、前記第2較正処理を実行しない第2実行工程と、を有する、方法。
JP2021036643A 2021-03-08 2021-03-08 較正装置及び較正方法 Active JP7518021B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021036643A JP7518021B2 (ja) 2021-03-08 2021-03-08 較正装置及び較正方法
US17/684,025 US11881035B2 (en) 2021-03-08 2022-03-01 Calibration device, calibration method, drive recorder, vehicle, and storage medium
CN202210198617.3A CN115050089B (zh) 2021-03-08 2022-03-02 校正装置、校正方法、行车记录仪、车辆以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021036643A JP7518021B2 (ja) 2021-03-08 2021-03-08 較正装置及び較正方法

Publications (2)

Publication Number Publication Date
JP2022136843A JP2022136843A (ja) 2022-09-21
JP7518021B2 true JP7518021B2 (ja) 2024-07-17

Family

ID=83116282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021036643A Active JP7518021B2 (ja) 2021-03-08 2021-03-08 較正装置及び較正方法

Country Status (3)

Country Link
US (1) US11881035B2 (ja)
JP (1) JP7518021B2 (ja)
CN (1) CN115050089B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7640291B2 (ja) * 2021-03-08 2025-03-05 本田技研工業株式会社 較正装置及び較正方法
WO2025164933A1 (ko) * 2024-01-31 2025-08-07 삼성전자주식회사 사용자의 시선 정보의 보정을 위한 웨어러블 장치, 방법, 및 컴퓨터 판독가능 저장 매체

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017126195A1 (ja) 2016-01-18 2017-07-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4811259B2 (ja) * 2006-12-11 2011-11-09 日産自動車株式会社 視線方向推定装置及び視線方向推定方法
JP4826506B2 (ja) * 2007-02-27 2011-11-30 日産自動車株式会社 視線推定装置
CN101677762B (zh) * 2008-02-28 2012-08-22 松下电器产业株式会社 视线检测装置以及视线检测方法
JP5645255B2 (ja) * 2010-11-11 2014-12-24 埼玉日本電気株式会社 画像処理装置および画像処理方法
JP5655674B2 (ja) * 2011-04-01 2015-01-21 ブラザー工業株式会社 ヘッドマウントディスプレイ及びこれに用いられるプログラム
US9405982B2 (en) * 2013-01-18 2016-08-02 GM Global Technology Operations LLC Driver gaze detection system
CN103839055B (zh) * 2014-03-19 2017-08-29 中国科学技术大学 一种驾驶员视线方向的检测方法
US9773179B2 (en) * 2015-01-30 2017-09-26 GM Global Technology Operations LLC Vehicle operator monitoring system and method
EP3267295B1 (en) * 2015-03-05 2021-12-29 Sony Group Corporation Information processing device, control method, and program
WO2018006019A1 (en) * 2016-07-01 2018-01-04 Itay Katz System and method for driver monitoring
JP6572841B2 (ja) * 2016-07-13 2019-09-11 株式会社デンソー 情報処理装置及びプログラム
JP7074432B2 (ja) * 2017-06-26 2022-05-24 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
TWI637288B (zh) * 2017-10-11 2018-10-01 緯創資通股份有限公司 用於眼球視線校正的影像處理方法及其系統
JP6881755B2 (ja) * 2017-11-29 2021-06-02 国立研究開発法人産業技術総合研究所 視線検出校正方法、システム、及びコンピュータプログラム
CN110858095A (zh) * 2018-08-23 2020-03-03 宏碁股份有限公司 可由头部操控的电子装置与其操作方法
JP7146585B2 (ja) * 2018-11-13 2022-10-04 本田技研工業株式会社 視線検出装置、プログラム、及び、視線検出方法
JP2020086907A (ja) * 2018-11-26 2020-06-04 トヨタ自動車株式会社 漫然運転判定装置
CN110458122B (zh) * 2019-08-15 2022-04-22 京东方科技集团股份有限公司 一种视线标校方法、显示装置的播放方法和视线标校系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017126195A1 (ja) 2016-01-18 2017-07-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2022136843A (ja) 2022-09-21
US20220284714A1 (en) 2022-09-08
CN115050089B (zh) 2024-06-18
CN115050089A (zh) 2022-09-13
US11881035B2 (en) 2024-01-23

Similar Documents

Publication Publication Date Title
US10455882B2 (en) Method and system for providing rear collision warning within a helmet
JP7518021B2 (ja) 較正装置及び較正方法
CN110997390B (zh) 用于运行机动车的显示装置的方法以及机动车
US11025836B2 (en) Driving assistance device, driving assistance method, and driving assistance program
JP2017024652A (ja) 車両用シート制御装置
JP6072470B2 (ja) 車載撮像システム
KR20200046613A (ko) 운전자 감시 카메라의 보정장치 및 그 방법
CN107010077B (zh) 用于将信息传输给机动车的驾驶员的方法和适应性的驾驶员协助系统
KR102605318B1 (ko) 머리에 착용될 수 있는 전자 디스플레이 장치를 작동하기 위한 방법, 및 가상 콘텐츠를 디스플레이하기 위한 디스플레이 시스템
US12114071B2 (en) Image processing apparatus, system, image processing method, and image processing program
JP2014201174A (ja) 車両制御システム
JP6890288B2 (ja) 画像処理装置、画像表示システムおよび画像処理方法
CN118695982A (zh) 车辆综合控制装置、车辆综合控制方法
KR20120048981A (ko) 운전자를 위한 다기능 신체착용 컴퓨터
US20130187845A1 (en) Adaptive interface system
JP2007259931A (ja) 視線検出装置
JP7640291B2 (ja) 較正装置及び較正方法
KR102524097B1 (ko) 안구 기반 개인화 헤드 마운티드 디스플레이 장치 및 그 제어 방법
EP3960575B1 (en) Travel controller and method for travel control
WO2019221025A1 (ja) ヘッドアップディスプレイ
WO2022097185A1 (ja) 眠気検知装置および眠気検知方法
JP2020052869A (ja) 識別装置、識別方法および識別プログラム
US20250349133A1 (en) Determining device
JP2019186754A (ja) 周辺監視装置
JP2025018164A (ja) 提案方法及び提案装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240704

R150 Certificate of patent or registration of utility model

Ref document number: 7518021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150