JP2002282210A - 視線検出方法及びその装置 - Google Patents
視線検出方法及びその装置Info
- Publication number
- JP2002282210A JP2002282210A JP2001089886A JP2001089886A JP2002282210A JP 2002282210 A JP2002282210 A JP 2002282210A JP 2001089886 A JP2001089886 A JP 2001089886A JP 2001089886 A JP2001089886 A JP 2001089886A JP 2002282210 A JP2002282210 A JP 2002282210A
- Authority
- JP
- Japan
- Prior art keywords
- pupil
- eye
- face
- gaze
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
室内空間でも好適に視線を検出することができる視線検
出方法及びその装置を提供する。 【解決手段】各カメラ用パソコン14は、推定した顔向
きの角度に基づいて、所定の角度範囲内の正面顔を捉え
ているか否かを判定し、その条件を満たす画像データの
目領域における瞳領域の大きさを正規化した後に、瞳中
心と瞳孔中心を算出し、両位置のズレ量を算出する。そ
の後、メインパソコン16が、演算結果である複数のズ
レ量を比較することで、そのズレ量が最も小さいビデオ
カメラに視線が向けられているという判断が行われる。
Description
その装置に関するものである。
をセンシングして得られる情報と、物体センシングによ
り構築された周辺環境とから、その人の要望を察知し、
その人の意図に適したサービスを提供することが提案さ
れている。これらを実現するためには、人間とその周辺
環境をセンシングし、その人が何を見て、どのような動
作を行っているかを知ることが重要なこととなる。この
とき、視線情報はその人が注目している物又は、その人
の意図や状況を推定するのに欠かせない情報の1つであ
る。
下のようなものが知られている。即ち、視線検出用光源
を有するゴーグル型の視線検出装置を検出対象者の頭部
に装着させ、前記光源から赤外光を眼部に照射する。そ
して、視線検出装置内に設けられた受光センサが眼部
(瞳孔と角膜)にて反射する反射光を受光し、その反射
光に基づいて視線を検出する。
ような視線検出方法では、頭部(眼部)にいちいちゴー
グル型の装置を装着しなくてはならず、非常に煩わしい
という問題があった。また、通常ゴーグル型の視線検出
装置は、検出した視線に基づいて所定の処理や制御を行
う制御用コンピュータ等に有線接続されているため、移
動範囲が規制され、広い室内空間等では使用できないと
いう問題があった。
れたものであり、その目的は、装置を検出対象者に装着
させることなく、広い室内空間でも好適に視線を検出す
ることができる視線検出方法及びその装置を提供するこ
とにある。
めに、請求項1に記載の発明は、所定ポイントから検出
対象者を撮像する撮像手段と、撮像手段が撮像した画像
データから、検出対象者の顔領域検出を行い、検出した
顔領域に基づいて顔向き推定を行う顔向き推定手段と、
顔向き推定手段が推定した顔向きが所定の角度範囲を含
む正面顔であるか否かを判定する判定手段と、判定手段
が正面顔であると判定した画像データにおける正面顔の
目領域を検出する目領域検出手段と、目領域検出手段が
検出した目領域において、同目領域内の第1所定部位と
第2所定部位との距離を計測する距離計測手段と、距離
計測手段が計測した距離に基づいて視線を推定する視線
推定手段とを備えたことを要旨とする。
て、前記目領域内における瞳中心を検出する瞳検出手段
を更に備え、前記第1所定部位は瞳中心であることを要
旨とする。
求項2において、前記目領域内における瞳孔中心を検出
する瞳孔検出手段を更に備え、前記第2所定部位は、瞳
孔中心であることを要旨とする。
求項2において、前記目領域における重心位置を検出す
る重心検出手段を更に備え、前記第2所定部位は目領域
の重心であることを要旨とする。
ら検出対象者を撮像する撮像行程と、撮像した画像デー
タから、検出対象者の顔領域検出を行い、検出した顔領
域に基づいて顔向き推定を行う顔向き推定行程と、推定
した顔向きが所定の角度範囲を含む正面顔であるか否か
を判定する判定行程と、正面顔であると判定した画像デ
ータにおける正面顔の目領域を検出する目領域検出行程
と、検出した目領域において、同目領域内の第1所定部
位と第2所定部位との距離を計測する距離計測行程と、
計測した距離に基づいて視線を推定する視線推定行程と
を備えたことを要旨とする。
て、前記目領域内における瞳中心を検出する瞳検出行程
を更に含み、前記第1所定部位は瞳中心であることを要
旨とする。
求項6において、前記目領域内における瞳孔中心を検出
する瞳孔検出行程を更に含み、前記第2所定部位は、瞳
孔中心であることを要旨とする。
求項6において、前記目領域における重心位置を検出す
る重心検出行程を更に含み、前記第2所定部位は目領域
の重心であることを要旨とする。
イントから撮像手段が撮像した画像データから、顔向き
推定手段にて顔向きが推定され、判定手段にてその顔向
きが所定角度範囲を含む正面顔か否かが判定される。そ
して、距離計測手段にて、正面顔と判定された画像デー
タにおける目領域内の第1所定部位と第2所定部位の距
離が計測され、視線推定手段にてその距離に基づいて視
線は検出される。
れて、視線推定手段にて視線の推定が行われる。請求項
3の発明によれば、瞳中心に加えて、瞳孔中心が用いら
れて視線推定手段にて視線の推定が行われる。
て、目領域の重心が用いられて視線推定手段にて視線の
推定が行われる。請求項5の発明によれば、所定ポイン
トから撮像行程で撮像した画像データから、顔向き推定
行程で顔向きが推定され、判定行程でその顔向きが所定
角度範囲を含む正面顔か否かが判定される。そして、距
離計測行程で正面顔と判定された画像データにおける目
領域内の第1所定部位と第2所定部位の距離が計測さ
れ、視線推定行程でその距離に基づいて視線は検出され
る。
れて、視線推定行程では視線の推定が行われる。請求項
7の発明によれば、瞳中心に加えて、瞳孔中心が用いら
れて視線推定行程では視線の推定が行われる。
て、目領域の重心が用いられて視線推定行程では視線の
推定が行われる。
体化した一実施の形態を図1〜図10を参照して説明す
る。
の電気機器17(例えば、テレビ、オーディオ、エアコ
ン等)をオンオフ等の制御をする場合に、視線検出装置
10が検出した視線上の電気機器17に対して対応する
コマンド信号を付与するためのものである。
態)の際に、テレビが配置されている方向に視線が向け
られた際に、その視線を検出して、コマンド信号として
オン信号(又はオフ信号)を付与する。
数台(本実施形態では4台)のビデオカメラ(CCDカ
メラ)11、カメラ用パソコン14、メインパソコン1
6等を備えている。前記ビデオカメラ11は、複数台の
電気機器17(例えば、テレビ、オーディオ、エアコン
等)が配置された地点と同一箇所に配置されている。本
実施形態ではカメラ用パソコン14が顔向き推定手段、
判定手段、目領域検出手段、瞳孔検出手段、及び瞳検出
手段に相当し、メインパソコン16が視線推定手段に相
当する。また、ビデオカメラ11は任意の位置に配置さ
れており、各ビデオカメラ11の位置が所定ポイントに
相当する。
ン14がそれぞれ接続されている。カメラ用パソコン1
4には、ビデオカメラ11で撮影された個々のフレーム
(画像データ)が、ビデオレートのカラー画像(640
×480)として入力されるようになっている。
6に接続されており、メインパソコン16は、各カメラ
用パソコン14との通信をイーサネット(登録商標)を
介したソケット通信で行うようにしている。また、ネッ
トワーク・タイムサーバシステムが用いられており、メ
インパソコン16がタイムサーバとして設定され、各カ
メラ用パソコン14の時刻がメインパソコン16に合わ
されるようになっている。又、メインパソコン16は、
各電気機器17(例えば、テレビ、オーディオ、エアコ
ン等)に電気的に接続されており、視線検出装置10の
視線検出結果に応じてオンオフ制御する。すなわち、現
在の電気機器17の状態に応じたコマンド信号を出力す
る。例えば、電気機器17がオン状態のときには、コマ
ンド信号としてオフ信号が、オフ状態のときには、コマ
ンド信号としてオン信号が出力される。なお、メインパ
ソコン16と各電気機器17を有線接続せずに、赤外線
でコントロールしてもよく、つまり無線で制御する態様
をとってもよい。
10の作用について説明する。まず、視線検出装置10
が行う視線検出の概要を説明する。
像し、各カメラ用パソコン14に入力する。各カメラ用
パソコン14はビデオカメラ11からの画像のキャプチ
ャを行い、続いて肌色領域抽出、顔向き推定を行い、顔
向き推定結果が所定条件を満たすか否かを判定し、条件
を満たす画像データから目領域32を検出する。そし
て、検出された目領域32から、瞳の大きさを正規化
し、瞳の中心部位(瞳中心)C1及び瞳内の瞳孔の位置
(瞳孔中心)C2を算出し(図9参照)、2点間の距離
を算出(計測)する。カメラ用パソコン14はその距離
の演算結果をメインパソコン16に送信し、メインパソ
コン16は、その距離の大小を比較することで複数のビ
デオカメラ11のうち何れのビデオカメラ11に視線を
送っているか、即ち視線を検出する。
細に説明する。メインパソコン16からカメラ用パソコ
ン14へ、開始要求信号が送信されるとこのフローチャ
ートは開始される。そして、メインパソコン16からカ
メラ用パソコン14へ、終了要求信号が送信されるま
で、S1〜S11の処理が繰り返し行われる。
て、まず、カメラ用パソコン14は、ビデオカメラ11
からの画像のキャプチャを行うか否かの判定を行う。即
ち、本実施形態では、ビデオカメラ11からの画像のキ
ャプチャは所定間隔(例えば0.3秒)毎に行われるよ
うになっており、各カメラ用パソコン14は、その時刻
か否かを判定する。そして、画像をキャプチャする時刻
であると判断した場合は(S1がYES)、各カメラ用
パソコン14はビデオカメラ11からの画像のキャプチ
ャを行う(S2)。一方、カメラ用パソコン14が画像
をキャプチャする時刻ではないと判断した場合は(S1
がNO)、この判定を繰り返す。なお、各カメラ用パソ
コン14の時刻はメインパソコン16に合わされている
ため、各カメラ用パソコン14は、同時刻に画像のキャ
プチャを行うようになっている。
は、ビデオカメラ11からのフレーム(画像データ、例
えば図3参照)をキャプチャした後、顔領域検出を行
う。顔領域検出は、色情報を用いた公知の肌色基準値に
よる手法を用いている。本実施形態では、均等知覚色空
間の1つであるCIE L*u*v 表色系を用いている。
全領域に亘り、U,V座標値による2次元色ヒストグラ
ムを求め、予め定めた肌色有効範囲内のピーク値(度数
が最大の値)を肌色基準値とする。その基準値からの色
差に対して公知の判別分析法を適用して閾値を決定し、
その閾値に基づいて肌色領域とその他の領域に2値化す
る(図4参照)。本実施形態では、検出対象者Hが一人
の場合を想定しているため、複数の肌色領域が検出され
た場合には、各カメラ用パソコン14は最大領域を顔領
域31と判定する(S3)。すなわち、抽出された複数
の肌色領域にて、画素数(面積)を求め、最大面積Sma
x の領域を顔領域31とする。なお、以下の説明におい
て、前記U,V座標値は、説明の便宜上UV値又はU
値,V値というときもある。
メラ用パソコン14は対応するビデオカメラ11から得
た画像データに基づいて顔向き推定を行う。
特徴抽出した結果を線形判別分析により、顔向きの判別
空間を作成する方法で行っている。4方向面特徴抽出で
は、画像データの濃淡値の勾配により各画素での4方向
(縦、横、右斜め45度、左斜め45度)のベクトル場
を求め、方向別に分割したエッジ画像を得る。得られた
エッジ画像は方向性を持った濃淡画像となる。
ータからPrewitt オペレータを用いて、微分フィルタと
してのプレヴィットフィルタ処理を行い、水平(横)、
垂直(縦)、右上がり45度(右斜め45度)、右下が
り45度(左斜め45度)の4方向のそれぞれのエッジ
画像を生成する。これらのエッジ画像を、以下、方向面
という。次に、これらの4方向面のそれぞれの画像を顔
領域31で正規化し、8×8に低解像度化して、各方向
面の画素の濃淡値を特徴量(以下、特徴ベクトルとい
う。)として抽出する。
から解像度を低くしているため、入力画像の解像度を直
接低くする場合よりも、高解像度でエッジ情報が保持さ
れる。その結果、位置ずれや、形状変化の影響を受けに
くく、かつ計算コストを削減して処理の高速化が可能と
なる。
分析を行う。なお、線形判別分析は、抽出された特徴量
(特徴ベクトル:xi)が、どのクラスに属するかを判
別するためのものであり、クラス内の分散が小さく、各
クラスの平均特徴ベクトルが互いに離れるような判別空
間を構成すると高い判別力が得られる。図5は判別分析
に係るクラスを示した概念図である。
いた係数行列Aが各カメラ用パソコン14の記憶装置
(図示しない)に記憶されている。なお、学習データ
は、複数の検出対象者Hである人物を撮像して得た画像
データに基づいたデータである。すなわち、図7に示す
ように、光軸を室内中心に向けるように等角度間隔(本
実施形態では22.5度間隔)で放射状に配置された1
6台のビデオカメラ11により、16方向から得た画像
データを得て、上記と同様に顔領域検出と、同顔領域3
1における4方向面特徴抽出を行い、特徴ベクトルxを
求める。
例えば、1台のビデオカメラ11を使用して、検出対象
者Hが室内中心を中心に等角度毎に回転するたびに撮像
し、そのときの画像データを学習用データに使用しても
良い。
クトルy(=Ax)へ線形写像する係数行列Aが求めら
れており、かつ各クラス(本実施形態では学習データを
取り込むときに使用した22.5度間隔に配置したビデ
オカメラ11に応じた16のクラス)が生成され、クラ
スの平均特徴ベクトルyj が算出されている。そして、
前記係数行列Aと、各クラスの平均特徴ベクトルyj の
データが、予め各カメラ用パソコン14の記憶装置に格
納されている。
0、22.5、45、67.5、90、112.5、1
35、157.5、180、−157.5、−135、
−112.5、−90、−67.5、−45、−22.
5の等差となる16の値である。図7に示すように、各
クラス番号(数値)はカメラ用パソコン14に係るビデ
オカメラ11の光軸(カメラ方向)に対する相対顔方向
(相対的な顔向き)とのなす角度と一致する。図7は検
出対象者Hを中心に22.5度間隔で16方向に配置し
たビデオカメラ11の配置を示し、各カメラから検出対
象者Hを撮像した場合の、各カメラから得られる画像デ
ータに対するクラス付与の内容を示している。同図にお
いて、例えば−22.5が付与されたカメラから検出対
象者Hを撮像した画像データには、クラス−22.5が
付与される。本実施形態では、相対顔方向に係るクラス
番号0度が、正面顔を撮像した場合としている。なお、
「−」は、図7において、当該ビデオカメラ11の光軸
から反時計回り方向の角度を示す。
分析では、前記係数行列Aに基づいて、未知データから
抽出した4方向面特徴に係る特徴ベクトルxi を写像変
換し、特徴ベクトルyi (=Axi )を生成する。次
に、生成された特徴ベクトルyi と、各クラスの平均特
徴ベクトルyj とのユークリッド距離の2乗である距離
(以下、2乗距離という)Dijを、以下の式(1)で演
算し、2乗距離Dijが最小値となるクラスを決定するこ
とにより、パターン認識を行う(図6参照)。その後、
最小値を含む下位3つの2乗距離Dijの値に対応したク
ラスを用いて以下の式(2)にて、カメラ方向(ビデオ
カメラ11の光軸γが向く方向、図1参照)と相対顔方
向(光軸γに対する相対的な顔向き)βとのなす角度F
を推定する。なお、図6中のDjは、iが省略されてお
り、本明細書中では、Dijに相当する。
施形態ではn=3を想定している。このため、最小値を
含む下位3つの2乗距離Dijに対応したクラス番号が、
最小値に対応するクラス番号から順にiに代入される。
θは各クラスにおける顔向きの相対角度(カメラ方向に
対する相対顔方向のなす角度=クラス番号)を示す。ま
た、式(2)中において、2乗距離Dijはj が省略され
ている。
用パソコン14はS4で行った顔向き推定の結果を利用
して、相対顔方向においてその推定された顔向きの角度
が所定角度(本実施形態では±20度)範囲内であるか
否かを判定する。そして、所定角度内であれば(S5が
YES)、S6に進む。なお、この推定された角度が所
定角度(例えば±20度)範囲内であるか否かという条
件を、本実施形態では所定条件ということがある。
毎に配置していないため、相対顔方向の角度Fが所定角
度(±20度)内である画像データ、換言すれば、前述
した所定条件を満たす画像データは1つとは限らない。
従って、本実施形態では、相対顔方向の角度Fが所定角
度内の正面顔を撮像したカメラ11が2つあり、ビデオ
カメラ11A及びビデオカメラ11Bで捉えた画像デー
タが視線が向けられた候補、即ち、所定条件を満たし、
後述する目領域検出の対象として判断されたものとし
て、以下の説明を続ける。なお、推定された顔向きの角
度Fが所定条件を満たしていない(S5がNO)と判定
したカメラ用パソコン14は、今回の画像データについ
ては、以下のステップを行わず、このフローチャートを
終了する。
明すると、ビデオカメラ11A及びビデオカメラ11B
におけるカメラ用パソコン14は、顔領域31の中から
目領域32を検出する(図9参照)。そして、瞳領域3
5を検出すると共に、その瞳領域35の大きさを正規化
し、さらにそこから瞳孔領域36を検出し、瞳中心C1
と瞳孔中心C2を算出して両位置間の距離を演算(計
測)する。そして、その距離の演算結果をメインパソコ
ン16に送信する。メインパソコン16はビデオカメラ
11A,11Bの各カメラ用パソコン14から受信した
前記距離の演算結果を比較して視線を検出(推定)す
る。本実施形態では、瞳中心C1が第1所定部位、瞳孔
中心C2が第2所定部位にそれぞれ相当する。
ず、カメラ用パソコン14は、画像データについて肌色
基準値を再算出し、肌色領域を抽出する。抽出された肌
色領域のうち、最大領域を顔領域31と判定する。
に基づき、4方向面特徴と色差面特徴を用いたテンプレ
ートマッチング手法により、それぞれ目領域32、並び
に口領域を検出する。
フローチャートを用いて処理された画像データにおい
て、このS6で目領域32及び口領域が検出されていた
場合は、前回の検出結果に基づいて、今回得られた顔領
域31を所定領域削除し、顔領域31が前記所定領域分
狭められた探索範囲として設定されるようになってい
る。そして、今回の画像データに関しては、前記探索範
囲が用いられ、テンプレートマッチング手法により目領
域32及び口領域の検出が行われる。なお、テンプレー
トマッチングを行った結果、前記探索範囲に対して目領
域32及び口領域が検出されなかった場合は、再度、顔
領域31に対して両領域の検出が行われるようになって
いる。
について説明する。この手法は、得られた画像データか
ら、前述した4方向面特徴抽出にて4方向面特徴(方向
面)、及びU,V座標値による色差面特徴を抽出し、肌
色領域抽出で得られた肌色領域(顔領域31)又は探索
範囲に対して、右目、左目、口の各テンプレートを用い
て類似度を計算する。
のU値の差、及びV値の差を示すものである。また、前
記テンプレートとは、予め、右目、左目、口の画像を複
数枚用意し、4方向面特徴及び色差面特徴を抽出した画
像データを、所定比率で縮小し、横幅を所定ピクセル
(例えば32ピクセル)に揃え、大きさの正規化を行
う。そして、4方向面特徴に関しては、エッジ方向情報
を4方向に分解し、さらに、4方向面特徴及び色差面特
徴に対してガウシャンフィルタで平滑化し、各画像デー
タを8×8の解像度に変換したものである。このテンプ
レートは、記憶装置(図示しない)に記憶されている。
(入力画像)Iとの4方向面特徴の類似度aを以下の式
(3)で算出し、色差面特徴の類似度bを以下の式
(4)で算出する。
レートを示す。i、jは、1〜m、1〜nの値であり、
m×n画素のテンプレート及び入力画像に対応してい
る。(x,y)は入力画像の左上座標を示す。また、
(4)式中Tu,TvはテンプレートのUV値、Iu,
Ivは画像データのUV値を示し、Umax ,Vmax はU
V値の最大範囲を示す。本実施形態では、CIE L*u*v 表
色系を用いており、このCIELUV表色系において、
処理の高速化及び記憶装置の空間を節約するため、Uma
x =256,Vmax =256としている。
した、各類似度a,bに基づいて、以下の式(5)によ
り、最終的な類似度cを算出する。 c=Wa ×a+Wb ×b …(5) (5)式中Wa,Wbは、重み付けとして、各類似度
a,bに掛け合わせられる所定の定数であり、Wa +W
b =1を満たしている。なお、本実施形態では、Wa =
Wb =0.5としている。
設定された閾値以上の箇所を、目の候補領域とする。そ
して、入力画像(画像データ)には、左上座標が予め付
与されており、その座標に基づき目、口の位置関係が把
握できる。従って、その座標に基づいて、例えば、目は
口より上にある、右目と左目の配置等、目、口の大まか
な位置関係(座標位置)を満たし、最も類似度cの高い
組み合わせを目領域32並びに口領域として決定する。
この結果、顔領域31の中で目領域32が検出される。
目領域32からカメラ用パソコン14は瞳の中心C1を
検出する瞳検出を行う。なお、本実施形態では、S6に
て検出された目領域32のうち何れか一方(例えば右
目)の目領域32について、以下に説明する瞳検出及び
瞳孔検出を行う。
作成して、公知の判別分析法を適用し、顔領域31を目
領域32と肌領域(顔領域の目領域32以外の領域)と
に分離する。一般的に、肌領域の彩度は高く、目領域3
2の彩度は低い。このため、この分離処理はその特性を
利用している。次いで、前記目領域画像の輝度ヒストグ
ラムを作成して、公知の判別分析法を適用し、分離され
た目領域32を、瞳領域35と白目領域34とに分割す
る。
領域35を縮小又は拡大し、所定の大きさに正規化す
る。そして、瞳領域35に対して円形状の補完を行う。
この際、前述したように、彩度値ヒストグラム及び輝度
ヒストグラムにそれぞれ判別分析法を適用して分割する
ことで得られた瞳領域35内には図8(a)に示すよう
に、瞼による陰影35aの存在が考えられる。このと
き、通常、画像の濃淡値を8ビットで表した場合、濃淡
値0が黒、濃淡値256が白となる。従って、領域分割
結果における濃淡値0(黒色)の領域に対して、水平射
影ヒストグラムを作成し(図8(b)参照)、同ヒスト
グラムにおいて縦軸方向の上部に示されるように、極端
なピークをもつ部分を予め設定された閾値に基づいて削
除する。つまり、瞼による陰影35aの部分は該ヒスト
グラム上でピークとして現れ、それを削除することで、
図8(c)に示すような、瞳領域35のみが抽出され
る。なお、本実施形態では、縦軸方向は、図8(a)〜
(c)及び図9において上下方向を示し、横軸方向は、
図8(a)〜(c)及び図9において左右方向を示す。
と瞳領域35の濃淡の違いを利用して、Prewitt オペレ
ータを用い図8(c)に示す瞳領域35のエッジ画像を
生成することで、輪郭(エッジ)を抽出する。その後、
その輪郭を構成する点群に対して公知のハフ変換を用い
て瞳領域35の円方程式を求める。この結果、前記円方
程式から瞳中心C1が検出される(図9参照)。
された瞳領域35からカメラ用パソコン14は瞳孔の中
心C2を検出する瞳孔検出を行う。このとき、瞳孔領域
36は非常に小さいため、瞳領域34までを検出してい
た画像データでは、瞳孔と虹彩の濃淡の違いを判別して
エッジ抽出を行うことができず、これに伴い瞳孔中心C
2を検出できない。このため、ビデオカメラ11A,1
1Bがズームアップされ、図9に示すように、目領域3
2を拡大した画像データが取得される。
6の濃淡の違いを利用して、Prewitt オペレータを用
い、瞳孔領域36のエッジ画像を生成することで、輪郭
(エッジ)を抽出する。その後、瞳の大きさに基づいて
瞳孔の大きさを推定し(例えば、瞳の1/3〜1/
5)、その推定結果を利用して、前記輪郭を構成する点
群に対して公知のハフ変換にて瞳孔領域36の円方程式
を求める。このとき、瞳には、様々なものが映し出され
るため、前記Prewitt オペレータによる瞳孔領域36の
エッジ抽出の際には、瞳孔領域36以外の輪郭(エッ
ジ)が検出されるおそれがある。このため、瞳中心C1
近辺で検出されたエッジのみを用い、瞳孔領域36の検
出精度を高めている。そして、前記円方程式から瞳孔中
心C2が検出される(図9参照)。
において、図9に示すように、カメラ用パソコン14は
演算された瞳中心C1及び瞳孔中心C2から、両位置間
の距離、即ち、瞳中心C1に対する瞳孔中心C2のズレ
量を算出(計測)する。そして、算出したズレ量の結果
を各カメラ用パソコン14は、メインパソコン16に送
信する。なお、各カメラ用パソコン14の時刻はメイン
パソコン16に合わされているため、各カメラ用パソコ
ン14から送信されるズレ量はそれぞれ同時刻にキャプ
チャした画像データから算出されたものになっている。
ビデオカメラ11Aのカメラ用パソコン14から受信し
たズレ量と、ビデオカメラ11Bのカメラ用パソコン1
4から受信したズレ量とを比較し、視線が向けられてい
るビデオカメラを決定する。このとき前記ズレ量が小さ
い方を視線が向けられているビデオカメラとする。視線
が決定すると、メインパソコン16は、視線が向けられ
たビデオカメラに対応する電気機器17へコマンド信号
を出力する(S11)。このようにして視線は検出され
る。
うな効果を得ることができる。 (1)上記実施形態では、カメラ用パソコン14は、推
定した顔向きの角度に基づいて、画像データが所定角度
範囲内の正面顔を捉えているか否かを判定し、その条件
を満たす画像データの目領域32における瞳領域35の
大きさを正規化した後に、瞳中心C1と瞳孔中心C2を
算出し、両位置のズレ量を算出する。そして、メインパ
ソコン16は、各ビデオカメラ11A,11Bに対応し
たそれぞれのズレ量を比較し、そのズレ量が最も小さい
ビデオカメラ11Aに視線を向けているという視線推定
を行う。このため、従来と異なり、頭部に装置を装着す
ることなく、広い室内空間でも好適に視線を検出でき
る。また、正面顔を撮像するビデオカメラが複数存在す
る場合でも、ズレ量の比較により、視線が向けられてい
るカメラを正確に推定できる。
域32を拡大した画像データを取得した上で行った。こ
のため、瞳孔と虹彩の濃淡の違いを確実に判別すること
ができ、好適に瞳孔検出を実現できる。
ために行う瞳孔検出を、ズームアップしたビデオカメラ
11で捉えた画像データに対して、Prewitt オペレータ
を用いて輪郭(エッジ)を抽出し、さらにその点群に対
してハフ変換を行うことで実現した。このため、例えば
各ビデオカメラ11に光源を設け、その光源からそれぞ
れ赤外光を照射し、瞳領域35(瞳孔)から反射した反
射光に基づいて、瞳孔中心C2を検出する場合と異な
り、赤外光が乱れ飛び合い、赤外光同士がノイズとなる
という問題が発生することはなく、簡便に瞳孔中心C2
の検出ができる。
ために、瞳中心C1を検出し、更に瞳孔中心C2を検出
する。そして、視線の最終判断において、瞳中心C1と
瞳孔中心C2とのズレ量に基づいて、どのビデオカメラ
に視線を向けているかを決定した。このため、目領域3
2内における他の部位同士のズレ量を元に視線を検出す
る場合と異なり、最も正確に視線の方向を検出できる。
て、瞳中心C1近辺で検出されたエッジのみを用いて、
ハフ変換で瞳孔領域36の円方程式を求めている。通
常、瞳孔は、瞳中心C1の近辺に位置することが多いた
め瞳孔領域36の検出精度を高めることができる。
てもよい。 ・上記実施形態において、瞳孔検出を以下のような手法
で行ってもよい。即ち、赤外光を照射するための光源を
ビデオカメラ11に備える。赤外光を用いた場合、瞳孔
領域は白く映し出される。このとき、輝度の高い範囲が
瞳孔領域36に相当し、輝度の低い範囲が虹彩領域に相
当する。そして、閾値に基づく2値化により、瞳孔領域
36(輝度の高い(明るい)範囲)を検出する。そし
て、前記瞳孔領域36の重心を算出し、その重心を瞳孔
中心C2とする。なお、この際も、瞳孔領域36を好適
に捉えるためにビデオカメラ11によるズームアップは
行われる。
が照射されるタイミングはメインパソコン16によって
制御される。即ち、S4において、各カメラ用パソコン
14で推定された相対顔方向の角度Fがメインパソコン
16に入力され、その角度Fが所定条件を満たしている
か否かの判断(S5の処理)がメインパソコン16で行
われる。そして、メインパソコン16は所定条件を満た
しているカメラ用パソコン14に対して制御信号を出力
し、所定のビデオカメラ11A,11Bにおいて、各光
源から順次赤外光を照射させるとともに、そのカメラ1
1A,11Bに対応するカメラ用パソコン14にS6〜
S9の処理を再び行わせる。なお、メインパソコン16
から制御信号出力されなかったカメラ用パソコン14に
ついては、今回の画像データに関してはS6以降の処理
は行わない。
A,11Bの光源からタイミングが制御された赤外光が
照射されるため、赤外光が乱れ飛び合い、赤外光同士が
ノイズとなることはなく、簡便に瞳孔中心C2の検出が
できる。また、赤外光により、瞳領域内において瞳孔領
域を明確に判別できる。この場合、メインパソコン16
が判定手段に相当する。
域36を、Prewitt オペレータを用いたエッジ抽出及び
ハフ変換にて瞳孔中心C2を検出してもよい。 ・上記実施形態では、視線の最終判断は、瞳中心C1と
瞳孔中心C2とのズレ量に基づいて行われたが、瞳中心
C1又は瞳孔中心C2の代わりに瞳領域35における他
の部位を用いて、ズレ量を求めてもよい。
と各カメラ用パソコン14との通信をイーサネットを介
したソケット通信にて行っていたが、無線電波にて行っ
てもよい。
式の算出をハフ変換で行ったが、以下の手法で行っても
よい。即ち、Prewitt オペレータを用いて抽出された輪
郭を構成する点群から公知の4点サンプリング法で4点
をサンプリングする。そして、その4点を用いて、公知
の最小二乗法によって瞳領域35の円方程式を求める。
る瞳検出、瞳孔検出を、S6において検出された目領域
32のうち何れか一方の目領域32について行ったが、
右・左、両方の目領域32に対して行ってもよい。この
場合、各目領域32において算出されたズレ量の平均値
が算出され、その値が、各画像データのズレ量とされ、
比較される。このようにすれば、片目について、ズレ量
を算出する場合と比較して、高精度に視線検出を行うこ
とができる。
1と瞳孔中心C2のズレ量に基づいて行ったが、瞳孔中
心C2の代わりに、図10に示すように、目領域32の
重心C3を用いてもよい。この場合、S6において、目
領域32が検出された後に、その目領域32を拡大又は
縮小して所定の大きさに正規化し、その正規化後の目領
域32に対して、重心C3を求める。そして、S9にお
いて、瞳中心C1と目領域32の重心C3とのズレ量を
算出し、視線を推定する。このようにすれば、瞳孔中心
C2を利用する場合と比較して、ビデオカメラ11をズ
ームアップする必要なしに視線検出ができる。即ち、瞳
孔を検出できない低解像度の画像データからでも簡単な
演算でズレ量を求めることができる。なお、このように
した場合、S8は必要なくなる。
ラ11が所定角度内の正面顔を撮像したとして、各カメ
ラ用パソコン14で算出された瞳中心C1と瞳孔中心C
2とのズレ量をメインパソコン16が比較することで、
視線を検出したが、ズレ量同士の比較ではなく、閾値と
の比較で視線を検出してもよい。すなわち、例えば、1
台のビデオカメラ11に対応するカメラ用パソコン14
のみが、相対顔方向の角度Fが所定角度内であると判断
した場合は、メインパソコン16はカメラ用パソコン1
4から送信されたズレ量と予め設定された閾値とを比較
する。そして、前記閾値を超えた場合に、検出対象者H
がビデオカメラ11に視線を向けているという視線検出
を行う。
ことができる。また、複数のカメラ用パソコン14から
ズレ量がメインパソコン16に送信された場合でも、各
ズレ量をそれぞれ閾値と比較して視線検出を行うことも
可能である。また、上記実施形態では、複数台のビデオ
カメラ11を設置したが、1台でもよい。
きる技術的思想について、それらの効果と共に以下に記
載する。 (1)請求項1乃至請求項4のうちいずれか1項の視線
検出装置において、前記所定ポイントは複数あり、前記
判定手段が複数の画像データを正面顔であると判定した
際は、前記視線推定手段は、距離計測手段が計測した距
離を比較することで視線を検出する視線検出装置。この
ようにすれば、複数のポイントから検出対象者を撮像し
た場合でも、好適に視線検出を行うことができる。
いて、前記瞳孔検出手段による瞳孔検出は、前記撮像手
段が検出対象者の目領域を拡大撮像した画像データに基
づいて行われる視線検出装置。このようにすれば、簡便
に瞳孔検出を実現できる。
よれば、装置を検出対象者に装着させることなく、広い
室内空間でも好適に視線を検出することができる。
の効果に加えて、第1所定部位を、瞳中心とすることで
視線推定手段は視線の推定を好適に実現できる。請求項
3の発明によれば、請求項1又は請求項2の発明の効果
に加えて、第2所定部位を、瞳孔中心とすることで視線
推定手段は視線の推定を的確にできる。
求項2の発明の効果に加えて、第2所定部位を、目領域
の重心とすることで視線推定手段は低解像度の画像デー
タからも視線の推定を好適に実現できる。
の効果を奏す。請求項6の発明によれば、請求項5の発
明の効果に加えて、第2所定部位を、瞳中心とすること
で視線推定行程において視線の推定を好適に実現でき
る。
求項6の発明の効果に加えて、第1所定部位を、瞳孔中
心とすることで視線推定行程において視線の推定を的確
にできる。
求項6の発明の効果に加えて、第2所定部位を、目領域
の重心とすることで視線推定行程において低解像度の画
像データからも視線の推定を好適に実現できる。
示すブロック図。
向とのなす角度に対する学習データ取得の説明図。
は瞳検出における水平射影ヒストグラムを示す説明図。
図。
…ビデオカメラ(撮像手段)、14…カメラ用パソコン
(顔向き推定手段、判定手段、目領域検出手段、瞳孔検
出手段、瞳検出手段)、16…メインパソコン(視線推
定手段)、31…顔領域、32…目領域。
Claims (8)
- 【請求項1】 所定ポイントから検出対象者を撮像する
撮像手段と、 撮像手段が撮像した画像データから、検出対象者の顔領
域検出を行い、検出した顔領域に基づいて顔向き推定を
行う顔向き推定手段と、 顔向き推定手段が推定した顔向きが、所定の角度範囲を
含む正面顔であるか否かを判定する判定手段と、 判定手段が正面顔であると判定した画像データにおける
正面顔の目領域を検出する目領域検出手段と、 目領域検出手段が検出した目領域において、同目領域内
の第1所定部位と第2所定部位との距離を計測する距離
計測手段と、 距離計測手段が計測した距離に基づいて視線を推定する
視線推定手段とを備えたことを特徴とする視線検出装
置。 - 【請求項2】 前記目領域内における瞳中心を検出する
瞳検出手段を更に備え、前記第1所定部位は瞳中心であ
ることを特徴とする請求項1に記載の視線検出装置。 - 【請求項3】 前記目領域内における瞳孔中心を検出す
る瞳孔検出手段を更に備え、前記第2所定部位は、瞳孔
中心であることを特徴とする請求項1又は請求項2に記
載の視線検出装置。 - 【請求項4】 前記目領域における重心位置を検出する
重心検出手段を更に備え、前記第2所定部位は目領域の
重心であることを特徴とする請求項1又は請求項2に記
載の視線検出装置。 - 【請求項5】 所定ポイントから検出対象者を撮像する
撮像行程と、 撮像した画像データから検出対象者の顔領域検出を行
い、検出した顔領域に基づいて顔向き推定を行う顔向き
推定行程と、 推定した顔向きが所定の角度範囲を含む正面顔であるか
否かを判定する判定行程と、 正面顔であると判定した画像データにおける正面顔の目
領域を検出する目領域検出行程と、 検出した目領域において、同目領域内の第1所定部位と
第2所定部位との距離を計測する距離計測行程と、 計測した距離に基づいて視線を推定する視線推定行程と
を備えたことを特徴とする視線検出方法。 - 【請求項6】 前記目領域内における瞳中心を検出する
瞳検出行程を更に含み、前記第1所定部位は瞳中心であ
ることを特徴とする請求項5に記載の視線検出方法。 - 【請求項7】 前記目領域内における瞳孔中心を検出す
る瞳孔検出行程を更に含み、前記第2所定部位は、瞳孔
中心であることを特徴とする請求項5又は請求項6に記
載の視線検出方法。 - 【請求項8】 前記目領域における重心位置を検出する
重心検出行程を更に含み、前記第2所定部位は目領域の
重心であることを特徴とする請求項5又は請求項6に記
載の視線検出装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001089886A JP4729188B2 (ja) | 2001-03-27 | 2001-03-27 | 視線検出装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001089886A JP4729188B2 (ja) | 2001-03-27 | 2001-03-27 | 視線検出装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002282210A true JP2002282210A (ja) | 2002-10-02 |
| JP4729188B2 JP4729188B2 (ja) | 2011-07-20 |
Family
ID=18944748
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001089886A Expired - Fee Related JP4729188B2 (ja) | 2001-03-27 | 2001-03-27 | 視線検出装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4729188B2 (ja) |
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004177315A (ja) * | 2002-11-28 | 2004-06-24 | Alpine Electronics Inc | 視線方向判定装置及びそれを利用した対話システムならびに運転支援システム |
| JP2005100367A (ja) * | 2003-09-02 | 2005-04-14 | Fuji Photo Film Co Ltd | 画像生成装置、画像生成方法、及び画像生成プログラム |
| JP2005267258A (ja) * | 2004-03-18 | 2005-09-29 | Nara Institute Of Science & Technology | 顔情報計測システム |
| JP2007013480A (ja) * | 2005-06-29 | 2007-01-18 | Fujifilm Holdings Corp | 監視システム、監視方法、及び監視プログラム |
| CN100342388C (zh) * | 2003-07-18 | 2007-10-10 | 万众一 | 视觉跟踪智能控制方法 |
| JP2008217335A (ja) * | 2007-03-02 | 2008-09-18 | Fujifilm Corp | 画像ソート装置および方法並びにプログラム |
| JP2010033305A (ja) * | 2008-07-29 | 2010-02-12 | Hitachi Ltd | 画像情報処理方法、及び装置 |
| JP2010282339A (ja) * | 2009-06-03 | 2010-12-16 | Seiko Epson Corp | 目における瞳の位置を補正する画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置 |
| JP2012038106A (ja) * | 2010-08-06 | 2012-02-23 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
| WO2012039139A1 (ja) | 2010-09-24 | 2012-03-29 | パナソニック株式会社 | 瞳孔検出装置及び瞳孔検出方法 |
| JP2012216180A (ja) * | 2011-03-30 | 2012-11-08 | Advanced Telecommunication Research Institute International | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム |
| US8345922B2 (en) | 2008-09-03 | 2013-01-01 | Denso Corporation | Apparatus for detecting a pupil, program for the same, and method for detecting a pupil |
| JP2015231458A (ja) * | 2014-06-10 | 2015-12-24 | 株式会社エンファシス | 視線検出による信号発信装置 |
| JP2019103664A (ja) * | 2017-12-13 | 2019-06-27 | オムロン株式会社 | 状態推定装置とその方法およびプログラム |
| JP2021061048A (ja) * | 2021-01-05 | 2021-04-15 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| CN113052064A (zh) * | 2021-03-23 | 2021-06-29 | 北京思图场景数据科技服务有限公司 | 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法 |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05298015A (ja) * | 1992-04-23 | 1993-11-12 | Matsushita Electric Ind Co Ltd | 視線検出システムおよび情報処理システム |
| JPH06274269A (ja) * | 1993-03-24 | 1994-09-30 | Nissan Motor Co Ltd | 視線入力装置 |
| JPH09251342A (ja) * | 1996-03-15 | 1997-09-22 | Toshiba Corp | 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法 |
| JPH1091325A (ja) * | 1996-09-13 | 1998-04-10 | Toshiba Corp | 視線検出システム |
| JPH11175246A (ja) * | 1997-12-12 | 1999-07-02 | Toshiba Corp | 視線検出装置及びその方法 |
| JP2000331190A (ja) * | 1999-05-20 | 2000-11-30 | Atr Media Integration & Communications Res Lab | 仮想変身装置 |
| JP2001101429A (ja) * | 1999-09-28 | 2001-04-13 | Omron Corp | 顔面の観測方法および顔観測装置ならびに顔観測処理用の記録媒体 |
-
2001
- 2001-03-27 JP JP2001089886A patent/JP4729188B2/ja not_active Expired - Fee Related
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05298015A (ja) * | 1992-04-23 | 1993-11-12 | Matsushita Electric Ind Co Ltd | 視線検出システムおよび情報処理システム |
| JPH06274269A (ja) * | 1993-03-24 | 1994-09-30 | Nissan Motor Co Ltd | 視線入力装置 |
| JPH09251342A (ja) * | 1996-03-15 | 1997-09-22 | Toshiba Corp | 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法 |
| JPH1091325A (ja) * | 1996-09-13 | 1998-04-10 | Toshiba Corp | 視線検出システム |
| JPH11175246A (ja) * | 1997-12-12 | 1999-07-02 | Toshiba Corp | 視線検出装置及びその方法 |
| JP2000331190A (ja) * | 1999-05-20 | 2000-11-30 | Atr Media Integration & Communications Res Lab | 仮想変身装置 |
| JP2001101429A (ja) * | 1999-09-28 | 2001-04-13 | Omron Corp | 顔面の観測方法および顔観測装置ならびに顔観測処理用の記録媒体 |
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004177315A (ja) * | 2002-11-28 | 2004-06-24 | Alpine Electronics Inc | 視線方向判定装置及びそれを利用した対話システムならびに運転支援システム |
| CN100342388C (zh) * | 2003-07-18 | 2007-10-10 | 万众一 | 视觉跟踪智能控制方法 |
| JP2005100367A (ja) * | 2003-09-02 | 2005-04-14 | Fuji Photo Film Co Ltd | 画像生成装置、画像生成方法、及び画像生成プログラム |
| JP2005267258A (ja) * | 2004-03-18 | 2005-09-29 | Nara Institute Of Science & Technology | 顔情報計測システム |
| JP2007013480A (ja) * | 2005-06-29 | 2007-01-18 | Fujifilm Holdings Corp | 監視システム、監視方法、及び監視プログラム |
| JP2008217335A (ja) * | 2007-03-02 | 2008-09-18 | Fujifilm Corp | 画像ソート装置および方法並びにプログラム |
| JP2010033305A (ja) * | 2008-07-29 | 2010-02-12 | Hitachi Ltd | 画像情報処理方法、及び装置 |
| US8345922B2 (en) | 2008-09-03 | 2013-01-01 | Denso Corporation | Apparatus for detecting a pupil, program for the same, and method for detecting a pupil |
| JP2010282339A (ja) * | 2009-06-03 | 2010-12-16 | Seiko Epson Corp | 目における瞳の位置を補正する画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置 |
| JP2012038106A (ja) * | 2010-08-06 | 2012-02-23 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
| JP2012068937A (ja) * | 2010-09-24 | 2012-04-05 | Panasonic Corp | 瞳孔検出装置及び瞳孔検出方法 |
| WO2012039139A1 (ja) | 2010-09-24 | 2012-03-29 | パナソニック株式会社 | 瞳孔検出装置及び瞳孔検出方法 |
| CN103119623A (zh) * | 2010-09-24 | 2013-05-22 | 松下电器产业株式会社 | 瞳孔检测装置及瞳孔检测方法 |
| US8983235B2 (en) | 2010-09-24 | 2015-03-17 | Panasonic Intellectual Property Corporation Of America | Pupil detection device and pupil detection method |
| CN103119623B (zh) * | 2010-09-24 | 2016-07-06 | 松下电器(美国)知识产权公司 | 瞳孔检测装置及瞳孔检测方法 |
| JP2012216180A (ja) * | 2011-03-30 | 2012-11-08 | Advanced Telecommunication Research Institute International | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム |
| JP2015231458A (ja) * | 2014-06-10 | 2015-12-24 | 株式会社エンファシス | 視線検出による信号発信装置 |
| JP2019103664A (ja) * | 2017-12-13 | 2019-06-27 | オムロン株式会社 | 状態推定装置とその方法およびプログラム |
| JP2021061048A (ja) * | 2021-01-05 | 2021-04-15 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| JP7103443B2 (ja) | 2021-01-05 | 2022-07-20 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| CN113052064A (zh) * | 2021-03-23 | 2021-06-29 | 北京思图场景数据科技服务有限公司 | 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法 |
| CN113052064B (zh) * | 2021-03-23 | 2024-04-02 | 北京思图场景数据科技服务有限公司 | 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4729188B2 (ja) | 2011-07-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6526161B1 (en) | System and method for biometrics-based facial feature extraction | |
| JP5538909B2 (ja) | 検出装置およびその方法 | |
| CN103605953B (zh) | 基于滑窗搜索的车辆兴趣目标检测方法 | |
| JP4729188B2 (ja) | 視線検出装置 | |
| JP4597391B2 (ja) | 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体 | |
| US8154591B2 (en) | Eyelid opening level determination device and computer readable medium storing computer program thereof | |
| JP2013089252A (ja) | 映像処理方法及び装置 | |
| JPH0944685A (ja) | 顔画像処理装置 | |
| JP2004334819A (ja) | ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置 | |
| JP2003070742A (ja) | 視線検出装置及び視線検出方法 | |
| CN111680574A (zh) | 一种人脸检测方法、装置、电子设备和存储介质 | |
| JP2018120283A (ja) | 情報処理装置、情報処理方法及びプログラム | |
| CN113689365A (zh) | 一种基于Azure Kinect的目标跟踪定位方法 | |
| JP4203279B2 (ja) | 注目判定装置 | |
| JP3377743B2 (ja) | 移動体識別装置 | |
| Spremolla et al. | RGB-D and thermal sensor fusion-application in person tracking | |
| CN111339840B (zh) | 人脸检测方法和监控系统 | |
| CN114821814B (zh) | 一种融合可见光、红外、结构光的步态识别方法 | |
| JP4390487B2 (ja) | 頭部領域抽出装置 | |
| KR100543706B1 (ko) | 비젼기반 사람 검출방법 및 장치 | |
| CN115423804A (zh) | 影像标定方法及装置、影像处理方法 | |
| CN111783580B (zh) | 基于人腿检测的行人识别方法 | |
| CN112183383A (zh) | 一种复杂化环境下测量人脸图像的信息处理方法和装置 | |
| CN113128320A (zh) | 基于tof相机的人脸活体检测方法、检测装置及电子设备 | |
| CN112949588A (zh) | 目标检测跟踪方法以及目标检测跟踪装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20050315 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050907 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080204 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101027 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101124 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110121 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110405 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110418 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140422 Year of fee payment: 3 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees | ||
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |