[go: up one dir, main page]

JP2014071832A - 物体検出装置及びその検出方法 - Google Patents

物体検出装置及びその検出方法 Download PDF

Info

Publication number
JP2014071832A
JP2014071832A JP2012219715A JP2012219715A JP2014071832A JP 2014071832 A JP2014071832 A JP 2014071832A JP 2012219715 A JP2012219715 A JP 2012219715A JP 2012219715 A JP2012219715 A JP 2012219715A JP 2014071832 A JP2014071832 A JP 2014071832A
Authority
JP
Japan
Prior art keywords
frame
detection
detector
detection result
undetected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012219715A
Other languages
English (en)
Inventor
Mayu Okumura
麻由 奥村
Yuki Watanabe
友樹 渡辺
Akihito Seki
晃仁 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012219715A priority Critical patent/JP2014071832A/ja
Priority to US14/039,499 priority patent/US9489737B2/en
Publication of JP2014071832A publication Critical patent/JP2014071832A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体検出において未検出数を低減する。
【解決手段】実施形態によれば、物体検出装置は、取得部と、第1検出器と、判定部と、第2検出器と、を具備する。取得部は、時系列順の複数フレームを取得する。第1検出器は、前記フレームごとに、予め決められた対象物を検出する。判定部は、前記フレームごとに検出結果を記憶し、第1フレームでの検出結果と、第1フレーム以降の第2フレームでの第1検出器の検出結果とを比較し、前記第2フレームに未検出の対象物が存在するかどうかを判定する。第2検出器は、未検出の検出対象物が存在すると判定された場合には、前記フレームごとに対象物を検出する、前記第1検出器とは性能が異なる。
【選択図】図1

Description

本発明の実施形態は、画像中から対象物体を検出する物体検出装置とその検出方法に関する。
性能の異なる2つの検出器を用いて、画像中から対象物体を検出する技術がある。これは、事前学習した検出器が設置場所の環境に適合しきれなかったために生じる誤検出を低減する技術である。まず第1検出器を用いて画像全体から対象物体を検出し、次に検出された結果のみに対して第2検出器で再度検出を行う。第1検出器と第2検出器の両方で検出された物体を検出結果とすることで、非検出対象物体が検出されてしまうことを低減する。
特開2010−170201号公報
しかしながら、第1検出器の検出結果にのみ第2検出器を用いるため、そもそも第1検出器で検出されない物体の数(未検出の数)は減らないという問題がある。
本発明が解決しようとする課題は、物体検出において未検出数を低減することができる物体検出装置及びその検出方法を提供することである。
実施形態によれば、物体検出装置は、取得部と、第1検出器と、判定部と、第2検出器と、を具備する。取得部は、時系列順の複数フレームを取得する。第1検出器は、前記フレームごとに、予め決められた対象物を検出する。判定部は、前記フレームごとに検出結果を記憶し、第1フレームでの検出結果と、第1フレーム以降の第2フレームでの第1検出器の検出結果とを比較し、前記第2フレームに未検出の対象物が存在するかどうかを判定する。第2検出器は、未検出の検出対象物が存在すると判定された場合には、前記フレームごとに対象物を検出する、前記第1検出器とは性能が異なる。
第1の実施形態の物体検出装置を示すブロック図。 検出窓領域が画像中を走査する様子を表す図。 重なり率を表す図。 検出窓領域が前フレームの検出結果周辺領域を走査する様子を表す図。 第1の実施形態の物体検出装置を示すフローチャート。 第2の実施形態の物体検出装置を示すブロック図。 ポジティブデータ、ネガティブデータの収集を表す図。 第2の実施形態の物体検出装置を示すフローチャート。 第3の実施形態の物体検出装置を示すブロック図。 第3の実施形態のポジティブデータ、ネガティブデータの収集を表す図。 第3の実施形態の物体検出装置を示すフローチャート。
以下、図面を参照しながら実施形態に係る物体検出装置及びその検出方法について詳細に説明する。なお、以下の実施形態では、同一の番号を付した部分については同様の動作を行うものとして、重ねての説明を省略する。
(第1の実施形態)
第1の実施形態における物体検出装置100について図1のブロック図を参照して説明する。
第1の実施形態の物体検出装置100は、画像取得部101と、第1検出器102と、未検出判定部103と、第2検出器104とを備える。なお物体検出装置100は、検出結果出力部111を含んでいてもよい。なお、以降に説明する実施形態では、検出対象物(例えば後述する201)を人物として説明するが、検出対象物201は人物に限定せず検出することができる物体またはその部分であればよい。検出対象物201は例えば、顔、手、自動車、自転車、道路標識、犬、猫などである。検出結果出力部111は、第1検出器102の検出結果、及び第2検出器104の検出結果を受け取り出力する。
画像取得部101は、その周辺を撮影しフレームを時系列に並べた時系列画像を得るためのカメラである。画像取得部101としては、通常可視光を撮影するカメラを想定しているが、暗所を撮影するために赤外線カメラを用いてもよい。
第1検出器102は、画像取得部101により得られた画像から、検出対象物201の位置を検出する。第1検出器102は例えば、図2で示すように、画像取得部101で撮影された画像中を、検出窓領域200を少しずつずらして、画像全体を漏れなく探索するように走査しながら、検出窓領域200の内に検出対象物201が存在するかを判定し、検出対象物201が存在しているかどうかを検出結果として返す。具体的には例えば、第1検出器102は画像中における検出対象物201の位置を検出結果として返す。例えば、“Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: “Co-occurrence Histograms of Oriented Gradients for Human Detection”, IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010).”に開示されている技術を用いて画像中の検出対象物201の位置を検出する。以降に説明する実施形態では、検出窓領域200を矩形として説明するが、検出窓領域200は矩形に限定せず、任意の形状でよい。
未検出判定部103は、前フレームの検出結果を記憶し、第1フレームでの検出結果と、第1フレーム以外の第2フレームでの検出結果とを比較し、未検出の検出対象物が存在するかどうかを判定する。より具体的には未検出判定部103は、記憶しておいた前フレームの検出結果と、現フレームに対する第1検出器102の検出結果とを比較し、現フレームに対する第1検出器102の検出結果に未検出の検出対象物が存在するかどうかを判定する。前フレームは、通常現フレームの1つ前のフレームであるが、任意の個数前のフレームでもよい。フレームレート、検出対象物201の動きの速さ、画像取得部201が固定されているかどうか等に応じて、前フレームを現フレームのいくつ前のフレームに設定するかを決定してもよい。例えば、固定されている画像取得部101で動きの遅い検出対象物201を撮影し、検出する場合には、フレームに映る画像の変化が小さいため、前フレームは現フレームより十分に前のフレームに設定してもよい。また例えば、固定されていない画像取得部101を用いて動きの遅い検出対象物201を撮影し、検出する場合には、画像取得部101のフレームレートによってフレームに映る画像の変化が異なるため、フレームレートに応じて検出対象物201がフレームアウトしない範囲で前フレームを設定してもよい。例えば、フレームレートが低い場合には、前フレームを現フレームの直前のフレームや少し前のフレームに設定し、フレームレートが高い場合には、検出対象物201がフレームアウトしない範囲で現フレームより前に前フレームを設定してもよい。
前フレームの検出結果とは、第1検出器102及び第2検出器104の検出結果(またはどちらかの検出結果)における、検出結果に関連する値である。前フレームの検出結果はある指標で表され、例えば、検出対象物201の位置や、検出領域の高さや幅、検出領域内の色ヒストグラムである。
未検出判定部103は、例えば、前フレームの検出結果と現フレームに対する第1検出器102の検出結果の数で未検出を判定してもよい。この場合、現フレームに対する第1検出器102の検出結果の数が、前フレームの検出結果の数より少ない場合、未検出が存在すると判定する。
また未検出判定部103は例えば、前フレームの検出結果と、現フレームに対する第1検出器102の検出結果との検出位置間の距離によって未検出を判定してもよい。前フレームの検出結果の検出位置と、現フレームに対する第1検出器102の検出結果の検出位置との間の距離が、予め定められた閾値より大きい場合、未検出が存在すると判定する。例えば、検出位置間の距離は、前フレームの検出結果矩形の中心座標を(xt−1,yt−1)、現フレームに対する第1検出器の検出結果矩形の中心座標を(x,y)とすると、例えば次式で表される。
Figure 2014071832
さらに未検出判定部103は例えば、記憶しておいた前フレームの検出結果の検出対象物201を包含する領域と、現フレームに対する第1検出器102の検出結果の検出対象物201を包含する領域とのどちらか、もしくは両方に含まれる領域に対する、記憶しておいた前フレームの検出結果の検出対象物201を包含する領域と現フレームに対する第1検出器102の検出結果の検出対象物201を包含する領域とが重なる領域の割合(重なり率)を、閾値と比較することで未検出を判定してもよい。重なり率が、予め定められた閾値より小さい場合、未検出が存在すると判定する。図3は、上記の重なり率を表す図である。前フレームの検出結果の検出対象物201を包含する領域をA、現フレームに対する第1検出器102の検出結果の検出対象物201を包含する領域をBとすると、重なり率Rは次式で表される。重なり率は、換言すれば、前フレームで検出された検出対象物を包含する第1領域と、現フレームで検出された該検出対象物を包含する第2領域との和集合である領域に対する、第1領域と第2領域との積集合である領域の割合である。
Figure 2014071832
また未検出判定部103はさらに例えば、記憶しておいた前フレームの検出結果と、現フレームの第1検出器102の検出結果との色の類似度を、閾値と比較することで未検出を判定してもよい。前フレームの検出結果の色と、現フレームに対する第1検出器102の検出結果の色との類似度が、予め定められた閾値より小さい場合、未検出が存在すると判定する。例えば、ヒストグラムの合計が1となるように正規化された、前フレームの検出結果の対象領域の色ヒストグラムをp、現フレームに対する第1検出器102の検出結果の対象領域の色ヒストグラムをqとし、色ヒストグラムp、qの各ビンをp、qとすると、2つの正規化色ヒストグラムの類似度Sは次式で表される。
Figure 2014071832
さらにまた未検出判定部103は、上述した複数の指標を組み合わせて未検出が存在するかどうかを判定してもよい。
第2検出器104は、第1検出器102とは性能が異なる検出器であり、画像取得部101により得られた画像から、検出対象物201の位置を検出する。性能が異なるとは、検出に用いるパラメータ(例えば、解像度、画像の分割サイズ、次元数等)の違い、検出に用いる特徴量(例えば、HOG、CoHOG、LBP、edgelet、Haar、Joint-Haar等)の違い、検出器の学習に用いる学習手法(例えば、SVM、boosting、random trees、k-NN、Perceptron、Passive Agressive、AROW、Confidence weighted等)の違い、検出対象物のうち検出に用いるパーツ(例えば、対象物が人物であれば上半身・下半身・顔、対象物が車であれば正面・側面・後面・上面部分など)の違いにより、ある検出対象物201について一方の検出器で検出できる物体が他方では検出できない、もしくはその逆など、検出性能に違いがあることである。
第2検出器104は、例えば図4に示すように、未検出判定部103により現フレームに対する第1検出器102の検出結果に未検出が存在すると判定された場合に、前フレームの検出矩形402の上下左右に予め定めたサイズのマージン領域を付加して前フレームの検出結果周辺領域401を設定する。設定した前フレームの検出結果周辺領域401の中で、検出窓領域200を少しずつずらして走査し、画像中における検出対象物201の位置を検出する。第2検出器104は、例えば第1検出器102とパラメータが異なる検出器でもよい。この場合例えば、第1検出器102に、上記の“Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: “Co-occurrence Histograms of Oriented Gradients for Human Detection”, IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010).”に開示されている技術を用い、第1検出器102では画像を6 pixel × 6 pixelに分割して輝度勾配共起ヒストグラムを生成した場合、第2検出器104は、画像を4 pixel × 4 pixelに分割して輝度勾配共起ヒストグラムを生成する検出器でもよい。
また例えば、第2検出器104は、第1検出器102と検出器の学習に用いる学習手法が異なる検出器でもよい。例えば、第1検出器102に上記の“Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: “Co-occurrence Histograms of Oriented Gradients for Human Detection”, IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010).”に開示されている技術を用いた場合、第2検出器は“T. Mita, T. Kaneko and O.Hori, “Joint Haar-like Features for Face Detection”, IEEE International Conference on Computer Vision, pp. 1619-1626, 2005.”に開示されている技術を用いてもよい。
さらに例えば第2検出器104は、第1検出器102とは検出対象物のうち検出に用いるパーツが異なる検出器でもよい。例えば、第1検出器102が人物の上半身を検出する検出器の場合、第2検出器は、人物の下半身を検出する検出器でもよい。他に例えば、第1検出器102が人物の顔検出を行い、第2検出器104が人物の全身検出を行ってもよい。
次に、第1の実施形態に係る物体検出装置の動作について図1及び図5を参照して説明する。なお図5は、第1の実施形態に係る物体検出装置の動作を示すフローチャートである。
まず、画像取得部101が画像を撮影し(S501)、第1検出器102が、その画像について検出窓領域200を少しずつずらしながら、検出窓領域200に検出対象物201が存在するかを判定して、その位置を検出する(S502)。
次に、未検出判定部103が、前フレームの検出結果と現フレームにおける第1検出器102の検出結果を比較し、未検出があるかを判定する(S503)。未検出判定部103が、現フレームに対する第1検出器102の検出結果に、未検出はないと判定した場合(S504)、検出結果出力部111が第1検出器102の検出結果を出力し処理を終了する(S506)。
未検出判定部103が現フレームに対する第1検出器102の検出結果に未検出が存在すると判定した場合(S504)、前フレームの検出矩形402を包含するように検出結果周辺領域401を設定し、検出結果周辺領域401の中に沿って検出窓領域200を少しずつずらして走査し、検出窓領域200内に検出対象物201が存在するかを、第2検出器104を用いて検出する(S505)。その後、検出結果出力部111が第1検出器102の検出結果と第2検出器104の検出結果とを出力し処理を終了する(S506)。
このように、第1の実施形態に係る物体検出装置によれば、第1検出器102の検出結果に未検出がある場合に、前フレームの検出結果周辺に対して第2検出器104を用いることで、未検出数を低減することが可能となる。
以上に示した第1の実施形態によれば、第1検出器の検出結果に未検出が存在するかを判定し、未検出が存在すると判定された場合には、第1検出器とは性能の異なる第2検出器を用いることによって、未検出を低減することができる。
(第2の実施形態)
第2の実施形態の物体検出装置600は、第1の実施形態の装置部分に加え、学習部602を備えることが異なる。また第2検出器601は、学習部602からデータをフィードバックするので、第1の実施形態の第2検出器104とはこのフィードバックする点が異なる。
第2の実施形態に係る物体検出装置600について図6を参照して説明する。
学習部602は、画像取得部101により得られた現フレームの画像からポジティブデータとネガティブデータとを決定して収集し、収集したデータから算出した特徴量を用いて、第2検出器601が検出対象物201を検出するための辞書と呼ばれるパラメータを更新する。学習部602はこれらのパラメータを記憶している。ポジティブデータとネガティブデータとは、第1検出器102の検出結果と第2検出器601の検出結果と(またはどちらかの検出結果)を用いて決定される。学習部602は、例えば図7のように第1検出器102の検出結果と第2検出器601の検出結果と(またはどちらかの検出結果)の領域701から算出した特徴量の情報をポジティブデータとし、また第1検出器102の検出結果と第2検出器601の検出結果と(またはどちらかの検出結果)の領域701をランダムな値だけ上下、左右にずらした領域702から算出した特徴量の情報をネガティブデータとする。例えば、第1検出器102または第2検出器601の検出結果の領域701の左上の座標を(X,Y)とすると、ネガティブデータの領域702の左上の座標(X,Y)は次式で表される。
Figure 2014071832
ここでδ、δは、ランダムに定めた値である。ポジティブデータとは検出対象物201を含む領域701から算出した特徴量の情報であり、ネガティブデータとは検出対象物201を含まない、もしくは部分的に含む領域702から算出した特徴量の情報である。これらのポジティブデータとネガティブデータから、特徴量を変数とした空間において、ポジティブデータになる場合とネガティブデータになる場合との境界線(一般には境界となる超平面。特徴量の次元に依存する。)を決定することができる。
特徴量の情報を算出するには、例えば、前述の“Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: “Co-occurrence Histograms of Oriented Gradients for Human Detection”, IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010).”に開示されている技術を用いる。また辞書の更新には、オンライン学習と呼ばれる手法を用いる。例えば、“Koby Crammer, Arex Kulesza, Mark Dredze : “Adaptive Regularization of Weight Vectors”, Neural Information Processing Systems(2009).”に開示されている方法を用いる。
オンライン学習では、画像取得部101が取得した画像に対する、第1検出器102及び第2検出器601の検出結果から学習部602がパラメータを更新する。画像取得部101が設置環境下で、照明条件等が異なる多様な画像を大量に取得し、学習部602がその画像から学習することで、より画像取得部101の設置環境での検出に適したパラメータを得ることができる。
第2検出器601は、学習部602から更新された辞書(更新されたパラメータ)を入力して、このパラメータを使用して検出対象物201を検出する。検出手法は、第1の実施形態での第1検出器または第2検出器と同様である。
次に、第2の実施形態に係る物体検出装置の動作について図8を参照して説明する。図8は、図5と同一又は相当の部分については同一の符号を付し説明を省略する。第2の実施形態の物体検出装置は、第1の実施形態の物体検出装置の動作に新たに辞書の更新(S801)を追加したものであり、第1の実施形態の物体検出装置とは辞書の更新(S801)がある点が異なる。
辞書の更新(S801)では、第1検出器102と第2検出器601(またはどちらか)によって検出対象物201が検出されると、検出結果の領域701と、その周辺の領域702とから特徴量を算出し、辞書の更新を行う。この処理は、学習部602で行われる。
以上に示した第2の実施形態によれば、照明条件が事前に用意している条件とは異なるなどの理由によって事前に用意するデータでは検出できない物体についても、辞書を更新することによって、物体を検出することが可能となるため、未検出数を低減することが可能となる。
(第3の実施形態)
第3の実施形態の物体検出装置900は、第1の実施形態の装置部分に加え、第1学習部902及び第2学習部602を備えることが異なる。また第3の実施形態の第1検出部901及び第2検出部601はそれぞれ、第1学習部902及び第2学習部602からデータをフィードバックするので、第1の実施形態の第1検出部及び第2検出部とはこのフィードバックする点が異なる。
第3の実施形態では、第1検出器901と第2検出器601とは、検出対象物のうち検出に用いるパーツ(人物の上半身と下半身、車体全体と正面部分など)の違いにより、検出性能が異なる検出器とする。例えば第1検出器901は、人物の上半身の特徴を用いて検出し、第2検出器は人物の下半身を用いて検出する。
第1学習部902は、画像取得部101により得られた現フレームの画像から、第1学習部902が用いるポジティブデータと、第1学習部902が用いるネガティブデータとを決定し収集し、収集したデータから算出した特徴量を用いて、第1検出器901が検出対象物201を検出するための辞書と呼ばれるパラメータを更新する。第1学習部902が用いるポジティブデータと第1学習部902が用いるネガティブデータとは、第1検出器901の検出結果を用いて決定する。図10のように、第1検出器901の検出結果の領域1001、1011から算出した特徴量の情報を第1学習部902が用いるポジティブデータとし、また第1検出器901の検出結果の領域1001、1011をランダムな値だけ上下、左右にずらした領域1012から算出した特徴量の情報を第1学習部902が用いるネガティブデータとする。
また第2学習部602は、画像取得部101により得られた現フレームの画像から第2学習部602が用いるポジティブデータと第2学習部602が用いるネガティブデータを収集し、収集したデータから算出した特徴量を用いて、第2検出器601が検出対象物201を検出するための辞書と呼ばれるパラメータを更新する。第2学習部602が用いるポジティブデータと、第2学習部602が用いるネガティブデータとは、第2検出器601の検出結果を用いて決定する。図10のように、第2検出器601の検出結果の領域1002、1021から算出した特徴量の情報を第2学習部602が用いるポジティブデータとし、また第2検出器601の検出結果の領域1002、1021をランダムな値だけ上下、左右にずらした領域1022から算出した特徴量の情報を第2学習部602が用いるネガティブデータとする。特徴量の情報を算出するには、例えば、前述の“Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: “Co-occurrence Histograms of Oriented Gradients for Human Detection”, IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010).”に開示されている技術を用いる。また、辞書の更新には、例えば、“Koby Crammer, Arex Kulesza, Mark Dredze : “Adaptive Regularization of Weight Vectors”, Neural Information Processing Systems(2009).”に開示されているオンライン学習と呼ばれる手法を用いる。
第3の実施形態に係る物体検出装置の動作について図11を参照して説明する。図11は、図5と同一又は相当の部分については同一の符号を付し説明を省略する。第3の実施形態の物体検出装置900は、第1の実施形態の物体検出装置100に新たに第1検出器901が用いる辞書の更新(S1102)と第2検出器601が用いる辞書の更新(S1101)を追加したものであり、第1の実施形態とは第1検出器901が用いる辞書の更新(S1102)と第2検出器601が用いる辞書の更新(S1101)がある点が異なる。
第1検出器901が用いる辞書の更新(S1102)では、第1検出器901によって検出対象物201が検出されると、第1検出器901の検出結果の領域1001と、その周辺の領域1012から特徴量を算出し、第1検出器901が用いる辞書の更新を行う。この処理は第1学習部902で行われる。
第2検出器601が用いる辞書の更新(S1101)では、第2検出器601によって検出対象物201が検出されると、第2検出器601の検出結果の領域1002と、その周辺の領域1022から特徴量を算出し、第2検出器601が用いる辞書の更新を行う。この処理は第2学習部602で行われる。
以上に示した第3の実施形態によれば、第2の実施形態の効果に加え、複数の検出器ごとに検出に用いるパーツを異ならせることにより、片方のパーツに隠れが生じていても他方のパーツで検出することができるため、未検出数を低減することが可能となる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
100,600,900・・・物体検出装置、101・・・画像取得部、102,901・・・第1検出器、103,302,304・・・未検出判定部、104,601・・・第2検出器、111・・・検出結果出力部、200・・・検出窓領域、201・・・検出対象物、401・・・前フレームの検出結果周辺領域、402・・・前フレームの検出矩形、602・・・学習部、第2学習部、701,1011,1021・・・ポジティブデータが関連する領域、702,1012,1022・・・ネガティブデータが関連する領域、902・・・第1学習部、1001,1002・・・検出結果の領域。

Claims (10)

  1. 時系列順の複数フレームを取得する取得部と、
    前記フレームごとに、予め決められた対象物を検出する第1検出器と、
    前記フレームごとに検出結果を記憶し、第1フレームでの検出結果と、第1フレーム以降の第2フレームでの第1検出器の検出結果とを比較し、前記第2フレームに未検出の対象物が存在するかどうかを判定する判定部と、
    未検出の検出対象物が存在すると判定された場合には、前記フレームごとに対象物を検出する、前記第1検出器とは性能が異なる第2検出器と、を具備する物体検出装置。
  2. 前記第1検出器の検出結果と前記第2検出器の検出結果とを記憶する記憶部をさらに具備し、
    前記判定部は前記第2検出器の第2フレームの検出結果と、第2フレーム以降の第3フレームでの第1検出器の検出結果とを比較し、前記第3フレームに未検出の対象物が存在するか否かを判定する請求項1記載の物体検出装置。
  3. 前記判定部は、前記第2フレームとして現フレームを採用し、前記第1フレームとして該現フレームよりも以前の前フレームを採用し、現フレームで検出された検出対象物の第1数と、前フレームで検出された検出対象物の第2数とを比較し第1数よりも第2数が多い場合に、現フレームに未検出の検出対象物が存在していると判定する請求項1または2に記載の物体検出装置。
  4. 前記判定部は、前記第2フレームとして現フレームを採用し、前記第1フレームとして該現フレームよりも以前の前フレームを採用し、現フレームで検出された検出対象物の位置と、前フレームで検出された該検出対象物の位置との距離が閾値より大きい場合に、現フレームに未検出の検出対象物が存在していると判定する請求項1または2に記載の物体検出装置。
  5. 前記判定部は、前記第2フレームとして現フレームを採用し、前記第1フレームとして該現フレームよりも以前の前フレームを採用し、前フレームで検出された検出対象物を包含する第1領域と、現フレームで検出された該検出対象物を包含する第2領域との和集合である第3領域に対する、第1領域と第2領域との積集合である第4領域の割合が閾値より小さい場合に、現フレームに未検出の検出対象物が存在していると判定する請求項1または2に記載の物体検出装置。
  6. 前記判定部は、前記第2フレームとして現フレームを採用し、前記第1フレームとして該現フレームよりも以前の前フレームを採用し、現フレームで検出された検出対象物の第1色と、前フレームで検出された該検出対象物の第2色との類似度が閾値よりも小さい場合に、現フレームに未検出の検出対象物が存在していると判定する請求項1または2に記載の物体検出装置。
  7. 前記第2フレームでの検出対象物を含む第1領域と、該第2フレームでの検出対象物の部分を含むまたは検出対象物を含まない第2領域とから算出した特徴量の情報を用いて、検出に使用するパラメータを更新する学習部をさらに具備し、
    前記第2検出器は、前記パラメータを使用してフレームごとに検出対象物が存在しているかどうかを判定する請求項1に記載の物体検出装置。
  8. 前記第1領域は前記第1検出器及び前記第2検出器のいずれか1つ以上から検出された領域であり、前記第2領域は該第1領域からランダムに移動した領域である請求項7に記載の物体検出装置。
  9. 前記学習部は、オンライン学習により前記パラメータを更新する請求項7に記載の物体検出装置。
  10. 時系列順の複数フレームを取得し、
    前記フレームごとに、予め決められた対象物を検出し、
    前記フレームごとに検出結果を記憶し、第1フレームでの検出結果と、第1フレーム以降の第2フレームでの第1検出器の検出結果とを比較し、前記第2フレームに未検出の対象物が存在するかどうかを判定し、
    未検出の検出対象物が存在すると判定された場合には、前記予め決められた対象物を検出した検出装置とは異なる性能による検出装置によって前記フレームごとに対象物を検出する、物体検出方法。
JP2012219715A 2012-10-01 2012-10-01 物体検出装置及びその検出方法 Pending JP2014071832A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012219715A JP2014071832A (ja) 2012-10-01 2012-10-01 物体検出装置及びその検出方法
US14/039,499 US9489737B2 (en) 2012-10-01 2013-09-27 Object detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012219715A JP2014071832A (ja) 2012-10-01 2012-10-01 物体検出装置及びその検出方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017087317A Division JP2017146990A (ja) 2017-04-26 2017-04-26 物体検出装置及びその検出方法

Publications (1)

Publication Number Publication Date
JP2014071832A true JP2014071832A (ja) 2014-04-21

Family

ID=50385256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012219715A Pending JP2014071832A (ja) 2012-10-01 2012-10-01 物体検出装置及びその検出方法

Country Status (2)

Country Link
US (1) US9489737B2 (ja)
JP (1) JP2014071832A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017516197A (ja) * 2015-03-31 2017-06-15 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 交通標識を認識する方法及び装置
KR20180070258A (ko) * 2016-12-16 2018-06-26 기아자동차주식회사 주행상황에서의 동시적 물체 인식 및 학습 방법
WO2020049935A1 (ja) * 2018-09-05 2020-03-12 日本電産株式会社 物体認識装置および物体認識方法
WO2022070573A1 (ja) * 2020-09-29 2022-04-07 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6482195B2 (ja) * 2014-07-02 2019-03-13 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP7091199B2 (ja) * 2018-09-12 2022-06-27 株式会社東芝 画像処理装置、方法及びプログラム
EP4064120B1 (en) * 2021-03-25 2023-07-26 Axis AB Method for determining images plausible to have a false negative object detection
US12008814B2 (en) * 2021-05-11 2024-06-11 Objectvideo Labs, Llc Adjusting areas of interest for motion detection in camera scenes

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006508461A (ja) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド 顔検出及び顔追跡
JP2008262331A (ja) * 2007-04-11 2008-10-30 Toshiba Corp オブジェクト追跡装置およびオブジェクト追跡方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6493041B1 (en) * 1998-06-30 2002-12-10 Sun Microsystems, Inc. Method and apparatus for the detection of motion in video
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
GB2376826A (en) * 2001-06-19 2002-12-24 Sony Uk Ltd Detecting data by accumulating pixel values in several versions of a datablock
US7956889B2 (en) * 2003-06-04 2011-06-07 Model Software Corporation Video surveillance system
GB2409031A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
JP2007534008A (ja) * 2004-02-26 2007-11-22 メディアガイド・インコーポレイテッド 放送音声またはビデオプログラム信号の自動検出及び識別のための方法及び装置
US8028961B2 (en) * 2006-12-22 2011-10-04 Central Signal, Llc Vital solid state controller
WO2009111498A2 (en) * 2008-03-03 2009-09-11 Videoiq, Inc. Object matching for tracking, indexing, and search
JP5253195B2 (ja) 2009-01-20 2013-07-31 セコム株式会社 物体検出装置
WO2011102416A1 (ja) * 2010-02-19 2011-08-25 株式会社 東芝 移動物体追跡システムおよび移動物体追跡方法
US8660238B1 (en) * 2010-06-04 2014-02-25 Martin Annis Patent Trust - 2009 Method for detecting a nuclear weapon in a shipping container or other vehicle using x-rays
CN103210332B (zh) * 2011-04-18 2015-09-30 松下电器(美国)知识产权公司 摄像装置、摄像装置的对焦控制方法及集成电路
US9111130B2 (en) * 2011-07-08 2015-08-18 Microsoft Technology Licensing, Llc Facilitating face detection with user input
US8873813B2 (en) * 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities
US8842881B2 (en) * 2012-04-26 2014-09-23 General Electric Company Real-time video tracking system
US9292923B2 (en) * 2013-03-06 2016-03-22 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to monitor environments
US20140354859A1 (en) * 2013-05-29 2014-12-04 Qualcomm Incorporated Automatic banding correction in an image capture device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006508461A (ja) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド 顔検出及び顔追跡
JP2008262331A (ja) * 2007-04-11 2008-10-30 Toshiba Corp オブジェクト追跡装置およびオブジェクト追跡方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山下 隆義、外3名: ""Real AdaBoostを利用したOnline Boostingによる人物追跡"", 情報処理学会研究報告, vol. 2007, no. 31, JPN6016031686, 20 March 2007 (2007-03-20), JP, pages 85 - 92, ISSN: 0003381342 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017516197A (ja) * 2015-03-31 2017-06-15 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 交通標識を認識する方法及び装置
KR20180070258A (ko) * 2016-12-16 2018-06-26 기아자동차주식회사 주행상황에서의 동시적 물체 인식 및 학습 방법
KR102540393B1 (ko) 2016-12-16 2023-06-07 현대자동차주식회사 주행상황에서의 동시적 물체 인식 및 학습 방법
WO2020049935A1 (ja) * 2018-09-05 2020-03-12 日本電産株式会社 物体認識装置および物体認識方法
WO2022070573A1 (ja) * 2020-09-29 2022-04-07 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JPWO2022070573A1 (ja) * 2020-09-29 2022-04-07
JP7542639B2 (ja) 2020-09-29 2024-08-30 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
US20140093129A1 (en) 2014-04-03
US9489737B2 (en) 2016-11-08

Similar Documents

Publication Publication Date Title
JP2014071832A (ja) 物体検出装置及びその検出方法
CN109670396B (zh) 一种室内老人跌倒检测方法
Işık et al. SWCD: A sliding window and self-regulated learning-based background updating method for change detection in videos
US8406470B2 (en) Object detection in depth images
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
Budzan et al. Fusion of 3D laser scanner and depth images for obstacle recognition in mobile applications
CN102609720B (zh) 一种基于位置校正模型的行人检测方法
CN111191535B (zh) 基于深度学习的行人检测模型构建方法及行人检测方法
JP2021518950A (ja) ビデオ異常検出のためのシステム及び方法
KR101995523B1 (ko) 객체 검출 장치 및 방법
JP2012084012A (ja) 画像処理装置、その処理方法及びプログラム
Gunale et al. Fall detection using k-nearest neighbor classification for patient monitoring
KR101699014B1 (ko) 스테레오 카메라를 이용한 객체 검출 방법 및 장치
Negri et al. Detecting pedestrians on a movement feature space
CN112989911A (zh) 一种行人再识别方法及系统
KR101337423B1 (ko) 깊이 정보와 움직임 정보를 이용한 움직임 객체 검출 및 추적방법
JP6080572B2 (ja) 通行物体検出装置
Herranz-Perdiguero et al. In pixels we trust: from pixel labeling to object localization and scene categorization
Yan Using the improved SSD algorithm to motion target detection and tracking
JP2017146990A (ja) 物体検出装置及びその検出方法
Smith et al. Resolving hand over face occlusion
KR20090099349A (ko) 다중 기울기 히스토그램을 이용한 사람 탐색 및 추적시스템
CN107545270A (zh) 一种目标检测方法及系统
KR101407070B1 (ko) 영상기반 사람 검출을 위한 특징 추출 방법 및 장치
US12367605B2 (en) Image processing apparatus, control method thereof, and image capturing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170131