JP3629236B2 - Object image tracking method and program - Google Patents
Object image tracking method and program Download PDFInfo
- Publication number
- JP3629236B2 JP3629236B2 JP2001374819A JP2001374819A JP3629236B2 JP 3629236 B2 JP3629236 B2 JP 3629236B2 JP 2001374819 A JP2001374819 A JP 2001374819A JP 2001374819 A JP2001374819 A JP 2001374819A JP 3629236 B2 JP3629236 B2 JP 3629236B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- template
- tracking
- value
- correlation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 69
- 239000011159 matrix material Substances 0.000 claims description 36
- 239000013598 vector Substances 0.000 claims description 35
- 238000011156 evaluation Methods 0.000 claims description 30
- 238000012545 processing Methods 0.000 description 49
- 230000008569 process Effects 0.000 description 28
- 238000004364 calculation method Methods 0.000 description 22
- 239000000872 buffer Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000009825 accumulation Methods 0.000 description 6
- 230000015556 catabolic process Effects 0.000 description 6
- 238000006731 degradation reaction Methods 0.000 description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013001 matrix buffer Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像中の物体の移動(動き)をテンプレートマッチングを利用して追跡する物体画像追跡方法及びプログラムに関する。より詳しくは、テンプレートマッチングにおける追跡精度の向上に関する。
【0002】
【従来の技術】
画像処理の分野において、テンプレートマッチングは参照画像中の点または領域が対象画像中のどの点または領域と対応するかを見つけ出す基本的な方法として頻繁に利用されている。例えば、動画像中に描出される物体の移動(動き)を追跡する目的で、先頭の画像フレーム(以下、単に「フレーム」という)における物体領域全体またはその一部をテンプレート画像として定め、該テンプレート画像と似た画像領域(相関の高い領域)が次のフレーム中のどこにあるかを探し出すことで、移動先を判断するというものである。
【0003】
このような動画像における移動物体追跡は、物体の変形の影響を強く受けてテンプレート画像とその対応画像との相関値が低下してしまうことが問題になる。例えば、物体全体に相当する画像を一つのテンプレート画像として用いた場合などにその影響は顕著となる。したがって、物体領域内に適当な数の追跡点を限定的に定め、このような追跡点を含む適当なサイズのテンプレート画像のそれぞれについてテンプレートマッチングを行い、これらテンプレートマッチングの結果から総合的に物体の移動先を判断することが行われている。ここで、追跡点の数(テンプレート画像の数)はなるべく少なくしたほうが計算時間の向上に有利であることから、精度の高い追跡点を選択する方法を見いだすことが一つの問題である。
【0004】
また別の問題として、テンプレートの更新方法がある。追跡の初期においては、先頭のフレームにおける追跡点周辺の画像をテンプレート画像として用いるが、このテンプレート画像を使って追跡を行い続けると、追跡対象の物体画像の変形が無視できないほど大きくなり、やがては追跡に失敗してしまう。一方、テンプレートマッチングを行うことで新しい画像中の追跡点を推定できるが、毎回、新しい追跡点周辺の画像をテンプレート画像として更新すると、追跡点の位置の推定誤差が蓄積し、徐々に追跡性能が劣化してしまう。すなわち、テンプレートマッチングの精度向上のためには、テンプレート画像を適切に定めることに加え、適切なタイミングでテンプレート画像を更新することが必要である。
【0005】
しかしながら、従来用いられているテンプレート画像の更新方法は発見的な手法ばかりであり、いずれも有効であるとは言い難い。例えば、一定のフレーム間隔で強制的にテンプレート画像を更新する方法や、テンプレートマッチングで得られた相関値または非相関値と、予め定められた閾(しきい)値との比較に基づいて更新の要否を判定する方法(参考文献:”Recognition of Space−Time Gestures using a Distributed Representation”, by T.J.Darrell and A.P.Pentland, Technical report No.197, Media Laboratory, Massachusetts Institute of Technology, 1993)などである。
【0006】
一定のフレーム間隔で強制的にテンプレート画像を更新する前者の方法は、テンプレート画像の更新間隔を画像の変形の速さや画像に加わるノイズの大きさとは無関係に決定するので、変形による追跡性能の劣化も誤差の蓄積による性能の劣化も根本的には解決しない。例えば、変形の激しさの割に長い更新間隔が設定されている場合には、やがて追跡に失敗することになるし、変形のほとんどない動画像に対して頻繁にテンプレート画像を更新すると誤差の蓄積が避けられない。
【0007】
一方、相関値または非相関値としきい値との比較に基づいてテンプレート画像更新の要否を判定する後者の方法は、予め入力される動画像における変形やノイズの特徴が十分にわかっている場合には有効であるが、かかる特徴を事前に知り得ない不特定多数の画像を対象とするような場合には、適切なしきい値の設定が事実上不可能である。設定されたしきい値が不適切である場合、前者の方法と同様に、変形による追跡性能の劣化や誤差の蓄積による性能の劣化が避けられない。
【0008】
以上述べたことから、従来、テンプレートマッチングに基づく移動物体追跡の精度が十分に達成されていないという問題がある。したがって、入力された動画像に対し、変形による追跡性能の劣化と誤差の蓄積による性能の劣化のトレードオフを考慮して適応的にテンプレート画像の更新のタイミングを決定する物体画像追跡方法の提供が求められている。
【0009】
【発明が解決しようとする課題】
本発明はかかる事情を考慮してなされたものであり、テンプレート画像を適切なタイミングで更新し、動画像中の物体追跡を高精度に行うことのできる物体画像追跡方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
上記課題を解決し目的を達成するために本発明は次のように構成されている。
【0011】
本発明に係る物体画像追跡方法は、第1の画像フレームにおける物体上の追跡点を含む第1のテンプレート画像を定め、第2の画像フレームにおける前記追跡点の対応点をテンプレートマッチングにより追跡したのち、第3の画像フレームにおける前記追跡点の対応点を追跡するにあたり第1のテンプレート画像から第2のテンプレート画像へのテンプレート画像更新の要否を判定する物体画像追跡方法であって、前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第1探索画像領域と、該第1のテンプレート画像との相関値又は非相関値から第1の評価値を算出するステップと、前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第2の画像フレームにおいて追跡される前記対応点を含む第2探索画像領域と、該第1のテンプレート画像との相関値又は非相関値、および、該第2探索画像領域を第2のテンプレート画像として用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第3探索画像領域と、該第2のテンプレート画像との相関値又は非相関値の両者から第2の評価値を算出するステップと、前記第1及び第2の評価値同士の比較に基づいて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定するステップと、を具備することを特徴とする。
【0012】
また、本発明に係る物体画像追跡プログラムは、第1の画像フレームにおける物体上の追跡点を含む第1のテンプレート画像を定め、第2の画像フレームにおける前記追跡点の対応点をテンプレートマッチングにより追跡したのち、第3の画像フレームにおける前記追跡点の対応点を追跡するにあたり、第1のテンプレート画像から第2のテンプレート画像へのテンプレート画像更新の要否を判定する物体画像追跡プログラムであって、コンピュータに、前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第1探索画像領域と、該第1のテンプレート画像との相関値又は非相関値から第1の評価値を算出するステップと、前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第2の画像フレームにおいて追跡される前記対応点を含む第2探索画像領域と、該第1のテンプレート画像との相関値又は非相関値、および、該第2探索画像領域を第2のテンプレート画像として用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第3探索画像領域と、該第2のテンプレート画像との相関値又は非相関値の両者から第2の評価値を算出するステップと、前記第1及び第2の評価値同士の比較に基づいて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定するステップと、複数の前記追跡点のそれぞれについて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定し、該更新を要する旨判定された割合が所定の閾値を超過した際に、全ての前記追跡点についてテンプレート画像を更新するステップと、を実行させるためのプログラムである。
【0013】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施形態を説明する。
【0014】
(第一実施形態)
図1は本発明の第一実施形態に係る物体画像追跡装置の概略構成を示すブロック図である。図1において、101は追跡処理を行うコンピュータを示している。このコンピュータ101は、本発明に係る物体画像追跡処理を実現するプログラムやデータ等を記憶する主記憶装置102と、この主記憶装置102からプログラムやデータを読み出して計算及び制御を行う中央処理装置103を主として構成される。コンピュータ101は専用装置である必要はなく、PCやWS等の汎用のコンピュータを用いることができるが、少なくとも処理対象である画像(動画像)を取り込んで処理することが可能な程度の性能を有していることが必要である。
【0015】
104は、処理の高速化や中央処理装置103の負荷軽減のために設けられ、専ら動画像特有の処理(例えば、圧縮画像の伸張など)を行う動画像再生装置である。この動画像再生装置104は本発明との関係においては必須の構成要素ではない。
【0016】
105は表示装置であり、ブラウン管モニタや液晶モニタなどに相当する。また106は指示入力装置であり、キーボードやマウス、タッチパネルなどに相当する。ユーザは指示入力装置106を使って追跡の指示や追跡領域の指定等を行う。
【0017】
107は動画像データ用の記録媒体であり、追跡処理対象の動画像データを記録した光ディスク、磁気ディスク、あるいは磁気テープなどの大容量記録媒体からなる。
【0018】
この記録媒体107は、図1に示すようにコンピュータ101の外部に設けられているが、同コンピュータ101の内部に設けられていてもよい。
【0019】
108は追跡結果データを記録しておくための記録媒体である。追跡処理を行った結果、得られた物体の領域情報とその時刻(またはフレーム番号)情報が対応付けられて記録される。なお、記録媒体107及び108は図1に示すように別々の記録媒体としても、同一の記録媒体としても良い。
【0020】
次に、本実施形態に係るテンプレートマッチング法を用いた移動物体追跡処理について説明する。図2はこの移動物体追跡処理を実現する処理の一例を示すフローチャートである。
【0021】
まずステップS201では、追跡対象となる映像中の先頭のフレームにおいて、追跡したい映像領域の指定を行う。この処理は、映像の表示を見ながらマウスやタッチパネルなどの入力機器を用いてユーザが行う。なお、動画像を固定カメラから得る場合などは、画素ごとの変化量を算出し、所定のしきい値以上の変化があった画素領域を移動物体領域として抽出する背景差分法などを用いることで、ユーザの指示なしに自動的に領域指定が行えるよう構成しても良い。
【0022】
次に、ステップS202では先頭フレームからの追跡点選択処理を行う。先のステップS201で指定された映像領域中から、実際にテンプレートマッチングにより追跡を行う画素の選択を行う。通常、この処理では追跡に適した追跡点が選ばれる。そのための方法としては、例えば、追跡点周辺の画素値の分散が大きい点を選ぶ方法やコーナー点を選ぶ方法がある。また、特開2001−062567号公報で提案されている方法として、推定された誤りの大きさの平均値が小さい点を選択する方法などがある。
【0023】
ステップS203はステップS202において選択された追跡点についての追跡処理(テンプレートマッチング)である。ここでは、すでに先頭フレームにおける追跡点に対応する位置がわかっているフレーム(参照フレーム)と、これから対応点を求めたいフレームとの間におけるテンプレートマッチングに基づいて追跡を行う。参照フレームにおけるテンプレート画像と、フレームにおける対応点候補の周辺画像領域との相関値(または非相関値)を算出し、最も相関値の高い(または最も非相関値の低い)対応点候補を追跡点の対応点であると判定する。相関値としては画像間の相関係数を用いることができ、また非相関値としては画素値の差分の二乗和、画素値の絶対値差分の和、(画素値の分散による)正規化した画素値の差分の二乗和などを用いることができる(参考文献:「画像処理ハンドブック」,東京大学出版会,1991年)。テンプレートマッチングに用いるテンプレート画像としては、本実施形態では追跡点の周辺領域に相当する画像部分を用いることとするが、処理を簡単にするために、追跡点を中心とするブロック領域を用いることも多く、この場合は、通常、テンプレートマッチングではなく「ブロックマッチング」と呼ばれる。
【0024】
しかし、任意の形状のテンプレート画像を用いてもこの後説明する処理は実現可能である。以下では、任意のフレームにおける先頭フレームの追跡点の推定対応点も単に追跡点と呼ぶ。任意の時点での追跡点とテンプレート画像は1対1に対応するため、両者を同一に扱うことがある。また、テンプレート画像を単にテンプレートとも呼ぶことにする。
【0025】
ステップS204は追跡結果の修正処理である。ステップS203で行った追跡処理(テンプレートマッチング)では、個々の追跡点の移動先は必ずしも正しく推定されているとは限らない。そこで、フレーム全体の追跡結果を見ながら誤っていると思われる追跡結果を修正する処理を行う。この処理には様々な手法が適用できる。例えば、物体の変形モデルを用意しておき、ロバスト推定に基づいて各追跡点の移動先を決定する手法(特開2000−132691号公報)である。当該ステップS204は省略することも可能である。
【0026】
ステップS205では、追跡処理を継続するか否かを判定する。追跡対象の全フレームについての処理が終了した場合、追跡対象領域が画像外に移動した場合、追跡結果の信頼性が低い場合などが追跡処理の終了条件である。
【0027】
ステップS206はテンプレートの更新判定処理である。ここでは、ステップS203の追跡処理で用いたテンプレートを保持するか、もしくはより新しいテンプレートに更新するかを判定する。本実施形態の特徴は、このテンプレート更新の判定方法にあるので、当該処理については後に詳細に説明する。
【0028】
ステップS207はテンプレートの更新処理である。ステップS206で更新が必要であると判定された場合に限り、テンプレートの更新を行う。
【0029】
ステップS208は画像の更新処理である。新たに追跡点の移動先を求めたいフレームが読み込まれた後、ステップS203以降の処理が繰り返される。
【0030】
以上の処理により、追跡領域の代表として選ばれた追跡点の各フレームにおける移動先が決定される。各々の追跡点の移動先(対応点)により構成される領域が必要な場合は、追跡点の移動の仕方から領域全体の変形を推定し、推定された変形を先頭フレームの追跡領域に施す処理を行えばよい。例えば、変形モデルとしてアフィン変換を仮定し、追跡点の移動から6つのアフィン変換のパラメータを(最小2乗法などの手法で)推定し、推定されたアフィン変換によって先頭フレームの追跡領域を変形することができる。
【0031】
次に、テンプレートマッチングの非相関値として画素値の差分の二乗和を使い、テンプレートマッチングで生じるであろう誤差ベクトル(正しい対応点からテンプレートマッチングにより推定された対応点へのベクトル)の確率分布を事前に推定し、その分布から分散共分散行列を推定してテンプレート更新判定に用いる方法について説明する。本実施形態では追跡点が1つだけしか存在しない場合について説明を行う。これは、追跡対象となる物体領域が非常に小さく、特徴点を複数選択できない場合や、領域が平行移動することが予め分かっていて、一つの特徴点の軌跡をもとに全体の軌跡を特定できる場合などを想定している。
【0032】
図3及び図4は誤差ベクトルの分散共分散行列を説明するための図である。 図3はテンプレートを更新しない場合に生じるであろう誤差ベクトルのばらつきを説明するための図である。この図3においては、紙面左から右方向に沿って時系列にフレームが並べて示してあり、f0は先頭のフレーム、fは最新のフレーム、f1はフレームfの直前のフレーム、fnは未入力のフレームである。また、T1はテンプレート(画像)であり、フレームf0に含まれる。図3では、テンプレートの更新を行わないことを仮定しているので、フレームf0のテンプレートT1を使ってフレームfnを対象にテンプレートマッチングを行い、該フレームfnにおける追跡点の対応点を直接、推定する。305はこのときのテンプレートマッチングで生じる誤差ベクトルの分散共分散を表現しており、同図に示す楕円は等確率線を意味する。したがって、楕円が大きいほど誤差ベクトルのばらつきが大きいことを示す。
【0033】
一方、図4は、テンプレートを更新した場合の誤差ベクトルのばらつきを説明するための図である。図3と同様に、f0は先頭のフレーム、fは最新のフレーム、f1はフレームfの直前のフレーム、fnは未入力のフレームである。そして図4において、T0はフレームf0のテンプレートであり、T1はフレームf1のテンプレートである。つまり、フレームf0のテンプレートT0からフレームf1のテンプレートT1へのテンプレートの更新が行われている。この図4の場合には、一度、フレームf0のテンプレートT0を使ってフレームf1における追跡点の対応点を推定した後、再び、フレームf1における新しいテンプレートT1を使ったテンプレートマッチングによりフレームfnにおける追跡点の対応点を推定する。したがって、2回のテンプレートマッチングの結果としてフレームfnにおける追跡点の対応点が求められることになり、フレームf0からフレームfnまでの間に生じた誤差ベクトルは、フレームf0からf1の間で生じた誤差ベクトルと、フレームf1からfnの間で生じた誤差ベクトルとの和に相当する。図4において、405はフレームf0からf1の間で生じた誤差ベクトルの分散共分散を、406はフレームf1からfnの間で生じた誤差ベクトルの分散共分散を表現している。2つの誤差ベクトルが独立に生じる場合には、フレームf0からfnまでの間に生じた誤差ベクトルの分散共分散は、これら二つの分散共分散行列の和となる。
【0034】
以上の解釈に基づき、テンプレート更新の判定を行う場合のステップS206における処理およびデータの流れを示しているのが図5である。図5において、テンプレートマッチング部500はテンプレートマッチングを行う処理部であって、フレームf0のテンプレートT0を用いてi番目のフレームfに対してテンプレートマッチングを行い、この際に得られた情報として、探索範囲内の相関値(または非相関値)の分布と、ノイズの分散の推定値を分散共分散行列算出部501に送る。ノイズの分散の推定値は、最も相関値の高い(または非相関値の低い)対応点における画素値の二乗平均として求める。通常、この処理部500における処理内容の大部分はステップS203と同一であるため、ステップS203の処理結果を保持しておき、直接、分散共分散行列算出部501に入力するほうが効率的である。
【0035】
分散共分散行列算出部501はテンプレートマッチング部500から入力された情報をもとに、第1の評価値としての分散共分散行列V0(i)を算出する処理部である。ここで算出される分散共分散行列とは、フレームf0のテンプレートT0を使い、これから入力される新しい画像に対してテンプレートマッチングを行った場合の誤差ベクトルの推定分散共分散行列である。新しく入力される画像は、フレームfにランダムノイズが加わった画像であると仮定し、誤差ベクトルeが生じる確率をP0(e)と表記する。この確率はテンプレートマッチング部500からの入力である非相関値の分布とノイズの分散の推定値により推定されるが、その方法については後で説明することにする。Sを探索範囲内で生じる誤差ベクトルの集合と定義すると分散共分散行列は、
【数1】
により算出される。なお、上式においてTは転置行列を表す。この分散共分散行列は、算出部501の出力としてバッファ504およびテンプレート更新判定部505に送られる。
【0036】
テンプレートマッチング部502、および分散共分散行列算出部503は、ほぼテンプレートマッチング部500、および分散共分散行列算出部501とそれぞれ同様の処理を行う処理部である。ただし、テンプレートマッチング部500ではフレームf0のテンプレートT0の代わりにフレームf1のテンプレートT1を用いる点が異なる。また、ステップS203ではT0をテンプレートとしたテンプレートマッチングを行うため、テンプレートマッチング部502の処理はステップS203で代用することができない。また、テンプレートマッチング部502はフレームf1からfの間に生じたノイズの分散を推定し、相関値(または非相関値)の分布とともに分散共分散行列算出部503に送る。
【0037】
分散共分散行列算出部503で行われる処理は分散共分散行列算出部501と全く同じであり、入力が異なるだけである。分散共分散行列算出部503は、フレームf1のテンプレートT1を使い、これから入力される新しい画像に対してテンプレートマッチングを行った場合の誤差ベクトルの推定分散共分散行列、すなわち、
【数2】
を算出し、バッファ504およびテンプレート更新判定部505に送る。ここでP1(e)は、テンプレートT1を用いてこれから入力される新しい画像に対してテンプレートマッチングを行った場合の誤差ベクトルがeである確率であり、P0(e)と同じ方法で推定される。
【0038】
バッファ504は分散共分散行列のバッファであり、算出部501の出力である分散共分散行列V0と算出部503の出力である分散共分散行列V1をそれぞれ1つ保持する。ここで、どの時点で計算された分散共分散行列かを明示するため、i番目のフレームが入力されたときに計算されたV0とV1を、それぞれV0(i)とV1(i)と表記する。すなわち、バッファ504にはV0(i)とV1(i)が入力される。このとき、バッファ504にはi−1番目の画像に対して処理が行われたときに計算されたV0(i−1)とV1(i−1)が記憶されている。バッファ504はi−1番目の画像に対するテンプレート更新判定部505の出力が「更新」である場合にはV1(i−1)を出力し、「非更新」である場合にはV0(i−1)を出力する。この出力(V0(i−1)またはV1(i−1))をV−1(i)と表記する。V−1(i)の出力後、バッファ504はV0(i−1)とV1(i−1)の代わりに入力されたV0(i)とV1(i)を記憶しておく。ここで、バッファ504を用意する理由は、本発明の判定処理では3つの分散共分散行列(図3における305と、図4における406、407)の計算が必要であるが、そのうちの一つ(図4の406)は以前の処理ですでに算出済みであり、それを再利用するためである。
【0039】
判定部505はテンプレート更新の判定処理を行う処理部である。入力は、算出部501からの出力であるV0(i)と、算出部503およびバッファ504からの各々の出力の和すなわち第2の評価値としてのV−1+V1(i)である。V0(i)はテンプレートを更新しない場合の誤差ベクトルのばらつき、V−1(i)+V1(i)はテンプレートを更新した場合の誤差ベクトルのばらつきを表す行列である。これら二つの行列は、関数gによりスカラーに変換され、g(V0(i))>g(V−1(i)+V1(i))ならばテンプレートを「更新」とし、そうでなければテンプレートを「非更新」とする旨の判定結果を出力する。つまり、テンプレートを更新しない場合の誤差ベクトルのばらつきと、テンプレートを更新した場合の誤差ベクトルのばらつきとを本実施形態ではスカラー量で大小比較し、前者が後者よりも大きい場合はテンプレートを更新する旨決定し、そうでない場合はテンプレートを更新しない(非更新)旨決定するのである。
【0040】
なお、スカラー量を与える関数gは、分散共分散行列から算出される任意の関数とすることができる。具体的には2行2列の分散共分散行列を、例えば、
【数3】
とした場合、
【数4】
とすれば、Mの固有値の上限値を得ることができる。この場合、テンプレート更新判定部505ではテンプレートを更新した場合としない場合の誤差ベクトルのばらつきの最悪値を推定し、より小さいばらつきを与える方を選択するようにしている。また、
【数5】
とすればMの平均固有値の上限を得ることもできる。
【0041】
最後に、誤差ベクトルeが生じる確率P0(e)の算出方法について説明する。本実施形態では、P0(e)の推定値として、誤差ベクトルがeとなる確率の上界を用いる。まずフレームf0のテンプレートT0を使ってフレームfに対するテンプレートマッチングを行い、その情報を用いて新たに入力される画像にテンプレートマッチングを行った場合のP0(e)を推定する場合を考える。この場合のP0(e)の上界を計算するため、まず次の画素集合を定義する。
【0042】
【数6】
【0043】
ここで、W(p)は点pを中心とするブロックに含まれる画素集合、vはテンプレートマッチングにより得られた移動ベクトル、上線は補集合を表す。ただし、座標原点はテンプレートT0の中心である。そしてこれらの画素集合ごとに、画素値の差分の2乗和から算出される値、すなわち、
【数7】
を計算する。ただし、f(p)はフレームfにおける点pの画素値、σ2は推定されたノイズの分散の推定値である。次にこれらの算出結果を使い、
【数8】
を計算する。ただし、
【数9】
である。
【0044】
ρによる最大化は必ずしも厳密に行う必要はなく、簡単にはいくつかの用意された0から1の間の値について、最大値を与えるρを選択することで実現される。以上の準備から、P0(e)の上界、すなわち、
【数10】
の右辺が算出される。正確なP0(e)の値は算出不可能なため、上記の右辺をP0(e)の推定値として分散共分散行列の計算に用いる。
【0045】
以上説明した第一実施形態によれば、テンプレートマッチングに基づく追跡処理を行う前に、テンプレートを更新する場合としない場合とのそれぞれについて、テンプレートマッチングに起因する誤差ベクトルのばらつきを表す分散共分散行列を算出し、それぞれの算出結果を比較することで実際にテンプレートを更新するか否かを決定するように構成されている。これにより、入力された動画像に対し、適応的にテンプレート画像の更新のタイミングを決定することができ、変形による追跡性能の劣化と誤差の蓄積による性能の劣化のトレードオフを解決することができる。
【0046】
したがって、テンプレートを適切なタイミングで更新し、動画像中の物体追跡を高精度に行うことのできる物体画像追跡を実現できる。
【0047】
(第二実施形態)
次に、第二の実施形態について説明する。第一の実施形態では、追跡点が一つの場合について本発明に係るテンプレートの更新方法を説明した。第二の実施形態では、複数の追跡点が設定されている場合に、全ての追跡点のテンプレートを一斉に更新する方法を説明する。本実施形態では、追跡点の選択処理(ステップS202)でN個の追跡点が選択されており、それぞれの追跡点に0,1,・・・,N−1の番号が付与されているものとする。また、全てのテンプレートは同じフレームf0の画像の一部である。
【0048】
図6は本実施形態のテンプレートマッチングを用いて移動物体追跡処理を実現する処理の一例を示すフローチャートである。ステップS201〜S205およびステップS208は第一の実施形態で説明した図2の処理と全く同じである。図6では、ステップS206およびS207が、それぞれステップS600およびS601にそれぞれ置き換えられている点が図2と異なっている。
【0049】
ステップS600では全てのテンプレートの更新を行うか否かを判定する処理を行う。すなわち、全ての追跡点のテンプレートを、フレームf0のテンプレートからフレームf1の新しいテンプレートに更新すべきかどうかを判定する。
【0050】
図7はステップS600における処理およびデータの流れを示している。図7に示す700は、図5におけるテンプレートマッチング部500〜バッファ504までの処理を含む処理部であって、番号Iのテンプレートを更新した場合の分散共分散行列と、更新しない場合の分散共分散行列を出力する。701はテンプレート更新の判定部であり、全ての追跡点についての分散共分散行列が入力されると、全てのテンプレートを更新するか、全てのテンプレートを更新しないかの判定を行う。
【0051】
かかる判定は、例えば以下のように行うことができる。まず、それぞれの追跡点について独立にテンプレートを更新すべきか否かを判定する。これは第一の実施形態におけるテンプレート更新判定部505の処理と同じである。次に、全追跡点に対する、更新すべきと判定された追跡点の数の割合を算出する。そして、あらかじめ設定しておいた値(しきい値)よりもこの割合が高ければ全てのテンプレートを更新するものと判定し、そうでなければ全てのテンプレートを更新しないと判定する。
【0052】
ステップS601は、ステップS600においてテンプレートを更新する旨判定された場合に、全ての追跡点のテンプレートをフレームf1のテンプレートに更新する。例えば、テンプレートに供するため一時的に記憶されていたフレームf0をf1に置き換えたり、フレームf0の記憶領域を指し示すポインタをフレームf1を指し示すように変更することで実行される。このとき、テンプレートの位置に関する情報についてもフレームf0のものからf1のものに更新される。
【0053】
本実施形態による複数の追跡点のテンプレート更新方法によれば、全てのテンプレートが同一の画像フレーム上にあるため、テンプレート用のメモリを別途用意する必要がないという利点がある。
【0054】
(第三実施形態)
次に、第三の実施形態について説明する。第二の実施形態では、複数の追跡点が設定されている場合に、全ての追跡点のテンプレートを一斉に更新する方法について説明した。第三の実施形態では、各々のテンプレートを別々のタイミングで更新する方法について説明する。第二の実施形態と同様に、追跡点の選択処理(ステップS202)でN個の追跡点が選択され、それぞれの追跡点に0,1,・・・,N−1の番号すなわちテンプレートの番号が付与されているものとする。
【0055】
図8は本実施形態のテンプレートマッチングを用いて移動物体追跡処理を実現する処理の一例を示すフローチャートである。ステップS201〜S205およびステップS208は第一の実施形態で説明した図2の処理と全く同じである。図8では、ステップS206およびS207が、ステップS800〜S804に置き換えられている点が異なる。
【0056】
ステップS800は番号Iの初期化処理である。番号Iはカウンタから成り、テンプレート更新判定処理の対象となる追跡点の番号が保持される。ここでは、初期値としてIに0を代入する。
【0057】
ステップS801は番号Iの追跡点に対するテンプレート更新判定処理であり、その時点で用いたフレームf0のテンプレートを引き続き用いるか、新しくフレームf1のテンプレートに更新するかを判定する。ここでは第一の実施形態で説明したステップS206における処理と同じ処理を番号Iの追跡点に対して行う。
【0058】
ステップS802は、ステップS801でテンプレートを更新すると判定された場合に、番号Iの追跡点のテンプレートを新しくフレームf1のテンプレートに更新する。ステップS803は全ての追跡点に対してテンプレートの更新判定を行ったかを判定する処理であり、まだ未処理の追跡点があればステップS804のカウンタ更新処理を経て、S801からの処理を繰り返す。
【0059】
このような第三の実施形態によれば、好ましいテンプレート更新のタイミングは追跡点ごとに異なることに鑑み、それぞれの追跡点で独立にテンプレートの更新を行うことができる。但し、本実施形態では、第二の実施形態のようにテンプレートを含む画像一つを記録媒体上に保持しておくのではなく、追跡点ごとに独立にテンプレートを保持しておく必要がある。
【0060】
なお、本発明は上述した実施形態に限定されず種々変形して実施可能である。
【0061】
【発明の効果】
以上説明したように、本発明によれば、テンプレートを更新する場合としない場合とのそれぞれについて、テンプレートマッチングに起因する誤差ベクトルのばらつきを表す分散共分散行列を算出し、それぞれの算出結果を比較することで実際にテンプレートを更新するか否かを決定するので、入力された動画像に対し、適応的にテンプレート画像の更新のタイミングを決定することができ、変形による追跡性能の劣化と誤差の蓄積による性能の劣化のトレードオフを解決することができる。
【0062】
したがって、テンプレートを適切なタイミングで更新し、動画像中の物体追跡を高精度に行うことのできる物体画像追跡を実現できる。また、テンプレート更新判定に用いるパラメータをユーザが予め設定しておくことが不要になり、経験や勘に頼らずとも常に安定した性能が得られるようになることも本発明の有利な効果である。
【図面の簡単な説明】
【図1】本発明の第一の実施形態に係る画像処理装置の概略構成を示すブロック図
【図2】第一実施形態に係る物体追跡処理の流れを示すフローチャート
【図3】テンプレートを更新しない場合に生じる誤差分布を説明するための図
【図4】テンプレートを更新した場合に生じる誤差分布を説明するための図
【図5】第一実施形態におけるテンプレート更新判定処理及びデータの流れを示すブロック図
【図6】本発明の第二の実施形態に係る物体追跡処理の流れを示すフローチャート
【図7】第二の実施形態におけるテンプレート更新判定処理及びデータの流れを示すブロック図
【図8】本発明の第三の実施形態に係る物体追跡処理の流れを示すフローチャート
【符号の説明】
101…コンピュータ
102…主記憶装置
103…中央処理装置(CPU)
104…動画像再生装置
105…表示装置
106…指示入力装置
107…動画像データ
108…追跡結果データ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an object image tracking method and program for tracking movement (motion) of an object in an image using template matching. More specifically, the present invention relates to improvement of tracking accuracy in template matching.
[0002]
[Prior art]
In the field of image processing, template matching is frequently used as a basic method for finding out which point or region in the reference image corresponds to which point or region in the target image. For example, for the purpose of tracking the movement (movement) of an object depicted in a moving image, the entire object region or a part thereof in a leading image frame (hereinafter simply referred to as “frame”) is defined as a template image, and the template The destination of movement is determined by searching where in the next frame an image region similar to the image (region with high correlation) is located.
[0003]
Such tracking of a moving object in a moving image has a problem in that the correlation value between the template image and its corresponding image decreases due to the strong influence of the deformation of the object. For example, when an image corresponding to the entire object is used as one template image, the influence becomes significant. Therefore, an appropriate number of tracking points are limitedly defined in the object region, template matching is performed for each template image having an appropriate size including such tracking points, and the object matching is comprehensively performed based on the template matching results. The destination is determined. Here, it is advantageous for improving the calculation time to reduce the number of tracking points (the number of template images) as much as possible, so finding a method for selecting highly accurate tracking points is one problem.
[0004]
Another problem is how to update the template. In the initial stage of tracking, the image around the tracking point in the first frame is used as a template image.If tracking is continued using this template image, the deformation of the object image to be tracked becomes so large that it cannot be ignored. Tracking fails. On the other hand, tracking points in a new image can be estimated by performing template matching, but every time the image around the new tracking point is updated as a template image, the estimation error of the tracking point position accumulates, and the tracking performance gradually increases. It will deteriorate. That is, in order to improve the accuracy of template matching, it is necessary to update the template image at an appropriate timing in addition to appropriately determining the template image.
[0005]
However, conventionally used template image updating methods are only heuristics, and none of them are effective. For example, a method of forcibly updating a template image at a fixed frame interval, or updating based on a comparison between a correlation value or non-correlation value obtained by template matching and a predetermined threshold (threshold value). Method of determining necessity (reference: “Recognition of Space-Time Gestures using a Distributed Representation”, by T. J. Darrell and A. P. Pentland, Technical report No. aL, et. 1993).
[0006]
The former method for forcibly updating a template image at a fixed frame interval determines the update interval of the template image regardless of the speed of image deformation and the amount of noise added to the image. However, degradation of performance due to error accumulation is not fundamentally resolved. For example, if a long update interval is set for the intensity of deformation, tracking will eventually fail, and if template images are updated frequently for moving images with little deformation, error accumulation will occur. Is inevitable.
[0007]
On the other hand, the latter method of determining whether template image updating is necessary based on a comparison between a correlation value or a non-correlation value and a threshold value is sufficient when the characteristics of deformation and noise in a previously input moving image are sufficiently known However, when an unspecified number of images whose characteristics cannot be known in advance are targeted, it is practically impossible to set an appropriate threshold value. When the set threshold value is inappropriate, as in the former method, degradation of tracking performance due to deformation and performance degradation due to accumulation of errors are unavoidable.
[0008]
As described above, there is a problem that the accuracy of moving object tracking based on template matching has not been sufficiently achieved. Therefore, it is possible to provide an object image tracking method that adaptively determines the update timing of a template image in consideration of the trade-off between the deterioration of tracking performance due to deformation and the deterioration of performance due to error accumulation for the input moving image. It has been demanded.
[0009]
[Problems to be solved by the invention]
The present invention has been made in view of such circumstances, and an object of the present invention is to provide an object image tracking method capable of updating a template image at an appropriate timing and performing object tracking in a moving image with high accuracy. To do.
[0010]
[Means for Solving the Problems]
In order to solve the above problems and achieve the object, the present invention is configured as follows.
[0011]
In the object image tracking method according to the present invention, a first template image including a tracking point on an object in a first image frame is defined, and a corresponding point of the tracking point in a second image frame is tracked by template matching. An object image tracking method for determining whether or not it is necessary to update a template image from a first template image to a second template image in tracking a corresponding point of the tracking point in a third image frame. A first evaluation is performed based on a correlation value or a non-correlation value between the first search image region including the corresponding point tracked in the third image frame by template matching using the template image of the first template image. Calculating the value, and template matching using the first template image. A correlation value or a non-correlation value between the second search image region including the corresponding point tracked in the image frame and the first template image, and the second search image region as the second template image. The second evaluation value is calculated from both the correlation value or the non-correlation value between the third search image area including the corresponding point tracked in the third image frame by the template matching and the second template image. And determining whether it is necessary to update the template image for tracking the corresponding points in the third image frame based on a comparison between the first and second evaluation values. It is characterized by doing.
[0012]
The object image tracking program according to the present invention defines a first template image including a tracking point on an object in a first image frame, and tracks corresponding points of the tracking point in a second image frame by template matching. Then, in tracking the corresponding point of the tracking point in the third image frame, an object image tracking program for determining whether or not it is necessary to update the template image from the first template image to the second template image, Correlation value or non-correlation between the first search image area including the corresponding point tracked in the third image frame by template matching using the first template image and the first template image Calculating a first evaluation value from the value and using the first template image A correlation value or non-correlation value between the second search image area including the corresponding point tracked in the second image frame by template matching and the first template image, and the second search image area. From both the correlation value or non-correlation value between the third search image area including the corresponding point tracked in the third image frame by the template matching used as the second template image and the second template image Based on the step of calculating the second evaluation value and the comparison between the first and second evaluation values, it is determined whether or not the template image update is required for tracking the corresponding point in the third image frame. Determining each of a plurality of the tracking points in tracking the corresponding points in the third image frame. Updating the template image for all the tracking points when the ratio determined to require the update exceeds a predetermined threshold. It is a program.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0014]
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of an object image tracking apparatus according to the first embodiment of the present invention. In FIG. 1,
[0015]
A moving
[0016]
[0017]
[0018]
The
[0019]
[0020]
Next, a moving object tracking process using the template matching method according to the present embodiment will be described. FIG. 2 is a flowchart showing an example of processing for realizing this moving object tracking processing.
[0021]
First, in step S201, a video area to be tracked is designated in the first frame in the video to be tracked. This process is performed by the user using an input device such as a mouse or a touch panel while viewing the video display. When moving images are obtained from a fixed camera, the amount of change for each pixel is calculated, and a background subtraction method is used to extract a pixel area that has changed more than a predetermined threshold as a moving object area. The area may be automatically specified without a user instruction.
[0022]
Next, in step S202, a tracking point selection process from the first frame is performed. From the video region designated in the previous step S201, a pixel to be actually tracked by template matching is selected. Normally, a tracking point suitable for tracking is selected in this process. As a method for that purpose, for example, there are a method of selecting a point having a large variance of pixel values around a tracking point and a method of selecting a corner point. Further, as a method proposed in Japanese Patent Laid-Open No. 2001-062567, there is a method of selecting a point having a small average value of estimated error sizes.
[0023]
Step S203 is a tracking process (template matching) for the tracking point selected in step S202. Here, tracking is performed based on template matching between a frame (reference frame) whose position corresponding to the tracking point in the first frame is already known and a frame from which a corresponding point is to be obtained. Calculate the correlation value (or non-correlation value) between the template image in the reference frame and the surrounding image region of the corresponding point candidate in the frame, and track the corresponding point candidate with the highest correlation value (or the lowest non-correlation value) It is determined that the corresponding point. As correlation values, correlation coefficients between images can be used, and as non-correlation values, sum of squares of pixel value differences, sum of absolute differences of pixel values, and normalized pixels (by dispersion of pixel values) The sum of squares of the difference of values can be used (reference: “Image Processing Handbook”, The University of Tokyo Press, 1991). As a template image used for template matching, an image portion corresponding to the peripheral area of the tracking point is used in this embodiment, but a block area centered on the tracking point may be used to simplify the processing. In many cases, this is usually called “block matching” rather than template matching.
[0024]
However, the processing described below can be realized even if a template image having an arbitrary shape is used. Hereinafter, the estimated corresponding point of the tracking point of the first frame in an arbitrary frame is also simply referred to as a tracking point. Since the tracking point and the template image at an arbitrary time point have a one-to-one correspondence, they may be handled in the same way. A template image is also simply called a template.
[0025]
Step S204 is a tracking result correction process. In the tracking process (template matching) performed in step S203, the movement destination of each tracking point is not necessarily estimated correctly. Therefore, a process for correcting a tracking result that seems to be incorrect is performed while viewing the tracking result of the entire frame. Various methods can be applied to this processing. For example, there is a method (Japanese Patent Laid-Open No. 2000-132691) in which a deformation model of an object is prepared and the movement destination of each tracking point is determined based on robust estimation. The step S204 can be omitted.
[0026]
In step S205, it is determined whether or not to continue the tracking process. When the processing for all the frames to be tracked is completed, the tracking target area is moved out of the image, or the reliability of the tracking result is low, the tracking processing is terminated.
[0027]
Step S206 is a template update determination process. Here, it is determined whether to retain the template used in the tracking process in step S203 or to update to a newer template. Since the feature of this embodiment is in this template update determination method, this process will be described in detail later.
[0028]
Step S207 is a template update process. Only when it is determined in step S206 that the update is necessary, the template is updated.
[0029]
Step S208 is an image update process. After a frame for which a tracking point movement destination is desired is newly read, the processing from step S203 is repeated.
[0030]
With the above processing, the movement destination in each frame of the tracking point selected as the representative of the tracking area is determined. When an area configured by the movement destination (corresponding point) of each tracking point is required, a process of estimating the deformation of the entire area from the movement method of the tracking point and applying the estimated deformation to the tracking area of the first frame Can be done. For example, assuming an affine transformation as a deformation model, estimating six affine transformation parameters (using a method such as least squares) from the movement of the tracking point, and transforming the tracking region of the first frame by the estimated affine transformation Can do.
[0031]
Next, using the sum of squares of the pixel value differences as the decorrelation value of template matching, the probability distribution of the error vector (vector from the correct corresponding point to the corresponding point estimated by template matching) that would occur in template matching is calculated. A method of estimating in advance, estimating a variance-covariance matrix from the distribution, and using it for template update determination will be described. In the present embodiment, a case where only one tracking point exists will be described. This is because if the object area to be tracked is very small and multiple feature points cannot be selected, or if the area is known to move in parallel, the entire trajectory is identified based on the trajectory of one feature point. This is assumed to be possible.
[0032]
3 and 4 are diagrams for explaining the variance-covariance matrix of error vectors. FIG. 3 is a diagram for explaining variations in error vectors that would occur when the template is not updated. In FIG. 3, the frames are arranged in time series from the left to the right of the page. 0 Is the first frame, f is the latest frame, f 1 Is the frame immediately before frame f, f n Is an uninput frame. T 1 Is a template (image) and frame f 0 include. In FIG. 3, since it is assumed that the template is not updated, the frame f 0 Template T 1 Use the frame f n Template matching is performed for the frame f n The corresponding point of the tracking point at is directly estimated.
[0033]
On the other hand, FIG. 4 is a diagram for explaining the variation of the error vector when the template is updated. As in FIG. 3, f 0 Is the first frame, f is the latest frame, f 1 Is the frame immediately before frame f, f n Is an uninput frame. And in FIG. 0 Is the frame f 0 Template of T 1 Is the frame f 1 Template. That is, frame f 0 Template T 0 To frame f 1 Template T 1 Template updates to have been made. In the case of FIG. 4, once the frame f 0 Template T 0 Use the frame f 1 After estimating the corresponding point of the tracking point at, again frame f 1 New template T 1 Frame matching by template matching using n The corresponding point of the tracking point at is estimated. Therefore, the frame f as a result of the template matching twice n The corresponding point of the tracking point at is obtained, and the frame f 0 To frame f n The error vector generated up to 0 To f 1 Error vector generated between and the frame f 1 To f n Is equivalent to the sum of error vectors generated between the two. In FIG. 4, reference numeral 405 denotes a frame f. 0 To
[0034]
FIG. 5 shows the processing and data flow in step S206 when the template update determination is made based on the above interpretation. In FIG. 5, a
[0035]
The variance-covariance
[Expression 1]
Is calculated by In the above equation, T represents a transposed matrix. This variance-covariance matrix is sent to the
[0036]
The
[0037]
The processing performed by the variance-covariance
[Expression 2]
Is sent to the
[0038]
The
[0039]
The
[0040]
Note that the function g giving the scalar quantity can be an arbitrary function calculated from the variance-covariance matrix. Specifically, a 2-by-2 variance-covariance matrix, for example,
[Equation 3]
If
[Expression 4]
Then, the upper limit value of the eigenvalue of M can be obtained. In this case, the template
[Equation 5]
Then, the upper limit of the average eigenvalue of M can be obtained.
[0041]
Finally, the probability P that the error vector e occurs 0 A calculation method of (e) will be described. In this embodiment, P 0 The upper bound of the probability that the error vector is e is used as the estimated value of (e). First frame f 0 Template T 0 Is used to perform template matching for frame f, and using that information, template matching is performed for a newly input image. 0 Consider the case of estimating (e). P in this case 0 (E) In order to calculate the upper bound, first, the next pixel set is defined.
[0042]
[Formula 6]
[0043]
Here, W (p) is a set of pixels included in a block centered on the point p, v is a movement vector obtained by template matching, and an upper line represents a complementary set. However, the coordinate origin is the template T 0 Is the center of And for each of these pixel sets, a value calculated from the sum of squares of the pixel value difference, that is,
[Expression 7]
Calculate Where f (p) is the pixel value of point p in frame f, and σ 2 Is an estimate of the variance of the estimated noise. Then, using these calculation results,
[Equation 8]
Calculate However,
[Equation 9]
It is.
[0044]
The maximization by ρ does not necessarily have to be performed strictly, and is simply realized by selecting ρ that gives the maximum value among several prepared values between 0 and 1. From the above preparation, P 0 (E) Upper bound, ie
[Expression 10]
The right side of is calculated. Exact P 0 Since the value of (e) cannot be calculated, the right side is P 0 The estimated value of (e) is used for calculation of the variance-covariance matrix.
[0045]
According to the first embodiment described above, the variance-covariance matrix representing the variation of the error vector due to template matching for each of the cases where the template is updated and not updated before the tracking processing based on template matching is performed. Is calculated, and each calculation result is compared to determine whether to actually update the template. Thereby, the update timing of the template image can be determined adaptively with respect to the input moving image, and the trade-off between the degradation of tracking performance due to deformation and the degradation of performance due to error accumulation can be solved. .
[0046]
Therefore, it is possible to realize object image tracking that can update a template at an appropriate timing and perform object tracking in a moving image with high accuracy.
[0047]
(Second embodiment)
Next, a second embodiment will be described. In the first embodiment, the template updating method according to the present invention has been described for the case where there is one tracking point. In the second embodiment, a description will be given of a method for simultaneously updating templates of all tracking points when a plurality of tracking points are set. In this embodiment, N tracking points are selected in the tracking point selection process (step S202), and
[0048]
FIG. 6 is a flowchart showing an example of a process for realizing the moving object tracking process using the template matching according to the present embodiment. Steps S201 to S205 and S208 are exactly the same as the processing of FIG. 2 described in the first embodiment. 6 differs from FIG. 2 in that steps S206 and S207 are replaced with steps S600 and S601, respectively.
[0049]
In step S600, a process for determining whether or not to update all templates is performed. That is, all tracking point templates are represented by frame f. 0 Frame from template f 1 Determine whether to update to a new template.
[0050]
FIG. 7 shows the processing and data flow in step S600. 700 shown in FIG. 7 is a processing unit including the processing from the
[0051]
Such determination can be performed as follows, for example. First, it is determined whether or not the template should be updated independently for each tracking point. This is the same as the processing of the template
[0052]
In step S601, if it is determined in step S600 that the template is to be updated, the templates of all tracking points are displayed in the frame f. 1 Update to the template. For example, the frame f temporarily stored for use as a template 0 F 1 Or frame f 0 Pointer to the storage area of the frame f 1 It is executed by changing to point to. At this time, the frame f is also used for information on the template position. 0 From f 1 To be updated.
[0053]
According to the template update method for a plurality of tracking points according to the present embodiment, since all the templates are on the same image frame, there is an advantage that it is not necessary to prepare a template memory separately.
[0054]
(Third embodiment)
Next, a third embodiment will be described. In the second embodiment, when a plurality of tracking points are set, a method of updating all tracking point templates all at once has been described. In the third embodiment, a method of updating each template at different timings will be described. As in the second embodiment, N tracking points are selected in the tracking point selection process (step S202), and
[0055]
FIG. 8 is a flowchart illustrating an example of processing for realizing the moving object tracking processing using the template matching according to the present embodiment. Steps S201 to S205 and S208 are exactly the same as the processing of FIG. 2 described in the first embodiment. FIG. 8 is different in that steps S206 and S207 are replaced with steps S800 to S804.
[0056]
Step S800 is number I initialization processing. The number I is composed of a counter and holds the number of the tracking point that is the target of the template update determination process. Here, 0 is substituted for I as an initial value.
[0057]
Step S801 is template update determination processing for the tracking point of number I, and the frame f used at that time 0 Continue to use the template or start a new frame f 1 It is determined whether to update to a template. Here, the same processing as that in step S206 described in the first embodiment is performed on the tracking point of number I.
[0058]
In step S802, if it is determined in step S801 that the template is to be updated, a template of the tracking point with number I is newly added to the frame f. 1 Update to the template. Step S803 is a process for determining whether or not the template update determination has been performed for all the tracking points. If there is an unprocessed tracking point, the process from S801 is repeated through the counter update process in step S804.
[0059]
According to the third embodiment, it is possible to update the template independently at each tracking point, considering that the preferred template update timing differs for each tracking point. However, in this embodiment, it is necessary to hold a template independently for each tracking point instead of holding one image including a template on a recording medium as in the second embodiment.
[0060]
The present invention is not limited to the above-described embodiment, and can be implemented with various modifications.
[0061]
【The invention's effect】
As described above, according to the present invention, the variance-covariance matrix representing the variation of the error vector due to template matching is calculated for each of the cases where the template is updated and not updated, and the calculation results are compared. Since it is determined whether or not the template is actually updated, it is possible to adaptively determine the update timing of the template image with respect to the input moving image, and the deterioration of tracking performance and error due to deformation can be determined. The trade-off of performance degradation due to accumulation can be solved.
[0062]
Therefore, it is possible to realize object image tracking that can update a template at an appropriate timing and perform object tracking in a moving image with high accuracy. In addition, it is not necessary for the user to set parameters used for template update determination in advance, and it is an advantageous effect of the present invention that stable performance can always be obtained without relying on experience or intuition.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a flowchart showing a flow of object tracking processing according to the first embodiment.
FIG. 3 is a diagram for explaining an error distribution that occurs when a template is not updated.
FIG. 4 is a diagram for explaining an error distribution generated when a template is updated;
FIG. 5 is a block diagram showing template update determination processing and data flow in the first embodiment.
FIG. 6 is a flowchart showing a flow of object tracking processing according to the second embodiment of the present invention.
FIG. 7 is a block diagram showing template update determination processing and data flow in the second embodiment.
FIG. 8 is a flowchart showing a flow of object tracking processing according to the third embodiment of the present invention.
[Explanation of symbols]
101 ... Computer
102: Main storage device
103 ... Central processing unit (CPU)
104. Moving image playback device
105 ... Display device
106: Instruction input device
107: moving image data
108 ... Tracking result data
Claims (10)
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第1探索画像領域と、該第1のテンプレート画像との相関値又は非相関値から第1の評価値を算出するステップと、
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第2の画像フレームにおいて追跡される前記対応点を含む第2探索画像領域と、該第1のテンプレート画像との相関値又は非相関値、および、該第2探索画像領域を第2のテンプレート画像として用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第3探索画像領域と、該第2のテンプレート画像との相関値又は非相関値の両者から第2の評価値を算出するステップと、
前記第1及び第2の評価値同士の比較に基づいて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定するステップと、
を具備することを特徴とする物体画像追跡方法。After defining a first template image including a tracking point on an object in a first image frame, tracking corresponding points of the tracking point in a second image frame by template matching, the tracking point in a third image frame An object image tracking method for determining whether or not it is necessary to update a template image from a first template image to a second template image in tracking corresponding points of
The first search image area including the corresponding point tracked in the third image frame by template matching using the first template image, and the correlation value or non-correlation value between the first template image and the first correlation value. Calculating an evaluation value of 1;
A correlation value or a non-correlation value between the second search image region including the corresponding point tracked in the second image frame by template matching using the first template image, and the first template image; and Correlation between the third search image region including the corresponding point tracked in the third image frame by template matching using the second search image region as the second template image and the second template image Calculating a second evaluation value from both the value or the uncorrelated value;
Determining whether the template image update is required to track the corresponding points in the third image frame based on a comparison between the first and second evaluation values;
An object image tracking method comprising:
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第1探索画像領域と、該第1のテンプレート画像との相関値又は非相関値から第1の評価値を算出するステップと、
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第2の画像フレームにおいて追跡される前記対応点を含む第2探索画像領域と、該第1のテンプレート画像との相関値又は非相関値、および、該第2探索画像領域を第2のテンプレート画像として用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第3探索画像領域と、該第2のテンプレート画像との相関値又は非相関値の両者から第2の評価値を算出するステップと、
前記第1及び第2の評価値同士の比較に基づいて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定するステップと、
複数の前記追跡点のそれぞれについて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定し、該更新を要する旨判定された割合が所定の閾値を超過した際に、全ての前記追跡点についてテンプレート画像を更新するステップと、
を具備することを特徴とする物体画像追跡方法。After defining a first template image including a tracking point on an object in a first image frame, tracking corresponding points of the tracking point in a second image frame by template matching, the tracking point in a third image frame An object image tracking method for determining whether or not it is necessary to update a template image from a first template image to a second template image in tracking corresponding points of
The first search image area including the corresponding point tracked in the third image frame by template matching using the first template image, and the correlation value or non-correlation value between the first template image and the first correlation value. Calculating an evaluation value of 1;
A correlation value or a non-correlation value between the second search image region including the corresponding point tracked in the second image frame by template matching using the first template image, and the first template image; and Correlation between the third search image region including the corresponding point tracked in the third image frame by template matching using the second search image region as the second template image and the second template image Calculating a second evaluation value from both the value or the uncorrelated value;
Determining whether the template image update is required to track the corresponding points in the third image frame based on a comparison between the first and second evaluation values;
For each of the plurality of tracking points, it is determined whether or not the template image needs to be updated to track the corresponding point in the third image frame, and the ratio determined to require the updating exceeds a predetermined threshold. And updating a template image for all the tracking points,
An object image tracking method comprising:
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第1探索画像領域と、該第1のテンプレート画像との相関値又は非相関値から第1の評価値を算出するステップと、
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第2の画像フレームにおいて追跡される前記対応点を含む第2探索画像領域と、該第1のテンプレート画像との相関値又は非相関値、および、該第2探索画像領域を第2のテンプレート画像として用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第3探索画像領域と、該第2のテンプレート画像との相関値又は非相関値の両者から第2の評価値を算出するステップと、
前記第1及び第2の評価値同士の比較に基づいて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定するステップと、
複数の前記追跡点のそれぞれについて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定し、該更新を要する旨判定された追跡点についてテンプレート画像を更新するステップと、
を具備することを特徴とする物体画像追跡方法。After defining a first template image including a tracking point on an object in a first image frame, tracking corresponding points of the tracking point in a second image frame by template matching, the tracking point in a third image frame An object image tracking method for determining whether or not it is necessary to update a template image from a first template image to a second template image in tracking corresponding points of
The first search image area including the corresponding point tracked in the third image frame by template matching using the first template image, and the correlation value or non-correlation value between the first template image and the first correlation value. Calculating an evaluation value of 1;
A correlation value or a non-correlation value between the second search image region including the corresponding point tracked in the second image frame by template matching using the first template image, and the first template image; and Correlation between the third search image region including the corresponding point tracked in the third image frame by template matching using the second search image region as the second template image and the second template image Calculating a second evaluation value from both the value or the uncorrelated value;
Determining whether the template image update is required to track the corresponding points in the third image frame based on a comparison between the first and second evaluation values;
For each of the plurality of tracking points, it is determined whether or not the template image needs to be updated to track the corresponding point in the third image frame, and the template image is updated for the tracking point determined to require the update. And steps to
An object image tracking method comprising:
前記第2の評価値は、
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第2の画像フレームにおいて追跡される前記対応点を含む第2探索画像領域と、該第1のテンプレート画像との相関値又は非相関値から算出される、該テンプレートマッチングに起因する誤差ベクトルの分散共分散行列の推定値と、
該第2探索画像領域を第2のテンプレート画像として用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第3探索画像領域と、該第2のテンプレート画像との相関値又は非相関値から算出される、該テンプレートマッチングに起因する誤差ベクトルの分散共分散行列の推定値との和であることを特徴とする請求項1乃至3のいずれか一項に記載の物体画像追跡方法。The first evaluation value includes a first search image area including the corresponding point tracked in the third image frame by template matching using the first template image, and the first template image. An estimated value of the variance-covariance matrix of the error vector resulting from the template matching, calculated from a correlation value or a non-correlation value;
The second evaluation value is
Calculated from a correlation value or a non-correlation value between the second search image area including the corresponding point tracked in the second image frame by template matching using the first template image and the first template image An estimate of the variance-covariance matrix of error vectors resulting from the template matching;
Correlation value between the third search image area including the corresponding point tracked in the third image frame by template matching using the second search image area as the second template image and the second template image The object image according to any one of claims 1 to 3, wherein the object image is a sum of an error vector variance covariance matrix estimated from the template matching calculated from a non-correlation value. Tracking method.
コンピュータに、
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第1探索画像領域と、該第1のテンプレート画像との相関値又は非相関値から第1の評価値を算出するステップと、
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第2の画像フレームにおいて追跡される前記対応点を含む第2探索画像領域と、該第1のテンプレート画像との相関値又は非相関値、および、該第2探索画像領域を第2のテンプレート画像として用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第3探索画像領域と、該第2のテンプレート画像との相関値又は非相関値の両者から第2の評価値を算出するステップと、
前記第1及び第2の評価値同士の比較に基づいて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定するステップと、
を実行させるためのプログラム。After defining a first template image including a tracking point on an object in a first image frame, tracking corresponding points of the tracking point in a second image frame by template matching, the tracking point in a third image frame An object image tracking program for determining whether or not it is necessary to update the template image from the first template image to the second template image in tracking the corresponding points of
On the computer,
The first search image area including the corresponding point tracked in the third image frame by template matching using the first template image, and the correlation value or non-correlation value between the first template image and the first correlation value. Calculating an evaluation value of 1;
A correlation value or a non-correlation value between the second search image region including the corresponding point tracked in the second image frame by template matching using the first template image, and the first template image; and Correlation between the third search image region including the corresponding point tracked in the third image frame by template matching using the second search image region as the second template image and the second template image Calculating a second evaluation value from both the value or the uncorrelated value;
Determining whether the template image update is required to track the corresponding points in the third image frame based on a comparison between the first and second evaluation values;
A program for running
コンピュータに、
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第1探索画像領域と、該第1のテンプレート画像との相関値又は非相関値から第1の評価値を算出するステップと、
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第2の画像フレームにおいて追跡される前記対応点を含む第2探索画像領域と、該第1のテンプレート画像との相関値又は非相関値、および、該第2探索画像領域を第2のテンプレート画像として用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第3探索画像領域と、該第2のテンプレート画像との相関値又は非相関値の両者から第2の評価値を算出するステップと、
前記第1及び第2の評価値同士の比較に基づいて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定するステップと、
複数の前記追跡点のそれぞれについて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定し、該更新を要する旨判定された割合が所定の閾値を超過した際に、全ての前記追跡点についてテンプレート画像を更新するステップと、
を実行させるためのプログラム。After defining a first template image including a tracking point on an object in a first image frame, tracking corresponding points of the tracking point in a second image frame by template matching, the tracking point in a third image frame An object image tracking program for determining whether or not it is necessary to update a template image from a first template image to a second template image in tracking corresponding points of
On the computer,
The first search image area including the corresponding point tracked in the third image frame by template matching using the first template image, and the correlation value or non-correlation value between the first template image and the first correlation value. Calculating an evaluation value of 1;
A correlation value or a non-correlation value between the second search image region including the corresponding point tracked in the second image frame by template matching using the first template image, and the first template image; and Correlation between the third search image region including the corresponding point tracked in the third image frame by template matching using the second search image region as the second template image and the second template image Calculating a second evaluation value from both the value or the uncorrelated value;
Determining whether the template image update is required to track the corresponding points in the third image frame based on a comparison between the first and second evaluation values;
For each of the plurality of tracking points, it is determined whether or not the template image needs to be updated to track the corresponding point in the third image frame, and the ratio determined to require the updating exceeds a predetermined threshold. And updating a template image for all the tracking points,
A program for running
コンピュータに、
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第1探索画像領域と、該第1のテンプレート画像との相関値又は非相関値から第1の評価値を算出するステップと、
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第2の画像フレームにおいて追跡される前記対応点を含む第2探索画像領域と、該第1のテンプレート画像との相関値又は非相関値、および、該第2探索画像領域を第2のテンプレート画像として用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第3探索画像領域と、該第2のテンプレート画像との相関値又は非相関値の両者から第2の評価値を算出するステップと、
前記第1及び第2の評価値同士の比較に基づいて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定するステップと、
複数の前記追跡点のそれぞれについて、前記第3の画像フレームにおける前記対応点の追跡にあたり前記テンプレート画像更新を要するか否かを判定し、該更新を要する旨判定された追跡点について、テンプレート画像を更新するステップと、
を実行させるためのプログラム。After defining a first template image including a tracking point on an object in a first image frame, tracking corresponding points of the tracking point in a second image frame by template matching, the tracking point in a third image frame An object image tracking program for determining whether or not it is necessary to update a template image from a first template image to a second template image in tracking corresponding points of
On the computer,
The first search image area including the corresponding point tracked in the third image frame by template matching using the first template image, and the correlation value or non-correlation value between the first template image and the first correlation value. Calculating an evaluation value of 1;
A correlation value or a non-correlation value between the second search image region including the corresponding point tracked in the second image frame by template matching using the first template image, and the first template image; and Correlation between the third search image region including the corresponding point tracked in the third image frame by template matching using the second search image region as the second template image and the second template image Calculating a second evaluation value from both the value or the uncorrelated value;
Determining whether the template image update is required to track the corresponding points in the third image frame based on a comparison between the first and second evaluation values;
For each of the plurality of tracking points, it is determined whether or not the template image update is required for tracking the corresponding point in the third image frame, and a template image is determined for the tracking point determined to require the update. A step to update,
A program for running
前記第2の評価値は、
前記第1のテンプレート画像を用いたテンプレートマッチングによって前記第2の画像フレームにおいて追跡される前記対応点を含む第2探索画像領域と、該第1のテンプレート画像との相関値又は非相関値から算出される、該テンプレートマッチングに起因する誤差ベクトルの分散共分散行列の推定値と、
該第2探索画像領域を第2のテンプレート画像として用いたテンプレートマッチングによって前記第3の画像フレームにおいて追跡される前記対応点を含む第3探索画像領域と、該第2のテンプレート画像との相関値又は非相関値から算出される、該テンプレートマッチングに起因する誤差ベクトルの分散共分散行列の推定値との和であることを特徴とする請求項6乃至8のいずれか一項に記載のプログラム。The first evaluation value includes a first search image area including the corresponding point tracked in the third image frame by template matching using the first template image, and the first template image. An estimated value of the variance-covariance matrix of the error vector resulting from the template matching, calculated from a correlation value or a non-correlation value;
The second evaluation value is
Calculated from a correlation value or a non-correlation value between the second search image area including the corresponding point tracked in the second image frame by template matching using the first template image and the first template image An estimate of the variance-covariance matrix of error vectors resulting from the template matching;
Correlation value between the third search image area including the corresponding point tracked in the third image frame by template matching using the second search image area as the second template image and the second template image The program according to any one of claims 6 to 8, wherein the program is a sum of an estimated value of a variance-covariance matrix of an error vector caused by template matching calculated from a non-correlation value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001374819A JP3629236B2 (en) | 2001-12-07 | 2001-12-07 | Object image tracking method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001374819A JP3629236B2 (en) | 2001-12-07 | 2001-12-07 | Object image tracking method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003178310A JP2003178310A (en) | 2003-06-27 |
JP3629236B2 true JP3629236B2 (en) | 2005-03-16 |
Family
ID=19183319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001374819A Expired - Fee Related JP3629236B2 (en) | 2001-12-07 | 2001-12-07 | Object image tracking method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3629236B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103780871A (en) * | 2012-10-19 | 2014-05-07 | 慧友电子股份有限公司 | The method of automatic tracking of PTZ camera |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4597543B2 (en) * | 2004-02-18 | 2010-12-15 | パナソニック株式会社 | Automatic tracking device and automatic tracking method |
JP4620607B2 (en) * | 2006-02-24 | 2011-01-26 | 株式会社モルフォ | Image processing device |
JP5361703B2 (en) * | 2009-12-25 | 2013-12-04 | オリンパスイメージング株式会社 | Motion detection apparatus and motion detection method |
JP5683898B2 (en) * | 2010-10-22 | 2015-03-11 | オリンパスイメージング株式会社 | TRACKING DEVICE AND TRACKING METHOD |
JP5616745B2 (en) * | 2010-10-22 | 2014-10-29 | オリンパスイメージング株式会社 | TRACKING DEVICE AND TRACKING METHOD |
JP5424496B2 (en) * | 2011-01-11 | 2014-02-26 | 学校法人東京理科大学 | Moving object detection apparatus and moving object detection method |
KR101426775B1 (en) * | 2012-02-17 | 2014-08-08 | 경북대학교 산학협력단 | Apparatus and Method for Object Tracking |
CN109146918B (en) * | 2018-06-11 | 2022-04-22 | 西安电子科技大学 | A Block-Based Adaptive Correlation Target Localization Method |
-
2001
- 2001-12-07 JP JP2001374819A patent/JP3629236B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103780871A (en) * | 2012-10-19 | 2014-05-07 | 慧友电子股份有限公司 | The method of automatic tracking of PTZ camera |
Also Published As
Publication number | Publication date |
---|---|
JP2003178310A (en) | 2003-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7194110B2 (en) | Method and apparatus for tracking features in a video sequence | |
US20050265453A1 (en) | Image processing apparatus and method, recording medium, and program | |
US7346109B2 (en) | Motion vector computation for video sequences | |
US8335257B2 (en) | Vector selection decision for pixel interpolation | |
EP2688282B1 (en) | Image processing device, image processing method, and image processing program | |
US7986813B2 (en) | Object pose estimation and comparison system using image sharpness differences, object pose estimation and comparison method using image sharpness differences, and program therefor | |
US8588306B2 (en) | Temporal motion vector filtering | |
US8723917B2 (en) | Image processing apparatus, image processing method and program | |
JP4741836B2 (en) | Robust estimation of camera pan vector by repeated use of center of mass | |
US8098963B2 (en) | Resolution conversion apparatus, method and program | |
JP3629236B2 (en) | Object image tracking method and program | |
US20090323814A1 (en) | Tracking point detection apparatus and method, program, and recording medium | |
US10586099B2 (en) | Information processing apparatus for tracking processing | |
US8175160B1 (en) | System, method, and computer program product for refining motion vectors | |
US10872263B2 (en) | Information processing apparatus, information processing method and storage medium | |
US20190005347A1 (en) | Information processing apparatus, program, and information processing method | |
JP2019106173A (en) | Image processing method, image processing apparatus and program | |
JP2015069410A (en) | Attitude parameter estimation device, attitude parameter estimation system, attitude parameter estimation method, and program | |
JP2008113292A (en) | Motion estimation method, apparatus, program thereof, and recording medium thereof | |
US8538073B2 (en) | Image processing apparatus and method for tracking a location of a target subject | |
JP4453202B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
CN110692235B (en) | Image processing apparatus, image processing program, and image processing method | |
CN120107348A (en) | Multi-camera-based pose estimation method and head-mounted display device | |
JP5634245B2 (en) | Motion vector detection apparatus, control method therefor, and program | |
JPH11120364A (en) | Feature point tracking device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041210 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071217 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081217 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091217 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091217 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101217 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111217 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121217 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121217 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131217 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |