JP2000222584A - 映像情報記述方法、映像検索方法及び映像検索装置 - Google Patents
映像情報記述方法、映像検索方法及び映像検索装置Info
- Publication number
- JP2000222584A JP2000222584A JP11022372A JP2237299A JP2000222584A JP 2000222584 A JP2000222584 A JP 2000222584A JP 11022372 A JP11022372 A JP 11022372A JP 2237299 A JP2237299 A JP 2237299A JP 2000222584 A JP2000222584 A JP 2000222584A
- Authority
- JP
- Japan
- Prior art keywords
- video
- background
- feature amount
- outside
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/786—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/7864—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using domain-transform features, e.g. DCT or wavelet transform coefficients
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
いても検索を可能とするための映像情報記述方法を提供
する。 【解決手段】元映像からオブジェクトの位置、形状及び
動きなどの情報を含む特徴量703と背景の動きなどの
情報を含む特徴量704をこれらを表記データとして記
述する。
Description
クトに注目した映像情報の記述方法及びこれを用いて特
定のオブジェクトやそのオブジェクトを含むフレームの
検索を行う映像検索方法及び映像検索装置に関する。
普及に伴う放送の多チャンネル化により、ユーザの入手
できる映像情報は増加の一途を辿っている。一方で、計
算機技術の進歩やDVDに代表される大容量記録媒体の
実用化により、大量の映像情報をディジタル情報として
蓄積し、計算機上で取り扱うことが容易になりつつあ
る。
に、このように大量の映像情報の中から目的の映像に対
して効率的にアクセスを行うには、有効な映像検索技術
が必要となる。そのような映像検索技術として、映像中
のオブジェクトになんらかの情報を付随させ、ユーザの
必要とする情報を満たすオブジェクトを含む映像を検索
してユーザの視聴に供する方法が考えられている。映像
中のオブジェクトに情報を付随させるためには、映像か
らオブジェクトを抽出する処理が必要となる。しかし、
増加する一方の映像情報に対して手作業でオブジェクト
の抽出を行うことは、現実的ではない。
例えば文献(米山、中島、柳原、菅野「MPEGビデオ
ストリームからの移動物体の検出」信学論Vol.J8
1−D−II,No.8,pp.1776−1786,1
998−08)に、背景の静止した映像からオブジェク
トを検出する方法が提案されている。しかし、この方法
は背景が静止していることを前提としており、背景が動
く場合にはオブジェクトの検出を行うことは難しい。
られていたとしても、背景の動きが分からなければ、オ
ブジェクトの動きを用いて検索を行う際に、カメラワー
クの影響を受けることにより正確な動きを用いた検索が
できない。例えば、左に動いているオブジェクトを追跡
するように撮影した場合、オブジェクトは画面内でほぼ
静止し、背景が相対的に右に動く。そのため、画面内で
左に動くオブジェクトを含む映像を検索することはでき
ないことになる。
の映像検索技術では背景が動いているオブジェクトを検
出することができず、そのようなオブジェクトを含む映
像を検索することができないという問題点があった。
を含む映像についても検索を可能とするための映像情報
記述方法を提供することを目的とする。
ブジェクトを検出できるオブジェクト検出方法を提供す
ることにある。
いるオブジェクトを含む映像に対する種々の検索を可能
とした映像検索方法及び映像検索装置を提供することに
ある。
め、本発明に係る映像情報記述方法は、映像中の特定の
オブジェクトに関する特徴量及び該映像中の背景に関す
る特徴量を映像情報として記述することを基本的な特徴
としている。
は、映像中の特定のオブジェクトに関する特徴量と該映
像中の背景に関する特徴量に加え、さらに両者の特徴量
の差分を映像情報として記述することを特徴とする。ま
た、映像中の特定のオブジェクトに関する特徴量と該映
像中の背景に関する特徴量との差分及び背景に関する特
徴量を映像情報として記述するようにしてもよい。
量としては少なくとも該オブジェクトの位置、形状及び
動きの情報を記述し、また背景に関する特徴量としては
少なくとも背景の動きの情報を記述することが望まし
い。
述されたオブジェクトに関する特徴量及び背景に関する
特徴量、さらには両者の特徴量の差分を映像データと共
に、あるいは映像データとは別に格納した記録媒体が提
供される。
力された映像の動ベクトルを抽出する動きベクトル抽出
ステップと、この抽出した動ベクトルを用いて映像の背
景の動きを推定する推定ステップと、この推定した背景
の動きを除去して映像中の特定のオブジェクトに関する
動ベクトルを抽出し、該オブジェクトの領域を検出する
検出ステップとを有することを特徴とする。
プは、背景の動きを所定の変換モデル(例えばアフィン
変換や透視変換など)で近似し、その変換モデルの変換
係数を映像の動べクトルから推定することによって背景
の動きを推定することを特徴とする。変換モデルの変換
係数は、例えばロバスト推定法により推定される。
ては、映像の画面内の動ベクトルを類似度に従って領域
分割し、分割された各領域を該動ベクトルの類似度に基
づいてクラスタリングし、最大のクラスタの領域を背景
の領域と判定する処理を含んでもよい。
においては、映像の複数フレームの動ベクトルを各フレ
ーム内の類似度に従って領域分割し、これらの領域をフ
レーム間で対応付け、対応付けられた各領域が同じクラ
スタに属するように各領域を該動ベクトルに基づいて各
フレーム内でクラスタリングし、最大のクラスタの領域
を背景の領域と判定する処理を含んでもよい。
関する特徴量及び背景に関する特徴量、さらには両者の
特徴量の差分を記述することにより、背景が動いている
オブジェクトを含む映像に対する種々の検索を行うこと
が可能である。
ブジェクトに関する特徴量及び該映像中の背景に関する
特徴量を記述しておき、検索対象となる映像中のオブジ
ェクトに関する特徴量から背景に関する特徴量を差し引
いた後、外部より入力されたオブジェクトに関する特徴
量と比較することによって、検索対象となる映像から外
部より入力されたオブジェクトと同一のオブジェクトも
しくは外部より入力されたオブジェクトと同一のオブジ
ェクトを含む映像中のフレームの少なくとも一方を検索
することができる。
ブジェクトに関する特徴量と該映像中の背景に関する特
徴量及びそれぞれの特徴量の差分を記述しておき、この
差分と外部より入力されたオブジェクトに関する特徴量
とを比較することによって、検索対象となる映像から外
部より入力されたオブジェクトと同一のオブジェクトも
しくは外部より入力されたオブジェクトと同一のオブジ
ェクトを含む映像中のフレームの少なくとも一方を検索
することができる。
ブジェクトに関する特徴量及び該映像中の背景に関する
特徴量を記述しておき、背景に関する特徴量と外部より
入力された映像中の背景に関する特徴量とを比較するこ
とによって、検索対象となる映像から外部より入力され
た映像を得たときのカメラワークとほぼ同一のカメラワ
ークが用いられているフレームを検索することができ
る。第4に、検索対象となる映像中の特定のオブジェク
トに関する少なくとも動きの情報を含む特徴量及び該映
像中の背景に関する特徴量を記述しておき、映像中の連
続する複数フレームにおけるオブジェクトの動き情報と
外部より入力されたオブジェクトの一連の動きの情報と
を比較することにより、検索対象となる映像から外部よ
り入力されたオブジェクトと同一のオブジェクトもしく
は外部より入力されたオブジェクトと同一のオブジェク
トを含むフレームの少なくとも一方を検索することがで
きる。
施の形態を説明する。 [第1の実施形態]本実施形態では、大別して3つの機
能を提供している。第1に、映像データを再生する機能
の他に、映像中で動きを伴うオブジェクトを自動的に検
出し、楕円や矩形などの図形を重ねて合成表示すること
によって、ユーザにその存在を知らせる機能を提供す
る。
大きさ、動きなどの特徴量と背景に関する特徴量を分離
して外部ファイルなどに表記データとして記述する機能
を提供する。
特徴量のデータあるいは予め外部ファイルなどに記述さ
れた特徴量の表記データと、検索対象として外部から与
えられた検索対象オブジェクトの特徴量のデータを比較
し、該当するオブジェクトをユーザに提示することによ
って、映像中のオブジェクトを検索する機能を提供す
る。
ムの構成及び処理の手順をフローチャートとして示す。
映像データ100を入力し(ステップ101)、この元
映像データ101から後に詳しく説明する方法によって
映像中の特定のオブジェクトを検出する(ステップ10
2)。この際、後述するように映像中の背景に関する情
報も併せて検出する。検出されたオブジェクトをこれを
囲むように生成された楕円や矩形などの図形と合成し、
オブジェクト検出結果表示データ104として出力する
(ステップ103)。
ェクトの位置、形状(大きさを含む)及び動きなどのオ
ブジェクトに関する特徴量を示す特徴量データと、背景
の動きなどの背景に関する特徴量を示す特徴量データを
記述するための特徴量データ生成処理を行い(ステップ
105)、さらに生成されたオブジェクト及び背景に関
する特徴量データ107を外部に出力して表記データと
して記述する処理を行う(ステップ106)。
オブジェクトに関する特徴量データと背景に関する特徴
量データを記述してもよいが、さらに両者の特徴の差分
のデータを生成して記述してもよく、また場合によって
はこの差分のデータと背景に関する特徴量のデータ、あ
るいは差分のデータとオブジェクトに関する特徴量デー
タを生成して記述してもよい。
は特徴量データ107を各種記録媒体やメモリに格納
(記録)したり、表示したりすることをいう。特徴量デ
ータ107を格納する記録媒体は、元映像データ100
を格納したDVDなどの媒体であってもよく、これとは
別の記録媒体でも構わない。
ステップ105で生成されたオブジェクトに関する特徴
量データと、ステップ109により入力された検索対象
特徴量データ110との類似度判定を行い(ステップ1
08)、さらに類似度判定結果をオブジェクト検索結果
表示データ112として合成表示するための合成表示処
理を行う(ステップ111)。検索対象特徴量データ1
10は、検索しようとするオブジェクトの位置、形状
(大きさを含む)及び動きなどの特徴量を表すデータで
ある。
またはハードウェアのいずれでも実現が可能である。
のオブジェクト検出処理について詳細に説明する。ま
ず、入力された元映像データ100より動ベクトルの抽
出を行う(ステップ201)。元映像データ100がM
PEG圧縮データの場合は、Pビクチャより得られる動
ベクトルを用いる。この場合、動ベクトルはマクロブロ
ック毎に与えられる。元映像データ100がアナログデ
ータや動ベクトルを持たないディジタルデータの場合
は、必要に応じてディジタル化し、オプティカルフロー
を用いて動ベクトルを抽出したり、MPEG圧縮データ
に変換してから動ベクトルを抽出する。
も実際のオブジェクトの動きを反映したものとはなって
いない場合があり、画面の周辺部やテクスチャが平坦な
部分でそれが顕著である。そこで、信頼性の低い動ベク
トルを除去する処理を行う(ステップ202)。この処
理は、以下のようにして行われる。
を定めておき、その領域に含まれる動ベクトルを除去す
る。一方、平坦なテクスチャを持つ部分に関しては、元
映像データ100がMPEG圧縮データの場合は図3に
示すようにIピクチャのDCT(離散コサイン変換)係
数のDC成分を用い、図4に示すように1つのマクロブ
ロックに含まれる4つのDC成分の分散が閾値以下のマ
クロブロックの集まりを低信頼性領域として、始点がそ
の領域のマクロブロックに含まれる動ベクトルを信頼性
の低い動ベクトルとして除去する。
タは、オブジェクトの動きにカメラワークなどによる背
景の動きが含まれているので、正確なオブジェクトの動
きを得るためには、背景の動きを除去する必要がある。
そこで、本実施形態ではカメラワークなどによる背景の
動きを近似する変換モデルとしてアフィン変換モデルを
用い、動ベクトルを用いてその変換係数を推定すること
によって、背景の動きを推定する処理を行う(ステップ
203)。背景の動きのアフィン変換係数を推定する処
理については、数種類の手法が存在するが、それらにつ
いては後述する。
て各動ベクトルの始点を変換し、その移動分を元の動ベ
クトルより差し引くことによって、背景の動きを除去す
る処理を行う(ステップ204)。
まない動ベクトルデータを類似した動べクトルより構成
される領域に分割する処理を行う(ステップ205)。
具体的には、隣接する2つの動べクトルの余弦(方向)
と大きさを比較し、その差が予め定めた閾値以下であれ
ば、同じ領域に分割する処理を全ての隣接する動ベクト
ルの組み合わせについて行う。
ェクトとして扱うには相応しくない小領域が含まれるの
で、閾値処理によりこれらを取り除く判定処理306を
行い、最終的なオブジェクトデータ307を出力する。
るステップ203のアフィン変換係数推定処理の3つの
手法について説明する。
クトルを除いた画面内の全ての動ベクトルを用いてアフ
ィン変換係数を推定する。i番目のマクロブロックの中
心をyiとし、そのマクロブロックに対応する動ベクト
ルをviとする。このとき、ベクトルの始点xi=yi
−viのアフィン変換変形モデルによる移動先は、アフ
ィン変換係数をαとするとri=xiαとなり、実際の
移動先であるyiとの誤差はei=ri−yiとなる。
推定残差の総和は次式のようになり、これを最小とする
αを求めればよい。
小二乗法があり、その場合には式(1)でΨ(z)=z
2を用いればよい。しかし、最小二乗法を用いた場合、
背景の動ベクトルとオブジェクトの動ベクトルを同列に
扱うため、背景の動ベクトルのみからアフィン変換係数
を推定することができず、オブジェクトの動きを含んだ
アフィン変換係数となってしまう。
面積が50%以上あると仮定し、オブジェクトの動べク
トルを外乱とみなして、背景部分の動ベクトルからのみ
アフィン変換係数を推定する。外乱に強い手法として、
文献:中川徹・小柳義夫著「最小二乗法による実験デー
タ解析」束京大学出版会、に開示されているようなロバ
スト推定法を用いる。ここでは特に、ロバスト推定法の
一つであるBiweight法によるM推定を用いる。
Biweight法では、誤差の大きい要素の重みを下
げることによって、外乱の影響を受け難くしている。具
体的には、先の式(1)のΨ(z)において、重みwを
用いた次式(2)を使用する。定数cは5〜9に選ぶの
がよいとされている。
変換係数推定処理において、手法2を用いた場合の処理
手順を図5に示すフローチャートを用いて説明する。
理を行った後の動ベクトルデータ500に対して、先の
手法1と同様な処理を用いて、隣接する動べクトルが類
似した領域に分割する処理を行う(ステップ501)。
ただし、手法1と異なり、この時点で背景の動きを除去
する処理は行われていない。
トルより、領域の動きをアフィン変換モデルで近似した
ときのアフィン変換係数の推定処理を行う(ステップ5
02)。このときの推定処理には、手法1と同様なロバ
スト推定法を用いる。
処理を行う(ステップ503)。これには全ての領域の
組み合わせよりなるテーブルを用意して、各領域間の距
離をアフィン変換係数より求める。ここでは、アフィン
変換モデルの6係数のユークリッド距離を用いるが、他
の距離を用いてもよい。次に、この距離が最も小さい2
つの領域を統合し、統合された領域に対して新たなアフ
ィン変換係数を求め、テーブルから統合された2領域を
削除し、統合された領域を追加して、テーブルを更新す
る。この処理を領域間の距離が予め定めた閾値より大き
くなるか、領域が1つになるまで繰り返し行う。
のうち、クラスタが最大の領域を背景の領域と判定する
処理を行い(ステップ504)、その領域のアフィン変
換係数を背景の動きのアフィン変換係数505として出
力する。
変換係数推定処理において、手法3を用いた場合の処理
手順を図6に示すフローチャートを用いて説明する。
各フレームに対して手法2と同様な処理を用いて隣接す
る動ベクトルが類似するような領域に分割する処理を行
う(ステップ601)。
で近似したときの変換係数の推定処理を行い(ステップ
602)、さらに領域の位置や動ベクトルデータ及び変
換係数に基づいて、フレーム間で対応する領域を求める
処理を行った後(ステップ603)、手法2と同様なク
ラスタリング処理により各フレーム内の領域をクラスタ
リングする(ステップ604)。
領域が別のクラスタにクラスタリングされた場合は、最
も多くのクラスタにクラスタリングされた結果を正解と
し、他のクラスタにクラスタリングされた領域を移動す
る補正処理を行う(ステップ605)。
かった領域を背景とする判定処理を行い(ステップ60
6)、各フレームにおける背景領域の変換係数507を
求める。この手法3は、背景領域が特定のフレームで一
時的に他の領域より小さくなった場合でも正しく推定が
できるという利点がある。
に用いる変換モデルにアフィン変換を用いたが、透視変
換など、他の変換モデルを使用してもよい。
におけるオブジェクト及び背景に関する特徴量データの
記述処理で用いられるデータ表現について説明する。こ
こでは、図7(a)に示されるように例として第100
0番目のフレーム内の映像705に含まれる3つのオブ
ジェクトの表記データ700を表している。この表記デ
ータ700は、元映像データの映像ストリーム706内
の対応するフレームを示すフレーム情報701とオブジ
ェクトに関する特徴量703及び背景に関する特徴量7
04の各データより構成され、次表記データへのポイン
タ702を用いたリスト構造により管理されている。
なくともオブジェクトの位置、形状(大きさを含む)及
び動きの情報を含んでおり、具体的には例えば図7
(b)に例示されるような様々な特徴量より構成され
る。この例では、オブジェクトに関する特徴量703は
「位置」、形状である「概形」、動きの情報である「ア
フィン変換係数」及び「動ベクトルの平均、方向」、さ
らに「色ヒストグラム」などから構成される。
形などの簡易な図形により近似してもよい。アフィン変
換係数は、前述したようにオブジェクトの動きをアフィ
ン変換モデルで近似したときに推定される係数である。
動ベクトルの平均は、オブジェクト中の動ベクトルの大
きさの平均値である。また、オブジェクトの色情報が取
得可能である場合には、オブジェクトの領域の色ヒスト
グラムが特徴量として用いることができる。オブジェク
トの動きに関しては、背景の動きを除去したもの、除去
しないもののいずれを記録してもよい。
る場合は、各オブジェクト特徴量703に個別のID番
号を付け、拡張容易な例えば図7(a)に示されるよう
なリスト構造により管理することが望ましい。このよう
なリスト構造を用いると、オブジェクト特徴量の追加や
削除が容易である。
ジェクトに関する特徴量703と同様に図7(c)に例
示されるような様々な特徴量、例えば「アフィン変換係
数」、「動ベクトルの平均、方向」、「カメラワーク
種」、「色ヒストグラム」などにより構成される。カメ
ラワーク種とは、バンやズームなどの撮影に用いられる
典型的なカメラワークの種類をいう。
図1のステップ108における類似度判定処理について
説明する。この類似度判定処理は、元映像データに含ま
れる各オブジェクトに関する特徴量データ800に対し
て、順次、外部より入力された特徴量データ804と比
較することにより行う。外部より入力する特徴量データ
804は、数値などで直接データとして与えてもよい
し、映像から特徴量を抽出して特徴量データとして与え
てもよい。
場合は、各特徴量について順次、類似度判定処理により
類似度を求める(ステップ803)。
タ800と外部より入力される特徴量データ804の比
較は、特徴量の種類に基づいて適当な手法を用いる。例
えば、特徴量が色のヒストグラムであれば、ヒストグラ
ムの各要素の差を用いることなどが考えられる。比較す
るオブジェクトが異なる種類の特徴量を持つ場合は、一
致する特徴量のみについて比較すればよい。
クトについて全ての特徴量データについて検索が終わっ
たと判定されると、該当オブジェクトの情報について検
索結果表示処理を行い(ステップ805)、処理は終了
する。
背景に関する特徴量データを用いて、背景の動きを除去
して比較することも可能である。図9を用いて、背景の
動きを分離した検索の効果について説明する。
左に移動するオブジェクトを追跡するようにカメラを移
動しながら撮影したものであるが、映像中では見かけ上
オブジェクトが静止し、背景が右に移動しているように
見える。左に移動するオブジェクトを検索するために、
外部よりオブジェクト905のデータが入力された場
合、映像データ901のオブジェクトは静止しているた
めに特徴量が一致せず、検索することができない。
る特徴量と背景に関する特徴量を記述すると、背景の動
きを利用して、カメラワークにより動く背景904を分
離する処理902により、オブジェクト本来の左方向へ
の動きを伴うオブジェクト903を検出することができ
る。すなわち、処理902においてはオブジェクトに関
する特徴量と背景に関する特徴量との差分を求めること
により、オブジェクト903のみを検出する。
と外部より入力されたオブジェクト905を比較するこ
とによって、外部より入力されたオブジェクト905と
同一のオブジェクトを入力映像データ901から検索し
たり、外部より入力されたオブジェクト905と同一の
オブジェクトを含む映像フレームを元映像データ901
から検索したりすることが可能となる。この場合、前述
のように差分のデータとを記述しておけば、処理902
は不要となる。
特徴量と背景に関する特徴量を記述すると、図10に示
すように外部より入力されるカメラワークに一致したカ
メラワークの映像を検索することができる。すなわち、
図10に示すように元映像データ1001からオブジェ
クト1003を分離する処理1002により、カメラワ
ークにより動く背景1004のみを検出する。そして、
この検出した背景1004と外部より入力されるカメラ
ワークにより動く背景1005と比較することによっ
て、外部より入力されるカメラワークと同一のカメラワ
ークが用いられている映像フレームを元映像データ10
01から検索する。
を記述しておけば、処理1002は不要となる。
ローチャートを参照して本発明の第2の実施形態につい
て説明する。本実施形態では、先の第1の実施形態にお
けるオブジェクトの検出及び記述に代えて、予め解析さ
れた特徴量データが付加された元映像データ1100を
入力し(ステップ1101)、この元映像データ110
0からオブジェクトに関する特徴量データを分離して抽
出する(ステップ1102)。
1102で抽出された元映像データ1100に関する特
徴量データと、ステップ1109により入力された検索
対象特徴量データ1110との類似度判定処理を行い
(ステップ1108)、その結果をオブジェクト検索結
果表示データ1112として合成表示するための合成表
示処理を行う(ステップ1111)。
またはハードウェアのいずれでも実現が可能である。
ローチャートを用いて本発明の第3の実施形態について
説明する。本実施形態では、外部より入力された一連の
動きと複数フレームに渡る表記データを比較し、時系列
的な動きによるオブジェクトの検索を可能にするため
に、複数の連続する表記データ1201に含まれるオブ
ジェクトのうち、同一のオブジェクトを対応付ける処理
を行う(ステップ1202)。一方、外部より入力され
た動きデータ1203から、表記データ1201と同一
の間隔で動きデータを抽出するサンプリング処理を行う
(ステップ1204)。
プリングされた外部入カの動きデータを比較し(ステッ
プ1105)、合致するオブジェクトを含む映像を検索
結果として表示する(ステップ1106)。
2の連続する表記データ1201に含まれるオブジェク
トの対応付け処理について説明する。第N番目の表記デ
ータに含まれるオブジェクト1301に関する特徴量
(位置及び動き)を用いて、第N+1番目の表記データ
におけるオブジェクトの予測される位置1302を求め
る。そして、この予測される位置1302に最も近い位
置に存在する第N+1番目の表記データに含まれるオブ
ジェクト1303をオブジェクト1301に対応するオ
ブジェクトとする。
4における外部から入力された動きデータ1203のサ
ンプリング処理について説明する。外部より入力された
動きデータ1401(1203と同じ)は連続的な動き
データであるため、そのままでは数フレーム毎に付加さ
れる離散的なデータである表記データ中と比較すること
はできない。そこで、動きデータ1401を表記データ
のフレーム間隔でサンプリングして、このサンプリング
された動きデータ1402と表記データを比較する。
またはハードウェアのいずれでも実現が可能である。
ブジェクトに関する特徴量と背景に関する特徴量を記述
しておくことにより、背景の動きを除去してオブジェク
ト本来の動きによる検索が可能である。
て人手に頼らずに自動的にオブジェクトを検出してその
特徴量を抽出し、外部から入力された別の特徴量に合致
したオブジェクトを検索したり、外部から入力されたカ
メラワークによる動きを伴う背景と同じ背景の動きを含
むフレームを検索するなど、個々のユーザの目的に合っ
た映像検索を容易に行うことができる。
くことにより、検索の度に特徴量抽出処埋を行う必要が
なく、高速な検索が可能であり、またユーザ側にオブジ
ェクト検出機能がない場合でも上述した検索が可能とな
る。
テムの基本的な処理手順を示すフローチャート
手順を示すフローチャート
るMPEGストリームのIピクチャ及びPピクチャの関
係を示す図
信頼性ペクトルの除去について説明するための図
める手法を説明するためのフローチャート
める他の手法を説明するためのフローチャート
用いる特徴量データの構造を示す図
手順を示すフローチャート
おけるカメラワークの除去について示す図
における入力されたカメラワークと同一カメラワークが
用いられているフレームの検索について示す図
ステムの基本的な処理手順を示すフローチャート
ステムの基本的な処理手順を示すフローチャート
でのオブジェクトの対応付けを説明するための図
きデータのサンブリング方法を説明するための図
Claims (17)
- 【請求項1】映像中の特定のオブジェクトに関する特徴
量及び該映像中の背景に関する特徴量を映像情報として
記述することを特徴とする映像情報記述方法。 - 【請求項2】映像中の特定のオブジェクトに関する特徴
量と該映像中の背景に関する特徴量及びその差分を映像
情報として記述することを特徴とする映像情報記述方
法。 - 【請求項3】前記オブジェクトに関する特徴量として少
なくとも前記オブジェクトの位置、形状及び動きの情報
を記述し、前記背景に関する特徴量として少なくとも該
背景の動きの情報を記述することを特徴とする請求項1
及び2のいずれか1項に記載の映像情報記述方法。 - 【請求項4】請求項1乃至3のいずれか1項に記載の映
像情報記述方法により記述された前記オブジェクトに関
する特徴量及び背景に関する特徴量を映像データと共
に、あるいは該映像データとは別に格納した記録媒体。 - 【請求項5】入力された映像の動ベクトルを抽出する動
ベクトル抽出ステップと、 前記動ベクトルを用いて前記映像の背景の動きを推定す
る推定ステップと、 前記推定した背景の動きを除去して前記映像中の特定の
オブジェクトに関する動ベクトルを検出し、該オブジェ
クトの領域を検出する検出ステップと、を有することを
特徴とするオブジェクト検出方法。 - 【請求項6】前記推定ステップは、前記背景の動きを所
定の変換モデルで近似し、該変換モデルの変換係数を前
記映像の動べクトルから推定することによって前記背景
の動きを推定することを特徴とする請求項5記載のオブ
ジェクト検出方法。 - 【請求項7】前記推定ステップは、前記変換モデルの変
換係数をロバスト推定法により推定することを特徴とす
る請求項6記載のオブジェクト検出方法。 - 【請求項8】前記推定ステップは、前記映像の画面内の
動ベクトルを類似度に従って領域分割し、分割された各
領域を該動ベクトルの類似度に基づいてクラスタリング
し、最大のクラスタの領域を背景の領域と判定する処理
を含むことを特徴とする請求項5乃至7のいずれか1項
記載のオブジェクト検出方法。 - 【請求項9】前記推定ステップは、前記映像の複数フレ
ームの動ベクトルを各フレーム内の類似度に従って領域
分割し、これらの領域をフレーム間で対応付け、対応付
けられた各領域が同じクラスタに属するように各領域を
該動ベクトルに基づいて各フレーム内でクラスタリング
し、最大のクラスタの領域を背景の領域と判定する処理
を含むことを特徴とする請求項5乃至7のいずれか1項
記載のオブジェクト検出方法。 - 【請求項10】検索対象となる映像中の特定のオブジェ
クトに関する特徴量及び該映像中の背景に関する特徴量
を記述しておき、 前記映像中のオブジェクトに関する特徴量から前記背景
に関する特徴量を差し引いた後、外部より入力されたオ
ブジェクトに関する特徴量と比較することによって、前
記検索対象となる映像から前記外部より入力されたオブ
ジェクトと同一のオブジェクトもしくは前記外部より入
力されたオブジェクトと同一のオブジェクトを含む前記
映像中のフレームの少なくとも一方を検索することを特
徴とする映像検索方法。 - 【請求項11】検索対象となる映像中の特定のオブジェ
クトに関する特徴量と該映像中の背景に関する特徴量及
びそれぞれの特徴量の差分を記述しておき、 前記差分と外部より入力されたオブジェクトに関する特
徴量とを比較することによって、前記検索対象となる映
像から前記外部より入力されたオブジェクトと同一のオ
ブジェクトもしくは前記外部より入力されたオブジェク
トと同一のオブジェクトを含む前記映像中のフレームの
少なくとも一方を検索することを特徴とする映像検索方
法。 - 【請求項12】検索対象となる映像中の特定のオブジェ
クトに関する特徴量及び該映像中の背景に関する特徴量
を記述しておき、 前記背景に関する特徴量と外部より入力された映像中の
背景に関する特徴量とを比較することによって、前記検
索対象となる映像から前記外部より入力された映像を得
たときのカメラワークとほぼ同一のカメラワークが用い
られているフレームを検索することを特徴とする映像検
索方法。 - 【請求項13】検索対象となる映像中の特定のオブジェ
クトに関する少なくとも動きの情報を含む特徴量及び該
映像中の背景に関する特徴量を記述しておき、 前記映像中の連続する複数フレームにおけるオブジェク
トの動き情報と外部より入力されたオブジェクトの一連
の動きの情報とを比較することにより、前記検索対象と
なる映像から前記外部より入力されたオブジェクトと同
一のオブジェクトもしくは前記外部より入力されたオブ
ジェクトと同一のオブジェクトを含むフレームの少なく
とも一方を検索することを特徴とする映像検索方法。 - 【請求項14】検索対象となる映像中の特定のオブジェ
クトに関する特徴量及び該映像中の背景に関する特徴量
を記述しておき、 前記映像中のオブジェクトに関する特徴量から前記背景
に関する特徴量を差し引いた後、外部より入力されたオ
ブジェクトに関する特徴量と比較することによって、前
記検索対象となる映像から前記外部より入力されたオブ
ジェクトと同一のオブジェクトもしくは前記外部より入
力されたオブジェクトと同一のオブジェクトを含む前記
映像中のフレームの少なくとも一方を検索することを特
徴とする映像検索装置。 - 【請求項15】検索対象となる映像中の特定のオブジェ
クトに関する特徴量と該映像中の背景に関する特徴量及
びそれぞれの特徴量の差分を記述しておき、 前記差分と外部より入力されたオブジェクトに関する特
徴量とを比較することによって、前記検索対象となる映
像から前記外部より入力されたオブジェクトと同一のオ
ブジェクトもしくは前記外部より入力されたオブジェク
トと同一のオブジェクトを含む前記映像中のフレームの
少なくとも一方を検索することを特徴とする映像検索装
置。 - 【請求項16】検索対象となる映像中の特定のオブジェ
クトに関する特徴量及び該映像中の背景に関する特徴量
を記述しておき、 前記背景に関する特徴量と外部より入力された映像中の
背景に関する特徴量とを比較することによって、前記検
索対象となる映像から前記外部より入力された映像を得
たときのカメラワークとほぼ同一のカメラワークが用い
られているフレームを検索することを特徴とする映像検
索装置。 - 【請求項17】検索対象となる映像中の特定のオブジェ
クトに関する少なくとも動きの情報を含む特徴量及び該
映像中の背景に関する特徴量を記述しておき、 前記映像中の連続する複数フレームにおけるオブジェク
トの動き情報と外部より入力されたオブジェクトの一連
の動きの情報とを比較することにより、前記検索対象と
なる映像から前記外部より入力されたオブジェクトと同
一のオブジェクトもしくは前記外部より入力されたオブ
ジェクトと同一のオブジェクトを含むフレームの少なく
とも一方を検索することを特徴とする映像検索装置。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11022372A JP2000222584A (ja) | 1999-01-29 | 1999-01-29 | 映像情報記述方法、映像検索方法及び映像検索装置 |
| US09/493,013 US7003156B1 (en) | 1999-01-29 | 2000-01-28 | Object detection method and a video data retrieval method |
| US11/260,145 US20060045349A1 (en) | 1999-01-29 | 2005-10-28 | Object detection method and a video data retrieval method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11022372A JP2000222584A (ja) | 1999-01-29 | 1999-01-29 | 映像情報記述方法、映像検索方法及び映像検索装置 |
Related Child Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008099459A Division JP2008226261A (ja) | 2008-04-07 | 2008-04-07 | オブジェクト検出方法 |
| JP2008099460A Division JP2008262560A (ja) | 2008-04-07 | 2008-04-07 | 映像検索方法及び映像検索装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000222584A true JP2000222584A (ja) | 2000-08-11 |
Family
ID=12080816
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP11022372A Pending JP2000222584A (ja) | 1999-01-29 | 1999-01-29 | 映像情報記述方法、映像検索方法及び映像検索装置 |
Country Status (2)
| Country | Link |
|---|---|
| US (2) | US7003156B1 (ja) |
| JP (1) | JP2000222584A (ja) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002251615A (ja) * | 2001-02-22 | 2002-09-06 | Sony Corp | 画像処理装置及び方法並びにロボット装置及びその制御方法 |
| JP2002536746A (ja) * | 1999-02-01 | 2002-10-29 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 動画シーケンスを表す記述子とその記述子を使用する画像検索システム |
| JP2006178974A (ja) * | 2004-12-23 | 2006-07-06 | Ricoh Co Ltd | 情報処理方法、情報処理装置及びデータ処理装置 |
| JP2007087049A (ja) * | 2005-09-21 | 2007-04-05 | Kddi Corp | 動画像処理装置 |
| JP2007306559A (ja) * | 2007-05-02 | 2007-11-22 | Mitsubishi Electric Corp | 画像特徴符号化方法及び画像検索方法 |
| JP2008146490A (ja) * | 2006-12-12 | 2008-06-26 | Yahoo Japan Corp | 情報提供装置、情報提供方法、及びコンピュータプログラム |
| JP2008310418A (ja) * | 2007-06-12 | 2008-12-25 | Nikon Corp | 画像処理装置、画像処理プログラム及びそれらを搭載した電子カメラ |
| JP2009076094A (ja) * | 2008-11-20 | 2009-04-09 | Panasonic Corp | 移動物体監視装置 |
| JP4456181B1 (ja) * | 2008-10-27 | 2010-04-28 | パナソニック株式会社 | 移動体検出方法及び移動体検出装置 |
| WO2010079556A1 (ja) * | 2009-01-09 | 2010-07-15 | パナソニック株式会社 | 移動体検出方法および移動体検出装置 |
| US8300926B2 (en) | 2008-07-09 | 2012-10-30 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
| JP2014071902A (ja) * | 2012-09-28 | 2014-04-21 | Boeing Co | フィンガープリントを使用してビデオ内で移動オブジェクトを追跡するため方法及びシステム |
| JP2016157197A (ja) * | 2015-02-23 | 2016-09-01 | 株式会社リコー | 自己位置推定装置、自己位置推定方法およびプログラム |
Families Citing this family (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000222584A (ja) * | 1999-01-29 | 2000-08-11 | Toshiba Corp | 映像情報記述方法、映像検索方法及び映像検索装置 |
| US6774908B2 (en) * | 2000-10-03 | 2004-08-10 | Creative Frontier Inc. | System and method for tracking an object in a video and linking information thereto |
| US20030098869A1 (en) * | 2001-11-09 | 2003-05-29 | Arnold Glenn Christopher | Real time interactive video system |
| US7595817B1 (en) * | 2003-02-12 | 2009-09-29 | The Research Foundation Of State University Of New York | Linear system based, qualitative independent motion detection from compressed MPEG surveillance video |
| US20080002864A1 (en) * | 2006-06-29 | 2008-01-03 | Eastman Kodak Company | Using background for searching image collections |
| US8341152B1 (en) | 2006-09-12 | 2012-12-25 | Creatier Interactive Llc | System and method for enabling objects within video to be searched on the internet or intranet |
| US8804829B2 (en) * | 2006-12-20 | 2014-08-12 | Microsoft Corporation | Offline motion description for video generation |
| JP4759524B2 (ja) * | 2007-01-09 | 2011-08-31 | 富士フイルム株式会社 | 電子式手振れ補正方法及びその装置並びに電子式手振れ補正プログラムと撮像装置 |
| AU2008260048B2 (en) * | 2007-05-30 | 2012-09-13 | Creatier Interactive, Llc | Method and system for enabling advertising and transaction within user generated video content |
| JP2009048490A (ja) * | 2007-08-21 | 2009-03-05 | Toshiba Corp | 類似ショット検出装置、プログラムおよび方法 |
| JP4909840B2 (ja) * | 2007-08-21 | 2012-04-04 | 株式会社東芝 | 映像処理装置、プログラムおよび方法 |
| JP5054206B2 (ja) * | 2008-03-14 | 2012-10-24 | パナソニック株式会社 | 画像処理方法及び画像処理装置 |
| JP5675056B2 (ja) * | 2008-07-04 | 2015-02-25 | 株式会社東芝 | X線撮影装置および画像処理装置 |
| EP2352128B1 (en) * | 2009-07-29 | 2018-10-24 | Panasonic Intellectual Property Management Co., Ltd. | Mobile body detection method and mobile body detection apparatus |
| WO2011013299A1 (ja) * | 2009-07-31 | 2011-02-03 | パナソニック株式会社 | 移動体検出装置及び移動体検出方法 |
| TWI588778B (zh) * | 2012-01-17 | 2017-06-21 | 國立臺灣科技大學 | 動作辨識方法 |
| US8811772B2 (en) * | 2012-08-21 | 2014-08-19 | Tianzhi Yang | Mapping evaluating for spatial point sets |
| US10963733B2 (en) * | 2019-06-17 | 2021-03-30 | Tianzhi Yang | Associating spatial point sets with candidate correspondences |
| CN113486214B (zh) * | 2021-07-23 | 2024-09-24 | 广州酷狗计算机科技有限公司 | 音乐匹配方法、装置、计算机设备及存储介质 |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3244798B2 (ja) * | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
| US6014461A (en) * | 1994-11-30 | 2000-01-11 | Texas Instruments Incorporated | Apparatus and method for automatic knowlege-based object identification |
| US5684715A (en) * | 1995-06-07 | 1997-11-04 | Canon Information Systems, Inc. | Interactive video system with dynamic video object descriptors |
| JPH09212648A (ja) * | 1996-01-31 | 1997-08-15 | Toshiba Corp | 動画像処理方法 |
| US6445409B1 (en) * | 1997-05-14 | 2002-09-03 | Hitachi Denshi Kabushiki Kaisha | Method of distinguishing a moving object and apparatus of tracking and monitoring a moving object |
| US6335985B1 (en) * | 1998-01-07 | 2002-01-01 | Kabushiki Kaisha Toshiba | Object extraction apparatus |
| US6404901B1 (en) * | 1998-01-29 | 2002-06-11 | Canon Kabushiki Kaisha | Image information processing apparatus and its method |
| US6278466B1 (en) * | 1998-06-11 | 2001-08-21 | Presenter.Com, Inc. | Creating animation from a video |
| US6564263B1 (en) * | 1998-12-04 | 2003-05-13 | International Business Machines Corporation | Multimedia content description framework |
| US6587574B1 (en) * | 1999-01-28 | 2003-07-01 | Koninklijke Philips Electronics N.V. | System and method for representing trajectories of moving objects for content-based indexing and retrieval of visual animated data |
| US6377296B1 (en) * | 1999-01-28 | 2002-04-23 | International Business Machines Corporation | Virtual map system and method for tracking objects |
| JP2000222584A (ja) * | 1999-01-29 | 2000-08-11 | Toshiba Corp | 映像情報記述方法、映像検索方法及び映像検索装置 |
| US6594386B1 (en) * | 1999-04-22 | 2003-07-15 | Forouzan Golshani | Method for computerized indexing and retrieval of digital images based on spatial color distribution |
| US6411724B1 (en) * | 1999-07-02 | 2002-06-25 | Koninklijke Philips Electronics N.V. | Using meta-descriptors to represent multimedia information |
-
1999
- 1999-01-29 JP JP11022372A patent/JP2000222584A/ja active Pending
-
2000
- 2000-01-28 US US09/493,013 patent/US7003156B1/en not_active Expired - Fee Related
-
2005
- 2005-10-28 US US11/260,145 patent/US20060045349A1/en not_active Abandoned
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002536746A (ja) * | 1999-02-01 | 2002-10-29 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 動画シーケンスを表す記述子とその記述子を使用する画像検索システム |
| JP2002251615A (ja) * | 2001-02-22 | 2002-09-06 | Sony Corp | 画像処理装置及び方法並びにロボット装置及びその制御方法 |
| JP2006178974A (ja) * | 2004-12-23 | 2006-07-06 | Ricoh Co Ltd | 情報処理方法、情報処理装置及びデータ処理装置 |
| JP2007087049A (ja) * | 2005-09-21 | 2007-04-05 | Kddi Corp | 動画像処理装置 |
| JP2008146490A (ja) * | 2006-12-12 | 2008-06-26 | Yahoo Japan Corp | 情報提供装置、情報提供方法、及びコンピュータプログラム |
| JP2007306559A (ja) * | 2007-05-02 | 2007-11-22 | Mitsubishi Electric Corp | 画像特徴符号化方法及び画像検索方法 |
| JP2008310418A (ja) * | 2007-06-12 | 2008-12-25 | Nikon Corp | 画像処理装置、画像処理プログラム及びそれらを搭載した電子カメラ |
| US8300926B2 (en) | 2008-07-09 | 2012-10-30 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
| JP4456181B1 (ja) * | 2008-10-27 | 2010-04-28 | パナソニック株式会社 | 移動体検出方法及び移動体検出装置 |
| WO2010050110A1 (ja) * | 2008-10-27 | 2010-05-06 | パナソニック株式会社 | 移動体検出方法及び移動体検出装置 |
| CN101983389B (zh) * | 2008-10-27 | 2012-11-21 | 松下电器产业株式会社 | 移动体检测方法以及移动体检测装置 |
| US8340357B2 (en) | 2008-10-27 | 2012-12-25 | Panasonic Corporation | Moving object detection method and moving object detection apparatus |
| JP2009076094A (ja) * | 2008-11-20 | 2009-04-09 | Panasonic Corp | 移動物体監視装置 |
| WO2010079556A1 (ja) * | 2009-01-09 | 2010-07-15 | パナソニック株式会社 | 移動体検出方法および移動体検出装置 |
| JP4542207B1 (ja) * | 2009-01-09 | 2010-09-08 | パナソニック株式会社 | 移動体検出方法および移動体検出装置 |
| US8213681B2 (en) | 2009-01-09 | 2012-07-03 | Panasonic Corporation | Moving object detection method and moving object detection apparatus |
| CN102077250B (zh) * | 2009-01-09 | 2014-04-16 | 松下电器产业株式会社 | 移动体检测方法及移动体检测装置 |
| JP2014071902A (ja) * | 2012-09-28 | 2014-04-21 | Boeing Co | フィンガープリントを使用してビデオ内で移動オブジェクトを追跡するため方法及びシステム |
| JP2016157197A (ja) * | 2015-02-23 | 2016-09-01 | 株式会社リコー | 自己位置推定装置、自己位置推定方法およびプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| US7003156B1 (en) | 2006-02-21 |
| US20060045349A1 (en) | 2006-03-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2000222584A (ja) | 映像情報記述方法、映像検索方法及び映像検索装置 | |
| US6342904B1 (en) | Creating a slide presentation from full motion video | |
| JP5371083B2 (ja) | 顔識別特徴量登録装置、顔識別特徴量登録方法、顔識別特徴量登録プログラム及び記録媒体 | |
| JP3175632B2 (ja) | シーンチェンジ検出方法およびシーンチェンジ検出装置 | |
| JP3131560B2 (ja) | 動画像処理システムにおける動画像情報検出装置 | |
| CN102117313A (zh) | 一种视频检索方法和系统 | |
| CN101425133A (zh) | 人物图像检索装置 | |
| JP4973188B2 (ja) | 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム | |
| US6411339B1 (en) | Method of spatio-temporally integrating/managing a plurality of videos and system for embodying the same, and recording medium for recording a program for the method | |
| JP2000339474A (ja) | 動画像類似度算出装置および方法 | |
| US7826667B2 (en) | Apparatus for monitor, storage and back editing, retrieving of digitally stored surveillance images | |
| JP4773998B2 (ja) | 監視カメラ・システム,動画検索装置および顔画像データベース更新装置ならびにそれらの動作制御方法 | |
| JPH09284702A (ja) | シーン変化フレーム検出方法および装置 | |
| JP2008262560A (ja) | 映像検索方法及び映像検索装置 | |
| JP3330348B2 (ja) | 映像検索方法及び装置並びに映像検索プログラムを記録した記録媒体 | |
| JP2008226261A (ja) | オブジェクト検出方法 | |
| WO2003063082A1 (en) | Moving picture search apparatus | |
| JP3558886B2 (ja) | 映像処理装置 | |
| KR100311739B1 (ko) | 동영상장면변환검출방법 | |
| JP3499729B2 (ja) | 複数映像の時空間統合、管理方法及びその装置並びにそのプログラムを記録した記録媒体 | |
| JP3128378B2 (ja) | 映像インデックス作成装置 | |
| JP4743601B2 (ja) | 動画像処理装置 | |
| US20100245394A1 (en) | Image processing apparatus, image processing method, and program | |
| JPH09223234A (ja) | 動画像処理システムにおける動画像情報検出装置 | |
| JPH07322184A (ja) | 登録装置及び登録装置を用いた画像ファイリング装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050311 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080125 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080205 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080407 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080507 |