[go: up one dir, main page]

JPH10112863A - Moving subject information extraction method and apparatus - Google Patents

Moving subject information extraction method and apparatus

Info

Publication number
JPH10112863A
JPH10112863A JP26448596A JP26448596A JPH10112863A JP H10112863 A JPH10112863 A JP H10112863A JP 26448596 A JP26448596 A JP 26448596A JP 26448596 A JP26448596 A JP 26448596A JP H10112863 A JPH10112863 A JP H10112863A
Authority
JP
Japan
Prior art keywords
moving subject
motion vector
motion
motion vectors
subject information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26448596A
Other languages
Japanese (ja)
Inventor
Yasumasa Niikura
康巨 新倉
Akito Akutsu
明人 阿久津
Yoshinobu Tonomura
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP26448596A priority Critical patent/JPH10112863A/en
Publication of JPH10112863A publication Critical patent/JPH10112863A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】 【課題】 動き被写体と無関係な動きベクトルを含む映
像圧縮符号化データから正しい動き被写体情報を抽出で
きる動き被写体情報抽出方法を提供する。 【解決手段】 動き予測方式を用いた圧縮符号化方式に
よって符号化された映像圧縮符号化データに含まれる動
きベクトルから動き被写体情報を算出する動き被写体情
報抽出方法において、前記映像圧縮符号化データに含ま
れる動きベクトルの中から動き被写体とは無関係な動き
ベクトルをノイズとして除去する第1のステップと、前
記第1のステップで無関係な動きベクトルが除去された
動きベクトルから動き被写体に相当する動き被写体領域
を抽出する第2のステップと、前記第2のステップで抽
出された動き被写体領域から動き被写体情報を抽出する
第3のステップとを具備する。
(57) [Problem] To provide a moving subject information extraction method capable of extracting correct moving subject information from video compression encoded data including a motion vector irrelevant to a moving subject. SOLUTION: In the moving subject information extracting method for calculating moving subject information from a motion vector included in video compression encoded data encoded by a compression encoding method using a motion prediction method, the video compression encoded data includes A first step of removing, as noise, a motion vector irrelevant to the moving object from the included motion vectors, and a moving object corresponding to the moving object from the motion vector from which the irrelevant motion vector has been removed in the first step. The method includes a second step of extracting a region, and a third step of extracting moving subject information from the moving subject region extracted in the second step.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、動き被写体情報抽
出方法及び装置に係わり、特に、動き被写体と無関係な
動きベクトルを含む映像圧縮符号化データから正しい動
き被写体情報を抽出するための動き被写体情報抽出方法
及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for extracting moving subject information, and more particularly to moving subject information for extracting correct moving subject information from video compression encoded data including a motion vector unrelated to a moving subject. The present invention relates to an extraction method and apparatus.

【0002】[0002]

【従来の技術】映像データはデータ量が膨大であり、そ
の内容を知るためには映像を時間順に全て見ていくしか
なかった。
2. Description of the Related Art The amount of video data is enormous, and the only way to know its contents is to look at all the videos in chronological order.

【0003】映像をある基準に基づいて分割し、それを
インデクスとして用いることにより、映像を飛ばし見し
たり、内容を大雑把に把握するために役立つ。こうした
映像分割の際に、映像をカット点と呼ばれるシーンの変
わり目で分割する方法が、下記公報(イ)に記載されて
いる。
[0003] By dividing an image based on a certain criterion and using it as an index, it is useful for skipping the image and understanding the contents roughly. The following gazette (a) describes a method of dividing an image at a transition between scenes called a cut point in such image division.

【0004】また、同一シーン内でさらに映像を細かく
分割するために、カメラワーク等によって映像の内容が
変化することを利用し、カメラワーク情報をインデクス
として用い、映像を分割する方法が、下記文献(ロ)に
記載されている。
Further, in order to further divide an image in the same scene, a method of dividing an image by using camerawork information as an index by using the fact that the content of the image changes due to camerawork or the like is disclosed in the following document. It is described in (b).

【0005】(イ)特開平5−37853号「動画のカ
ット自動分割方法」 (ロ)「時系列オプティカルフローを用いた映像単位の
提案」(画像符号化シンポジウムPCSJ91) 一方、映像は大量の画像データ列を持っており、それら
を扱いやすくするために多くの映像圧縮符号化方法が提
案されている。その中でも、動き予測を含む符号化方法
であるMPEG方式は代表的な方法である。
(A) Japanese Patent Laid-Open No. 5-37853, "Automatic Video Cut Division Method" (b) "Proposal of Video Unit Using Time-Series Optical Flow" (Image Coding Symposium PCSJ91) Many video compression encoding methods have been proposed to have data strings and to make them easier to handle. Among them, the MPEG method, which is an encoding method including motion prediction, is a typical method.

【0006】MPEG方式で符号化された画像データ列
における各予測符号化画像データでは各画像をマクロブ
ロック(MB)と呼ばれる部分領域に分割し、領域毎に
符号化を行う。
[0006] In each prediction coded image data in the image data sequence coded by the MPEG system, each image is divided into partial areas called macroblocks (MB), and coding is performed for each area.

【0007】その際に3種類の符号化方式を選択する。
一つはIntraとよばれる画像内符号化方式であり、
一つはMC Codedとよばれる動きベクトルを用い
た予測符号化方式であり、一つはNo MC Code
dとよばれる動きベクトルを用いない予測符号化方式で
ある。
At this time, three types of coding systems are selected.
One is an intra-coding method called Intra,
One is a predictive coding method using a motion vector called MC Code, and the other is No MC Code.
This is a predictive coding method called d which does not use a motion vector.

【0008】これらの符号化方式の選択は、以下の法則
によって行われる。
[0008] The selection of these coding methods is performed according to the following rules.

【0009】if(var<vmc)MBType=”
Intra” else if(v0<α*vmc)MBType=”
No MC Coded” else MBType=”MC Coded” ここで、varはマクロブロック(MB)の画素値の分
散、vmcは動き予測を行った場合のフレーム間の画素
値の差の分散、v0は動き予測を用いない場合のフレー
ム間の画素値の分散であり、αはバイアス値で1.25
程度の値が用いられる。これらの選択は分散が小さい方
が符号化効率が向上することからこのような選択を行っ
ている。
If (var <vmc) MBType = "
Intra “else if (v0 <α * vmc) MBType =”
No MC Coded “else MBType =“ MC Coded ”where var is the variance of the pixel value of the macroblock (MB), vmc is the variance of the pixel value difference between frames when motion prediction is performed, and v0 is the motion prediction Is the variance of pixel values between frames when is not used, and α is a bias value of 1.25
A degree value is used. These selections are made because the smaller the variance, the higher the coding efficiency.

【0010】カメラワークや動き被写体の存在によって
画像内容が変化している場合、前記した符号化方式の選
択によって、カメラワークや動き被写体等の動き情報を
反映する動きベクトルを用いた予測符号化が行われる。
When the image content changes due to the presence of camera work or a moving subject, predictive coding using a motion vector reflecting motion information of camera work, a moving subject, or the like can be performed by selecting the above-described coding method. Done.

【0011】そして、カメラワークが存在する原画像デ
ータ列からカメラワーク情報を抽出する場合、従来は、
一度復号化を行った後に、カメラワーク情報を抽出して
おり、コストのかかる計算処理を必要としていた。
When extracting camera work information from an original image data sequence in which camera work exists, conventionally,
After decoding once, camerawork information is extracted, which requires costly calculation processing.

【0012】そのため、符号化情報に含まれる動きベク
トル情報を用いて、カメラワーク情報などの動き情報を
抽出する方法が、下記文献(ハ)または(ニ)に記載さ
れている。
For this reason, a method for extracting motion information such as camera work information using motion vector information included in encoded information is described in the following literature (c) or (d).

【0013】(ハ)「MPEGデータを用いた動領域の
抽出」(信学技報 IE96-25 P.69-) (ニ)「Video Parsing Using Compressed Data」(SPI
E Vol.2182 Image and Video Processing II 1994)
(C) "Extraction of moving area using MPEG data" (IEICE Technical Report IE96-25, p. 69-) (d) "Video Parsing Using Compressed Data" (SPI
E Vol.2182 Image and Video Processing II 1994)

【0014】[0014]

【発明が解決しようとする課題】前記文献(ハ)または
(ニ)に記載されている方法では、画像データは理想的
な環境下において符号化され、抽出された動きベクトル
を対象に動き情報を抽出している。
In the method described in the above document (c) or (d), image data is encoded under an ideal environment, and motion information is extracted from the extracted motion vectors. Has been extracted.

【0015】しかしながら、実際の画像においてはノイ
ズあるいは画面のちらつきが生じる。このため、実際に
カメラで撮影されたアナログ映像信号を符号化した映像
データを対象とした場合、画面のちらつきあるいはノイ
ズ等によって、動き情報とは無関係な動きベクトル(以
下、ノイズ動きベクトルと称す。)が多数出現する。
However, noise or screen flicker occurs in an actual image. For this reason, when video data obtained by encoding an analog video signal actually captured by a camera is targeted, a motion vector irrelevant to motion information (hereinafter referred to as a noise motion vector) due to flickering of screen or noise. ) Appear in large numbers.

【0016】特に、こうした動き情報を抽出する際の妨
げとなるようなノイズ動きベクトルは、明度・輝度が一
様で数ブロックに渡る広い領域が存在する場合に多数出
現する。
In particular, a large number of noise motion vectors that hinder the extraction of such motion information appear when there is a wide area extending over several blocks with uniform brightness and luminance.

【0017】即ち、マクロブロック(MB)に様々な明
度や色成分が含まれている場合、各マクロブロック(M
B)内で、様々な画素値が分布しており、位置情報によ
る予測の拘束によって、画面のちらつきあるいはノイズ
によりあまり大きな影響はうけず、ほぼ理想的な環境で
動き予測が行われ、動きベクトルを得ることができる。
That is, when various lightness and color components are included in a macroblock (MB), each macroblock (M
In B), various pixel values are distributed. Due to the restriction of the prediction based on the position information, the screen is not greatly influenced by the flickering or the noise of the screen, and the motion prediction is performed in an almost ideal environment. Can be obtained.

【0018】一方、数個のマクロブロック(MB)に渡
り、広く明度や色変化の少ない一様な領域が画像内に存
在する場合、理想的には静止状態では動きベクトル0、
領域が相対的に移動している状態では領域内部で動きベ
クトル0、輪郭部分で動きを反映した動きベクトルが観
察されるはずである。
On the other hand, if a uniform area having a small brightness and little color change exists in an image over several macroblocks (MB), ideally, the motion vector 0,
When the region is relatively moving, a motion vector 0 inside the region and a motion vector reflecting the motion in the outline portion should be observed.

【0019】しかしながら、元々が明度、色ともに変化
のない一様な領域であるため、現実に符号化を行うと、
少しの画面のちらつきあるいはノイズが存在するだけ
で、フレーム間差分の画素値の分散が大きくなってしま
う。
However, since it is originally a uniform area in which both brightness and color do not change, if coding is actually performed,
Even a small amount of screen flicker or noise will increase the variance of the pixel values of the inter-frame difference.

【0020】そのため、動きベクトルは0とならず他の
値を持つ。さらに、画面のちらつきあるいはノイズはラ
ンダムに出現するため、この影響をうけて動きベクトル
もランダムに出現する。即ち、ノイズ動きベクトルが出
現する。
Therefore, the motion vector does not become 0 but has another value. Furthermore, since flickering or noise on the screen appears at random, a motion vector appears at random under this influence. That is, a noise motion vector appears.

【0021】このように、画像データの内容が静止して
いる場合、理想的には0ベクトルしか出現しないはずで
あるが、一様な領域が存在すると実際の画像では、0ベ
クトルだはなくランダムなノイズ動きベクトルが出現す
る。
As described above, when the content of the image data is stationary, only the zero vector should ideally appear. However, if a uniform area exists, in the actual image, not the zero vector but the random vector is generated. Noise motion vector appears.

【0022】理想的な環境下での動き被写体が存在する
場合から、カメラワークが存在する場合、さらにはノイ
ズが存在する場合の動きベクトルの分布の一例を図14
に示す。
FIG. 14 shows an example of the distribution of motion vectors when there is a moving subject under an ideal environment, when there is a camera work, and when there is noise.
Shown in

【0023】同図(a)は、理想的な環境下で、原画像
に動き被写体が存在する場合、同図(b)は、理想的な
環境下で、原画像に動き被写体が存在し、かつ、カメラ
ワーク(パン)が存在する場合、同図(c)は、ノイズ
が存在する環境下で、原画像に動き被写体が存在する場
合、同図(d)は、ノイズが存在する環境下で、原画像
に動き被写体が存在し、かつ、カメラワーク(パン)が
存在する場合を示している。
FIG. 3A shows a case where a moving subject exists in an original image under an ideal environment, and FIG. 3B shows a case where a moving subject exists in an original image under an ideal environment. In addition, when camera work (pan) is present, FIG. 3C shows an environment where noise exists, and when a moving subject exists in the original image, FIG. Shows a case where a moving subject exists in the original image and camera work (pan) exists.

【0024】前記文献(ロ)に記載されている分割方法
によれば、同一シーン内でさらに映像を細かく分割する
ことが可能である。しかしながら、カメラワーク情報よ
りも、映像内容に踏み込んだ情報として、動きベクトル
から動き被写体情報を抽出できれば、より映像を細かく
分割するためのインデクスとして有効である。
According to the dividing method described in the above-mentioned document (b), it is possible to further divide an image in the same scene. However, if the moving subject information can be extracted from the motion vector as information that goes into the video content rather than the camera work information, it is effective as an index for finely dividing the video.

【0025】そして、動きベクトルから動き被写体情報
を抽出する場合には、カメラワークを反映する動きベク
トル(以下、カメラワーク動きベクトルと称す。)も抽
出する処理が必要である。しかしながら、前記したよう
なノイズ動きベクトルはランダムな動きベクトルである
ため、動きベクトルから動き被写体情報を抽出する場合
に、場合によっては、カメラワーク動きベクトルを抽出
できなかったり、あるいは、このノイズ動きベクトルを
一個の動き被写体領域であるとして抽出しまうことがあ
る。
When extracting moving subject information from a motion vector, a process for extracting a motion vector reflecting camera work (hereinafter, referred to as a camera work motion vector) is required. However, since the above-mentioned noise motion vector is a random motion vector, when extracting the moving subject information from the motion vector, in some cases, the camera work motion vector cannot be extracted, or the noise motion vector May be extracted as a single moving subject area.

【0026】そのため、動きベクトルから動き被写体領
域を抽出するためには、ノイズ動きベクトルを除去し、
当該ノイズ成分が除去された修正動きベクトルから、動
き被写体領域を分離し、動き被写体情報を抽出する処理
が必要となる。
Therefore, in order to extract a moving subject area from a motion vector, a noise motion vector is removed,
A process for separating a moving subject area from the corrected motion vector from which the noise component has been removed and extracting moving subject information is required.

【0027】本発明は、前記従来技術の問題点を解決す
るためになされたものであり、本発明の目的は、動き被
写体情報抽出方法及び装置において、動き被写体と無関
係な動きベクトルを含む映像圧縮符号化データから正し
い動き被写体情報を抽出することが可能となる技術を提
供することにある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the prior art, and an object of the present invention is to provide a method and apparatus for extracting moving subject information, the method comprising the steps of: It is an object of the present invention to provide a technique capable of extracting correct moving subject information from encoded data.

【0028】本発明の前記ならびにその他の目的と新規
な特徴は、本明細書の記述及び添付図面によって明らか
にする。
The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

【0029】[0029]

【課題を解決するための手段】本願において開示される
発明のうち、代表的なものの概要を簡単に説明すれば、
下記の通りである。
SUMMARY OF THE INVENTION Among the inventions disclosed in the present application, the outline of a representative one will be briefly described.
It is as follows.

【0030】動き予測方式を用いた圧縮符号化方式によ
って符号化された映像圧縮符号化データに含まれる動き
ベクトルから動き被写体情報を算出する動き被写体情報
抽出方法において、前記映像圧縮符号化データに含まれ
る動きベクトルの中から動き被写体とは無関係な動きベ
クトルをノイズとして除去する第1のステップと、前記
第1のステップで無関係な動きベクトルが除去された動
きベクトルから動き被写体に相当する動き被写体領域を
抽出する第2のステップと、前記第2のステップで抽出
された動き被写体領域から動き被写体情報を抽出する第
3のステップとを具備する。
In a moving subject information extracting method for calculating moving subject information from a motion vector included in video compression encoded data encoded by a compression encoding method using a motion prediction method, the video compression encoding data includes Removing a motion vector irrelevant to the moving subject from the motion vectors to be removed as noise, and a moving subject area corresponding to the moving subject from the motion vector from which the irrelevant motion vector has been removed in the first step. And a third step of extracting moving subject information from the moving subject region extracted in the second step.

【0031】前記第1のステップにおいて、動き被写体
領域と無関係なカメラワーク情報を予め抽出し、カメラ
ワークを反映する動きベクトルを除去する。
In the first step, camera work information irrelevant to the moving subject area is extracted in advance, and a motion vector reflecting camera work is removed.

【0032】前記第2にステップにおいて、時間あるい
は空間的に隣接している動きベクトルと類似した特性を
示す動きベクトルの集合を動き被写体領域として分離抽
出する。
In the second step, a set of motion vectors having characteristics similar to those of temporally or spatially adjacent motion vectors is separated and extracted as a moving subject area.

【0033】動き予測方式を用いた圧縮符号化方式によ
って符号化された映像圧縮符号化データに含まれる動き
ベクトルから動き被写体情報を算出する動き被写体情報
抽出装置において、前記映像圧縮符号化データに含まれ
る動きベクトルから動き被写体とは無関係な動きベクト
ルをノイズとして除去する前処理部と、前記前処理部で
動き被写体とは無関係な動きベクトルが除去された動き
ベクトルから動き被写体に相当する動き被写体領域を抽
出する動き被写体領域分離部と、前記動き被写体領域分
離部で抽出された動き被写体領域から動き被写体情報を
抽出する動き被写体情報抽出部とを具備する。
In a moving subject information extracting apparatus for calculating moving subject information from a motion vector included in video compression encoded data encoded by a compression encoding method using a motion prediction method, the moving object information extracting device includes: A preprocessing unit that removes a motion vector unrelated to the moving subject from the motion vector to be removed as noise, and a moving subject area corresponding to the moving subject from the motion vector from which the motion vector unrelated to the moving subject has been removed by the preprocessing unit. And a moving subject information extracting unit that extracts moving subject information from the moving subject region extracted by the moving subject region separating unit.

【0034】前処理部は、動き被写体領域と無関係なカ
メラワーク情報を予め抽出し、カメラワークを反映する
動きベクトルを除去するカメラワーク除去部を備える。
The preprocessing unit includes a camerawork removing unit that extracts camerawork information irrelevant to the moving subject area in advance and removes a motion vector reflecting camerawork.

【0035】前記動き被写体領域分離部は、時間あるい
は空間的に隣接している動きベクトルと類似した特性を
示す動きベクトルの集合を動き被写体領域として分離抽
出する。
The moving subject region separating section separates and extracts a set of motion vectors having characteristics similar to those of temporally or spatially adjacent motion vectors as a moving subject region.

【0036】前記時間あるいは空間的に隣接している動
きベクトルと類似した特性を示す動きベクトルの集合を
動き被写体領域として分離抽出する際に、動きベクトル
の特徴量を少なくとも1つ算出し、隣接している2つの
動きベクトルの間で特徴量を比較し、その比較結果が所
定の値を満足する場合に、前記隣接している2つの動き
ベクトルは類似していると判定する。
When a set of motion vectors exhibiting characteristics similar to the temporally or spatially adjacent motion vectors is separated and extracted as a moving subject region, at least one feature amount of the motion vectors is calculated, and The feature values are compared between the two motion vectors, and if the comparison result satisfies a predetermined value, it is determined that the two adjacent motion vectors are similar.

【0037】前記手段によれば、動き被写体とは無関係
な動きベクトルを含む動きベクトル分布から、動き被写
体とは無関係な動きベクトルを除去し、無関係な動きベ
クトルが除去された動きベクトルから正しい動き被写体
を反映する動きベクトルを選択するようにしたので、理
想的な環境下でなくても、正しい動き被写体情報を抽出
することができ、これにより原画像を復号化しなくて
も、原画像の内容を推測することが可能となる。
According to the above means, a motion vector irrelevant to the moving subject is removed from the motion vector distribution including a motion vector irrelevant to the moving subject, and a correct moving subject is removed from the motion vector from which the irrelevant motion vector has been removed. Is selected, so that the correct moving subject information can be extracted even in an ideal environment, so that the content of the original image can be extracted without decoding the original image. It is possible to guess.

【0038】前記手段によれば、予めカメラワークを反
映する動きベクトルを除去し、カメラワークを反映する
動きベクトルが除去された動きベクトルから正しい動き
被写体を反映する動きベクトルを選択するようにしたの
で、理想的な環境下でなくても、正しい動き被写体情報
を抽出することができる。
According to the above means, the motion vector reflecting the camerawork is removed in advance, and the motion vector reflecting the correct moving subject is selected from the motion vectors from which the motion vector reflecting the camerawork has been removed. Even in an ideal environment, correct moving subject information can be extracted.

【0039】前記手段によれば、時間あるいは空間的に
隣接している動きベクトルと類似した特性を示す動きベ
クトルの集合を動き被写体領域として分離抽出するよう
にしたので、動き被写体領域を正確に分離することが可
能となる。
According to the above-mentioned means, a set of motion vectors having characteristics similar to those of temporally or spatially adjacent motion vectors is separated and extracted as a moving subject area. It is possible to do.

【0040】[0040]

【発明の実施の形態】以下、図面を参照して本発明の実
施例を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0041】なお、実施例を説明するための全図におい
て、同一機能を有するものは同一符号を付け、その繰り
返しの説明は省略する。
In all the drawings for explaining the embodiments, parts having the same functions are denoted by the same reference numerals, and their repeated description will be omitted.

【0042】図1は、本発明の一発明の実施の形態であ
る動き被写体情報抽出方法を説明するための図である。
FIG. 1 is a diagram for explaining a moving subject information extracting method according to an embodiment of the present invention.

【0043】本実施の形態の動き被写体情報抽出方法
は、入力MPEGデータ列10から動きベクトルを有す
るフレーム間予測符号化画像データ列1のみを対象とす
る。これらのフレーム間予測符号化画像データ列1か
ら、前処理段階2で、動き被写体ベクトルの抽出を容易
にするために、ノイズ動きベクトル、カメラワーク動き
ベクトルを除去し、修正動きベクトル3を抽出する。
The moving subject information extracting method of the present embodiment targets only the inter-frame predictive coded image data sequence 1 having a motion vector from the input MPEG data sequence 10. In order to facilitate extraction of a moving subject vector, a noise motion vector and a camerawork motion vector are removed from these inter-frame prediction coded image data strings 1 in a pre-processing stage 2, and a corrected motion vector 3 is extracted. .

【0044】次に、動き被写体領域分離段階4で、この
修正動きベクトル3から動き被写体に係わる動きベクト
ルである動き被写体領域ベクトル5を分離する。
Next, in a moving subject area separating step 4, a moving subject area vector 5 which is a motion vector relating to the moving subject is separated from the corrected motion vector 3.

【0045】次に、動き被写体情報抽出段階6で、この
動き被写体領域ベクトル5から動き被写体情報(動き被
写体領域の大きさ、動きベクトルの大きさの平均と最大
最小等)を抽出する。
Next, in the moving subject information extracting step 6, moving subject information (the size of the moving subject region, the average and maximum and minimum of the size of the motion vector, etc.) is extracted from the moving subject region vector 5.

【0046】図2は、本発明の一発明の実施の形態であ
る動き被写体情報抽出装置を備える映像再生装置の概略
構成を示すブロック図である。
FIG. 2 is a block diagram showing a schematic configuration of a video reproducing apparatus having a moving subject information extracting apparatus according to an embodiment of the present invention.

【0047】図2に示す映像再生装置において、良く知
られているように、入力MPEGデータ列20は、可変
長復号器60、逆走査部61、逆量子化部62、逆DC
T部63、加算器64および動き補償部65により、可
変長復号化、逆量子化、逆DCT化、動き補償の処理を
経て、再生(復号化)画像データ列66となる。この再
生(復号化)画像データ列66は再生表示部67でディ
スプレイ上に表示される。
As is well known, in the video reproducing apparatus shown in FIG. 2, an input MPEG data string 20 is composed of a variable length decoder 60, an inverse scanning section 61, an inverse quantization section 62, an inverse DC
The T unit 63, the adder 64, and the motion compensating unit 65 form a reproduced (decoded) image data sequence 66 through variable-length decoding, inverse quantization, inverse DCT, and motion compensation. The reproduced (decoded) image data sequence 66 is displayed on the display by the reproduction display section 67.

【0048】なお、図2に示す映像再生装置において、
入力される符号化データは動き予測符号化方式を含む圧
縮符号化情報データであればよく、MPEG1及びMP
EG2のどちらでも、またH261やそれ以外の方式で
符号化されていても構わない。また、MPEGにおける
データフォーマットはフレーム間予測符号化でも、フィ
ールド間予測符号化のどちらでもよい。さらに、動き予
測方式は順方向、双方向、逆方向のいずれでもよく、動
き予測ベクトルを有していればよい。
In the video reproducing apparatus shown in FIG.
The input coded data may be compression coded information data including a motion prediction coding method, and may be MPEG1 or MP1.
Either of EG2 and H261 or other encoding may be used. The data format in MPEG may be either inter-frame prediction coding or inter-field prediction coding. Furthermore, the motion prediction method may be any one of the forward direction, the bidirectional direction, and the reverse direction, as long as it has a motion prediction vector.

【0049】図2に示す映像再生装置において、入力M
PEGデータ20は、IntraMB(マクロブロッ
ク)だけで構成されるI−pictureが1フレー
ム、フレーム間順方向動き予測符号化方式を採用してい
るP−pictureが14フレームからなる15フレ
ームを一つの単位とし、これらを1つのGOP(Gro
up of Picture)として構成する「IPP
PPPPPPPPPPPPIPPPPPPPPPPPP
PP」というデータフォーマットとする。
In the video reproducing apparatus shown in FIG.
One unit of the PEG data 20 is an I-picture composed of only Intra MBs (macroblocks), and fifteen frames composed of 14 frames of a P-picture employing an inter-frame forward motion prediction coding system. And these are combined into one GOP (Gro
"IPP" configured as "up of Picture"
PPPPPPPPPPPPPIPPPPPPPPPPPPP
The data format is “PP”.

【0050】本実施の形態の動き被写体情報抽出装置で
は、始めに、ショット単位分類部21で、逆量子化部6
2から出力されるDCT係数から、連続する同一カメラ
から撮影された映像ブロックであるショット単位(S
t,St+1,St+2,…)22に分類する。
In the moving subject information extracting apparatus according to the present embodiment, first, the shot unit classifying section 21
From the DCT coefficients output from the second unit, the shot unit (S
t, St + 1, St + 2,...) 22.

【0051】このショット単位分類部21で、ショット
単位22に分類する手法としては、例えば、「MPEG
2映像からカット点検出法」(新倉、谷口、阿久津、浜
田、1996年電子情報通信学会秋期情報通信ソサィエ
ティ大会)に記載されているような公知の手法を用いる
ことができる。
The shot unit classification unit 21 classifies shots into shot units 22, for example, as described in "MPEG
A known method described in "Method for Detecting Cut Points from Two Images" (Aikura, Taniguchi, Akutsu, Hamada, IEICE Autumn Information and Communication Society Conference, 1996) can be used.

【0052】次に、符号化情報解析部23で、各ショッ
ト単位22毎に、各ショットに含まれるフレーム間予測
符号化画像データ列(Pt,Pt+1,Pt+2,…)24を
抽出する。即ち、本実施の形態の動き被写体情報抽出装
置では、各ショットに含まれるフレーム間予測符号化画
像データ列24のみを処理の対象とする。
Next, the encoding information analysis unit 23 extracts an inter-frame prediction encoded image data sequence (Pt, Pt + 1, Pt + 2,...) 24 included in each shot for each shot unit 22. I do. That is, in the moving subject information extraction device of the present embodiment, only the inter-frame prediction coded image data sequence 24 included in each shot is to be processed.

【0053】次に、ノイズベクトル除去部25で、各シ
ョットに含まれるフレーム間予測符号化画像データ列2
4からノイズ動きベクトルを除去し、修正動きベクトル
(FPt,FPt+1,FPt+2,…)26を得る。このノ
イズベクトル除去部25については後述する。
Next, in the noise vector removing section 25, the inter-frame prediction coded image data sequence 2 included in each shot
4 to obtain a corrected motion vector (FPt, FPt + 1, FPt + 2,...) 26. The noise vector removing unit 25 will be described later.

【0054】次に、カメラワーク除去部27で、この修
正動きベクトル(FPt,FPt+1,FPt+2,…)26
からカメラワークを算出し、カメラワーク動きベクトル
を除去し、再修正動きベクトル(F2 Pt,F2 Pt+1,
F2 Pt+2,…)28を得る。このカメラワーク除去部
27については後述する。
Next, in the camera work removing section 27, the corrected motion vectors (FPt, FPt + 1, FPt + 2,...) 26
, The camera work motion vector is removed, and the re-corrected motion vector (F2 Pt, F2 Pt + 1,
F2 Pt + 2,...) 28 are obtained. The camera work removing unit 27 will be described later.

【0055】なお、本実施の形態では、カメラワークは
パン、チルト、トラック等のカメラワークのみを対象と
し、焦点距離が変化するズームやドリー等のカメラワー
クは対象としていない。
In the present embodiment, the camera work is intended only for camera work such as pan, tilt and track, and is not intended for camera work such as zoom and dolly whose focal length changes.

【0056】次に、動き被写体領域分離部29で、動き
ベクトルからカメラワーク動きベクトルおよびノイズ動
きベクトルが除去された再修正動きベクトル(F2 P
t,F2Pt+1,F2 Pt+2,…)28から、類似した動き
ベクトルが集中している領域を求め、動き被写体領域
(Pt{V1,V2,…})30を分離する。この動き被
写体領域分離部29については後述する。
Next, in the moving subject area separating section 29, the re-corrected motion vector (F2P) obtained by removing the camera work motion vector and the noise motion vector from the motion vector.
t, F2Pt + 1, F2Pt + 2,...) 28, a region where similar motion vectors are concentrated is obtained, and a moving subject region (Pt {V1, V2,...}) 30 is separated. The moving subject area separating section 29 will be described later.

【0057】次に、動き被写体情報抽出部31で、得ら
れた動き被写体領域(Pt{V1,V2,…})30に基
づき、動き被写体情報(Pt{IV1,IV2,…})3
2を抽出する。また、この動き被写体情報(Pt{IV
1,IV2,…})32から特徴量を算出し、インデクス
として利用しやすくする。
Next, the moving subject information extracting section 31 obtains moving subject information (Pt {IV1, IV2,...) 3 based on the obtained moving subject area (Pt {V1, V2,...}) 30.
2 is extracted. Also, the moving subject information (Pt @ IV
1, IV2,...}) 32 to calculate a feature amount to facilitate use as an index.

【0058】この動き被写体情報(Pt{IV1,IV
2,…})32から算出される特徴量としては、例え
ば、動き被写体領域の個数、動き被写体領域の大きさ、
動きベクトルの密度、動きベクトルの大きさの平均と最
大最小、平均動きベクトルの方向および大きさ、その動
き被写体領域が時間とともにどのような変化を行ったか
等の情報を算出する。
This moving subject information (Pt @ IV1, IV
2,...) 32 include, for example, the number of moving subject areas, the size of the moving subject areas,
Information such as the density of the motion vector, the average and maximum and minimum of the magnitude of the motion vector, the direction and magnitude of the average motion vector, and how the moving subject area has changed with time are calculated.

【0059】また、ショット単位分類部21からのショ
ット単位(St,St+1,St+2,…)22および動き被
写体情報抽出部31からの動き被写体情報は、再生表示
部67に入力され、これにより、再生表示部67におい
て、再生(復号化)画像データ列66を、ショット単位
あるいは動き被写体単位で表示することができる。
The shot unit (St, St + 1, St + 2,...) 22 from the shot unit classifying unit 21 and the moving subject information from the moving subject information extracting unit 31 are input to the reproduction display unit 67. As a result, the reproduction (decoding) image data sequence 66 can be displayed in the reproduction display unit 67 in units of shots or moving objects.

【0060】以下、本実施の形態のノイズベクトル除去
部25について詳細に説明する。
Hereinafter, the noise vector removing section 25 of the present embodiment will be described in detail.

【0061】図3は、右から左へパンニングを行ってい
るカメラにより撮影された画像列の中の1つの画像を示
す模式図であり、また、図4は、図3に示す原画像を予
測符号化した時の動きベクトルの分布を示す図である。
FIG. 3 is a schematic diagram showing one image in an image sequence taken by a camera performing panning from right to left, and FIG. 4 shows a prediction of the original image shown in FIG. FIG. 6 is a diagram illustrating a distribution of motion vectors when encoding.

【0062】図4において、円で囲まれた空の領域など
一様な領域に発生している動きベクトルは、パンニング
あるいは動き被写体とは無関係なベクトルである。本実
施の形態では、このようなカメラワークあるいは動き被
写体を反映しない動きベクトルをノイズとして扱う。
In FIG. 4, a motion vector generated in a uniform area such as an empty area surrounded by a circle is a vector irrelevant to panning or a moving subject. In the present embodiment, such a motion vector that does not reflect camera work or a moving subject is treated as noise.

【0063】図4から明らかなように、カメラワークあ
るいは動き被写体を反映しない動きベクトル(ノイズ動
きベクトル)は、明度や色が一様で変化がない無地の領
域が複数のマクロブロック(MB)に渡って存在するよ
うな場合に、画像内のちらつき、信号の乱れ等によって
発生する。
As is clear from FIG. 4, a motion vector (noise motion vector) that does not reflect camera work or a moving subject has a solid area in which brightness and color are uniform and there is no change in a plurality of macroblocks (MB). In the case where it exists over the entire screen, it is caused by flickering in the image, disturbance of the signal, and the like.

【0064】即ち、数個のマクロブロック(MB)に渡
る広く明度や色変化の少ない一様な領域が画像内に存在
する場合、理想的には0ベクトルしか抽出されないはず
だが、動き予測符号化時における動きベクトル算出時
に、動き予測の画素差分の分散が最も小さくなるような
値を選出しているため、明度や色が一様な領域はノイズ
や画面のちらつきの影響を受けやすく、これにより、ノ
イズ動きベクトルが発生する。
That is, when a uniform area having a small brightness and little color change over several macroblocks (MB) is present in an image, ideally only 0 vector should be extracted. When calculating the motion vector at the time, the value that minimizes the variance of the pixel difference of the motion prediction is selected, so the area with uniform brightness and color is easily affected by noise and screen flicker. , A noise motion vector is generated.

【0065】このノイズ動きベクトルのうち、動き被写
体情報を算出する際に障害となるノイズ動きベクトル
は、動きベクトルのサイズが大きく、かつ、時間および
空間的に類似したベクトルが存在しない場合である。
Among the noise motion vectors, a noise motion vector which becomes an obstacle when calculating the moving subject information is a case where the size of the motion vector is large and no vector similar in time and space exists.

【0066】なお、動きベクトル同士が類似していると
は、例えば、そのサイズ比が2倍以下であり、その角度
差が10度以内であるような場合、これを類似している
として取り扱う。
It should be noted that motion vectors are similar when, for example, the size ratio is less than or equal to 2 and the angle difference is within 10 degrees, this is treated as similar.

【0067】図5は、本実施の形態のノイズベクトル除
去部25の処理手順の一例を示すフローチャートであ
る。
FIG. 5 is a flowchart showing an example of the processing procedure of the noise vector removing unit 25 of the present embodiment.

【0068】以下、本実施の形態のノイズベクトル除去
部25の処理手順の一例について、図5を用いて詳細に
説明する。
Hereinafter, an example of the processing procedure of the noise vector removing unit 25 of the present embodiment will be described in detail with reference to FIG.

【0069】なお、図5に示す処理手順は、各動きベク
トルについて、空間的に隣接する動きベクトルの中で類
似した動きベクトルが存在しない場合に、この動きベク
トルをノイズ動きベクトルと判定する処理手順である。
In the processing procedure shown in FIG. 5, when there is no similar motion vector among spatially adjacent motion vectors for each motion vector, the processing procedure for determining this motion vector as a noise motion vector is performed. It is.

【0070】始めに、変数(i)を0とし(ステップ1
00)、注目している動きベクトルに対して、空間的に
隣接している動きベクトルが存在するか否かを判断する
(ステップ101)。
First, the variable (i) is set to 0 (step 1).
00), it is determined whether there is a motion vector spatially adjacent to the motion vector of interest (step 101).

【0071】即ち、ステップ101で、注目している動
きベクトルのサイズがある程度大きく、また、注目して
いる動きベクトルと空間的に隣接している動きベクトル
の中で、注目している動きベクトルと類似しているベク
トルが存在しない場合には、この注目している動きベク
トルはノイズ動きベクトルと判断する。
That is, in step 101, the size of the motion vector of interest is large to some extent, and among the motion vectors spatially adjacent to the motion vector of interest, If there is no similar vector, the motion vector of interest is determined to be a noise motion vector.

【0072】次に、ステップ101で、注目している動
きベクトルに対して、空間的に隣接している動きベクト
ルが存在する場合に、当該動きベクトルの値を無関係な
値(NULL)に変更する(ステップ102)。
Next, in step 101, if there is a motion vector spatially adjacent to the current motion vector, the value of the motion vector is changed to an irrelevant value (NULL). (Step 102).

【0073】即ち、ステップ102では、注目している
動きベクトルがノイズ動きベクトルと判断された場合
に、この動きベクトルをノイズ動きベクトルとして除去
する。
That is, in step 102, if the current motion vector is determined to be a noise motion vector, this motion vector is removed as a noise motion vector.

【0074】次に、前記一連の処理が全動きベクトルに
ついて終了したか否かを判断し(ステップ103)、一
連の処理が全動きベクトルについて終了していない場合
には、変数(i)を+1して(ステップ104)、前記
ステップ101ないしステップ102を繰り返す。
Next, it is determined whether or not the series of processing has been completed for all motion vectors (step 103). If the series of processing has not been completed for all motion vectors, the variable (i) is incremented by +1. Then, step 101 to step 102 are repeated.

【0075】なお、これらのノイズ動きベクトルの特徴
は、大きさが大きく、元々明度や色変化が少ない領域の
符号化であるため、動き予測残差はちらつきによる非常
に小さな値でしかなく、そのDCT係数もほとんどが0
になるという特徴を持っている。
Since the feature of these noise motion vectors is coding of an area having a large size and originally having a small brightness or color change, the motion prediction residual has only a very small value due to flicker. Most DCT coefficients are also 0
It has the characteristic of becoming.

【0076】そこで、動きベクトル{vi}の大きさL
{vi}及び方向D{vi}、DCT係数のDC成分DC
{vi}、DCT係数のAC成分の中で、「0」でない
DCT係数の個数NAC{vi}、注目動きベクトルと類
似度が高い隣接するマクロブロック(MB)に含まれる
動きベクトルの個数NS{vi}を、動きベクトルの特徴
量とし、それぞれの特徴量が、それぞれに対して与えら
れる閾値を満たすかどうかに基づいて、注目動きベクト
ルがノイズ動きベクトルであるかどうかを判定するよう
にしてもよい。
Then, the magnitude L of the motion vector {vi}
{Vi} and direction D {vi}, DC component DC of DCT coefficient
{Vi}, the number NAC of non-zero DCT coefficients among the AC components of the DCT coefficients NAC {vi}, the number NS of motion vectors included in adjacent macroblocks (MB) having a high degree of similarity to the target motion vector Let vi} be a feature quantity of a motion vector, and determine whether the motion vector of interest is a noise motion vector based on whether each feature quantity satisfies a threshold given to each. Good.

【0077】これにより、図6に示すように、図4に示
す動きベクトルの中で、動き被写体と無関係なノイズ動
きベクトルの大半を除去することができる。
As a result, as shown in FIG. 6, most of the noise motion vectors unrelated to the moving subject can be removed from the motion vectors shown in FIG.

【0078】図6は、図4に示す動きベクトルの中で、
ノイズ動きベクトルと判定された動きベクトルを除去し
た後の動きベクトル分布を示す図である。
FIG. 6 shows the motion vectors shown in FIG.
It is a figure which shows the motion vector distribution after removing the motion vector determined as the noise motion vector.

【0079】以下、本実施の形態のカメラワーク除去部
27について詳細に説明する。
Hereinafter, the camera work removing section 27 of the present embodiment will be described in detail.

【0080】カメラワーク動きベクトルは、画面全体に
数多く出現するという特徴を有している。また、パンや
チルト等の特徴的な動きの場合、理想的な環境において
は、動きベクトルの角度別累積和の値は、パンニングや
チルティング方向と対応した特定の角度にピークを示
す。
The camera work motion vector has a feature that it appears many times on the entire screen. In the case of a characteristic motion such as panning or tilting, in an ideal environment, the value of the cumulative sum of motion vectors by angle shows a peak at a specific angle corresponding to the panning or tilting direction.

【0081】図4(b)および図6(b)から明らかな
ように、それぞれノイズ動きベクトル除去前とノイズ動
きベクトル除去後の動きベクトルの角度別累積和を比較
するとノイズ動きベクトル除去後の方が、パンニング方
向と一致するピークが観察されていることが分かる。
As is clear from FIGS. 4 (b) and 6 (b), the cumulative sums of the motion vectors before and after the noise motion vector elimination are compared by angle. However, it can be seen that a peak coinciding with the panning direction was observed.

【0082】なお、図4あるいは図6に示す動きベクト
ルの方向と角度の定義は、図7に示す通りである。ま
た、角度別累積和の抽出方法は、以下の示す通りであ
る。
The definition of the direction and angle of the motion vector shown in FIG. 4 or FIG. 6 is as shown in FIG. The method of extracting the cumulative sum for each angle is as follows.

【0083】Angle=0〜360deg for 全マクロブロック(MB)数 Angle=方向V Hist(Angle)+=Length(V) ここで、Vはマクロブロック(MB)上の動きベクト
ル、Angle(V)は動きベクトルの方向、Leng
th(V)は動きベクトルの長さ、Hist(Angl
e)が角度別累積和の成分を示す。
Angle = 0 to 360 deg for the total number of macroblocks (MB) Angle = direction V Hist (Angle) + = Length (V) where V is a motion vector on the macroblock (MB) and Angle (V) is Motion vector direction, Leng
th (V) is the length of the motion vector, Hist (Angl
e) shows the components of the cumulative sum for each angle.

【0084】そこで、本実施の形態のカメラワーク除去
部27では、動きベクトルの角度頻度分布を作成し、最
も多い頻度を示した動きベクトルがカメラワーク動きベ
クトルと判定するようにしている。
Therefore, the camerawork removing section 27 of the present embodiment creates an angular frequency distribution of motion vectors, and determines the motion vector having the highest frequency as a camerawork motion vector.

【0085】図8は、本実施の形態のカメラワーク除去
部27の処理手順の一例を示すフローチャートである。
FIG. 8 is a flowchart showing an example of the processing procedure of the camera work removing section 27 of the present embodiment.

【0086】以下、本実施の形態のカメラワーク除去部
27の処理手順の一例について、図8を用いて詳細に説
明する。
Hereinafter, an example of the processing procedure of the camera work removing section 27 of the present embodiment will be described in detail with reference to FIG.

【0087】始めに、変数(i)を0とし(ステップ1
10)、注目している動きベクトルの角度頻度分布を作
成する(ステップ111)。
First, the variable (i) is set to 0 (step 1).
10), an angular frequency distribution of the motion vector of interest is created (step 111).

【0088】次に、ステップ111の処理が全動きベク
トルについて終了したか否かを判断し(ステップ11
2)、ステップ111の処理が全動きベクトルについて
終了していない場合には、変数(i)を+1して(ステ
ップ113)、前記ステップ110を繰り返す。
Next, it is determined whether or not the processing of step 111 has been completed for all motion vectors (step 11).
2) If the processing of step 111 has not been completed for all motion vectors, the variable (i) is incremented by 1 (step 113), and step 110 is repeated.

【0089】ステップ112で、ステップ111の処理
が全動きベクトルについて終了した場合には角度頻度分
布が最大の動きベクトルをカメラワーク動きベクトル
(CV)とする(ステップ114)。
In step 112, if the processing in step 111 has been completed for all motion vectors, the motion vector having the maximum angular frequency distribution is set as the camera work motion vector (CV) (step 114).

【0090】次に、変数(i)を0とし(ステップ11
5)、注目している動きベクトルがカメラワーク動きベ
クトル(CV)か否かを判断し(ステップ116)し、
注目している動きベクトルがカメラワーク動きベクトル
(CV)である場合には、当該動きベクトルの値を無関
係な値(NULL)に変更する(ステップ117)。
Next, the variable (i) is set to 0 (step 11).
5) It is determined whether or not the motion vector of interest is a camera work motion vector (CV) (step 116).
If the motion vector of interest is a camera work motion vector (CV), the value of the motion vector is changed to an irrelevant value (NULL) (step 117).

【0091】次に、ステップ117の処理が全動きベク
トルについて終了したか否かを判断し(ステップ11
8)、ステップ117の処理が全動きベクトルについて
終了していない場合には、変数(i)を+1して(ステ
ップ119)、前記ステップ116ないしステップ11
7を繰り返す。
Next, it is determined whether or not the processing in step 117 has been completed for all the motion vectors (step 11).
8) If the processing in step 117 has not been completed for all the motion vectors, the variable (i) is incremented by 1 (step 119), and the steps 116 to 11 are performed.
Repeat step 7.

【0092】なお、カメラワーク動きベクトルを判定す
る際に、角度頻度分布の分散をみて、適当な範囲の動き
ベクトルをカメラワーク動きベクトルと判定するように
してもよい。
When determining the camera work motion vector, the motion vector in an appropriate range may be determined as the camera work motion vector by looking at the dispersion of the angular frequency distribution.

【0093】以下、本実施の形態の動き被写体領域分離
部29について詳細に説明する。
Hereinafter, the moving subject area separating section 29 of the present embodiment will be described in detail.

【0094】動き被写体領域は、領域として集中する特
性を示す。そこで、本実施の形態では、類似した動きベ
クトルが空間的に集中している領域を動き被写体領域と
している。
The moving subject region has a characteristic of being concentrated as a region. Therefore, in the present embodiment, a region where similar motion vectors are spatially concentrated is defined as a moving subject region.

【0095】既に、ノイズ動きベクトルおよびカメラワ
ーク動きベクトルは除去しているため、動き被写体領域
の分離は容易である。全動きベクトルについて空間的に
隣接している動きベクトルと比較し、類似条件を満たす
場合に、注目している動きベクトルと隣接する類似ベク
トルとに同一のラベリングを施す。
Since the noise motion vector and the camera work motion vector have already been removed, it is easy to separate the moving subject area. All the motion vectors are compared with spatially adjacent motion vectors, and when the similarity condition is satisfied, the same labeling is applied to the motion vector of interest and the adjacent similar vector.

【0096】隣接する類似している動きベクトルが既に
他のベクトルとラベリングされていたら、第3の動きベ
クトルと共に同じラベリングを施す。こうして隣接する
もの同士の結び付きを強めていき、序々に巨大な領域を
作成していく。
If an adjacent similar motion vector has already been labeled with another vector, the same labeling is performed together with the third motion vector. In this way, the connection between adjacent objects is strengthened, and a huge area is gradually created.

【0097】図9は、本実施の形態の動き被写体領域分
離部29の処理手順の一例を示すフローチャートであ
る。
FIG. 9 is a flowchart showing an example of the processing procedure of the moving subject area separating section 29 according to the present embodiment.

【0098】以下、本実施の形態の被写体領域分離部2
9の処理手順の一例について、図9を用いて詳細に説明
する。
Hereinafter, the subject area separating unit 2 of the present embodiment will be described.
An example of the processing procedure of No. 9 will be described in detail with reference to FIG.

【0099】始めに、変数(i)を0とし(ステップ1
20)、注目している動きベクトルに類似している動き
ベクトルが存在するか否かを判断する(ステップ12
1)。
First, the variable (i) is set to 0 (step 1).
20) It is determined whether there is a motion vector similar to the motion vector of interest (step 12).
1).

【0100】ステップ121で、注目している動きベク
トルに類似している動きベクトルが存在する場合には、
当該類似している動きベクトルが既に他の動きベクトル
とラベリングされているかを判断する(ステップ12
4)。
In step 121, if there is a motion vector similar to the current motion vector,
It is determined whether the similar motion vector has already been labeled with another motion vector (step 12).
4).

【0101】ステップ124で、当該類似している動き
ベクトルが既に他の動きベクトルとラベリングされてい
る場合には、注目している動きベクトルを当該類似して
いる動きベクトルが既にラベリングされている領域にラ
ベリングする(ステップ125)。
In step 124, if the similar motion vector is already labeled with another motion vector, the target motion vector is changed to an area in which the similar motion vector is already labeled. (Step 125).

【0102】また、ステップ124で、当該類似してい
る動きベクトルが既に他の動きベクトルとラベリングさ
れていない場合には、注目している動きベクトルを当該
類似している動きベクトルにラベリングする(ステップ
126)。
If it is determined in step 124 that the similar motion vector has not been labeled with another motion vector, the current motion vector is labeled with the similar motion vector (step 124). 126).

【0103】次に、前記一連の処理が全動きベクトルに
ついて終了したか否かを判断し(ステップ122)、前
記一連の処理が全動きベクトルについて終了していない
場合には、変数(i)を+1して(ステップ123)、
前記ステップ121、ステップ122、ステップ12
4、ステップ125およびステップ126を繰り返す。
Next, it is determined whether or not the above series of processing has been completed for all the motion vectors (step 122). If the series of processing has not been completed for all the motion vectors, the variable (i) is changed. +1 (step 123),
Step 121, Step 122, Step 12
4. Steps 125 and 126 are repeated.

【0104】なお、図9に示す処理手順では、隣接する
もの同士を比較するというプリミティブな例を説明した
が、隣接する動きベクトル同士を対象とするものだけで
なく、1フレーム内の領域を分割(例えば、m×m個の
マクロブロック(MB)等)し、隣接する領域同士の動
きベクトルの特徴量(平均ベクトルの大きさ、方向等)
を算出し、それぞれを比較して領域同士の併合によっ
て、動き被写体領域を分離してもよい。
In the processing procedure shown in FIG. 9, a primitive example in which adjacent ones are compared has been described. (For example, m × m macroblocks (MB), etc.), and the feature amount of the motion vector between adjacent regions (the size, direction, etc. of the average vector)
May be calculated, and the moving subject areas may be separated by comparing the respective areas and merging the areas.

【0105】また、図5、図6および図9に示す処理手
順は、空間的な処理を中心に説明したが、動き被写体で
あるがゆえに、時間的な処理を施すことにより、より精
度の高い動き被写体領域も可能である。
Although the processing procedures shown in FIGS. 5, 6 and 9 have been described mainly with respect to spatial processing, since they are moving subjects, they are subjected to temporal processing to achieve higher accuracy. A moving subject area is also possible.

【0106】次に、時間的な処理手順を加味したノイズ
ベクトル除去部25の処理手順、カメラワーク除去部2
7および動き被写体領域分離部29の処理手順について
説明する。
Next, the processing procedure of the noise vector removing unit 25 taking into account the temporal processing procedure, the camera work removing unit 2
7 and the processing procedure of the moving subject area separation unit 29 will be described.

【0107】図10は、本実施の形態のノイズベクトル
除去部25の処理手順の他の例を示すフローチャートで
ある。
FIG. 10 is a flowchart showing another example of the processing procedure of the noise vector removing unit 25 of the present embodiment.

【0108】以下、本実施の形態のノイズベクトル除去
部25の処理手順の他の例について、図10を用いて詳
細に説明する。
Hereinafter, another example of the processing procedure of the noise vector removing unit 25 of the present embodiment will be described in detail with reference to FIG.

【0109】始めに、変数(i)を0とし(ステップ1
100)、また、カウンタ(Counter)をリセッ
トする(ステップ1101)。
First, the variable (i) is set to 0 (step 1).
100) Also, the counter (Counter) is reset (step 1101).

【0110】次に、注目している動きベクトルに対し
て、ステップ1102ないしステップ1105におい
て、注目している動きベクトルに対して、空間的あるい
は時間的に隣接している動きベクトルが存在するか否か
を判断し、注目している動きベクトルに対して、時間的
あるいは空間的に隣接している動きベクトルが存在する
場合に、カウンタ(Counter)を+1する。
Next, for the motion vector of interest, in steps 1102 to 1105, it is determined whether there is a motion vector spatially or temporally adjacent to the motion vector of interest. Is determined, and if there is a motion vector temporally or spatially adjacent to the motion vector of interest, the counter (Counter) is incremented by one.

【0111】次に、カウンタ(Counter)の値
が、閾値(1)より大きいか否かを判断し(ステップ1
106)、ステップ1106で、カウンタ(Count
er)の値が、閾値(1)より小さい場合には、当該動
きベクトルの値を無関係な値(NULL)に変更する
(ステップ1107)。
Next, it is determined whether or not the value of the counter (Counter) is larger than the threshold value (1) (step 1).
106), and in step 1106, a counter (Count
If the value of (er) is smaller than the threshold value (1), the value of the motion vector is changed to an irrelevant value (NULL) (step 1107).

【0112】次に、前記一連の処理が全動きベクトルに
ついて終了したか否かを判断し(ステップ1108)、
一連の処理が全動きベクトルについて終了していない場
合には、変数(i)を+1して(ステップ1109)、
前記ステップ1101ないしステップ1108を繰り返
す。
Next, it is determined whether or not the above series of processing has been completed for all motion vectors (step 1108).
If the series of processing has not been completed for all the motion vectors, the variable (i) is incremented by 1 (step 1109),
Steps 1101 to 1108 are repeated.

【0113】即ち、図10に示す処理手順では、注目し
ている動きベクトルに対して、空間的に類似するものだ
けではなく、時間的に過去のフレームの隣接する位置に
存在する動きベクトルも比較の対象とし、類似する動き
ベクトルがいくつ存在するかを算出する。類似する動き
ベクトルの個数が少なければ、ノイズ動きベクトルと判
断する。
That is, in the processing procedure shown in FIG. 10, not only a motion vector that is spatially similar to a motion vector of interest but also a motion vector that exists at a position adjacent to a temporally past frame is compared. And calculate how many similar motion vectors exist. If the number of similar motion vectors is small, it is determined to be a noise motion vector.

【0114】図11は、本実施の形態のカメラワーク除
去部27の処理手順の他の例を示すフローチャートであ
る。
FIG. 11 is a flowchart showing another example of the processing procedure of the camera work removing unit 27 of the present embodiment.

【0115】カメラワークが存在する場合には、数フレ
ームに渡って連続した動きベクトルが出現する。即ち、
時間的に隣接してフレームにおける動きベクトルはそれ
ぞれ類似している。そこで、図11に示すカメラワーク
除去部27の処理手順においては、図8に示すカメラワ
ーク除去部27の処理手順にステップ1110、ステッ
プ1115、ステップ116を追加し、3フレームに渡
る動きベクトルの角度分布を、ステップ1110ないし
ステップ1116の処理で算出し、ピーク値をカメラワ
ークとしている。
If camera work exists, a continuous motion vector appears over several frames. That is,
Motion vectors in frames that are temporally adjacent to each other are similar. Therefore, in the processing procedure of the camera work removing unit 27 shown in FIG. 11, steps 1110, 1115, and 116 are added to the processing procedure of the camera work removing unit 27 shown in FIG. 8, and the angles of the motion vectors over three frames are added. The distribution is calculated by the processing of steps 1110 to 1116, and the peak value is used as camera work.

【0116】図11に示す処理手順では、複数フレーム
に渡る角度頻度分布からカメラワークを算出しているた
め、フラッシュ等による1フレームだけの急激な変化
や、1フレームだけの急激なノイズ動きベクトル等によ
る影響が少なく、カメラワークベクトルを正確に判定す
ることができる。
In the processing procedure shown in FIG. 11, since the camera work is calculated from the angular frequency distribution over a plurality of frames, a sudden change of only one frame due to a flash or the like, a sudden noise motion vector of only one frame, or the like. And the camera work vector can be accurately determined.

【0117】図12は、本実施の形態の動き被写体領域
分離部29の処理手順の他の例を示すフローチャートで
ある。
FIG. 12 is a flowchart showing another example of the processing procedure of the moving subject area separating section 29 according to the present embodiment.

【0118】以下、本実施の形態の被写体領域分離部2
9の処理手順の他の例について、図12を用いて詳細に
説明する。
Hereinafter, the subject area separating section 2 according to the present embodiment will be described.
Another example of the processing procedure of No. 9 will be described in detail with reference to FIG.

【0119】図9に示す動き被写体領域分離部29の処
理手順においては、空間的に逐一ラベリングをおこなっ
ていたが、図12に示す処理手順では、始めに、ステッ
プ1133で直前のフレームの動き被写体領域を参考に
対応する位置の動きベクトルを各領域にラベリングす
る。
In the processing procedure of the moving subject area separation unit 29 shown in FIG. 9, labeling is performed spatially one by one. However, in the processing procedure shown in FIG. A motion vector at a corresponding position is labeled on each area with reference to the area.

【0120】次に、変数(i)を0とし(ステップ11
21)、注目している動きベクトルがラベリングされて
いるか否かを判断する(ステップ1122)。
Next, the variable (i) is set to 0 (step 11).
21) It is determined whether or not the motion vector of interest is labeled (step 1122).

【0121】ステップ1122において、注目している
動きベクトルがラベリングされている場合には、注目し
ている動きベクトルが同一ラベルの隣接する動きベクト
ルと類似しているか否を判断する(ステップ112
3)。
In step 1122, if the current motion vector is labeled, it is determined whether the current motion vector is similar to an adjacent motion vector having the same label (step 112).
3).

【0122】ステップ1123において、注目している
動きベクトルが同一ラベルの隣接する動きベクトルと類
似していない場合には、ラベルを初期化し(ステップ1
124)、注目している動きベクトルが同一ラベルの隣
接する動きベクトルと類似している場合には、そのラベ
リングを変更しない。
If it is determined in step 1123 that the motion vector of interest is not similar to an adjacent motion vector of the same label, the label is initialized (step 1).
124), if the motion vector of interest is similar to an adjacent motion vector of the same label, its labeling is not changed.

【0123】次に、ステップ1122で注目している動
きベクトルがラベリングされていない場合、あるいはス
テップ1124でラベルを初期化した場合には、注目し
ている動きベクトルに類似している動きベクトルが存在
するか否かを判断する(ステップ1125)。
Next, if the motion vector of interest is not labeled in step 1122, or if the label is initialized in step 1124, a motion vector similar to the motion vector of interest exists. It is determined whether or not to perform (step 1125).

【0124】ステップ1125で、注目している動きベ
クトルに類似している動きベクトルが存在する場合に
は、当該類似している動きベクトルが既に他の動きベク
トルとラベリングされているかを判断する(ステップ1
126)。
In step 1125, if there is a motion vector similar to the current motion vector, it is determined whether the similar motion vector has already been labeled with another motion vector (step 1125). 1
126).

【0125】ステップ1126で、当該類似している動
きベクトルが既に他の動きベクトルとラベリングされて
いる場合には、注目している動きベクトルを当該類似し
ている動きベクトルが既にラベリングされている領域に
ラベリングする(ステップ1128)。
If it is determined in step 1126 that the similar motion vector has already been labeled with another motion vector, the target motion vector is changed to an area in which the similar motion vector is already labeled. (Step 1128).

【0126】また、ステップ1126で、当該類似して
いる動きベクトルが既に他の動きベクトルとラベリング
されていない場合には、注目している動きベクトルを当
該類似している動きベクトルにラベリングする(ステッ
プ1127)。
If it is determined in step 1126 that the similar motion vector has not been labeled with another motion vector, the target motion vector is labeled with the similar motion vector (step 1126). 1127).

【0127】次に、前記一連の処理が全動きベクトルに
ついて終了したか否かを判断し(ステップ1129)、
一連の処理が全動きベクトルについて終了していない場
合には、変数(i)を+1して(ステップ1130)、
前記ステップ1122ないしステップ1129を繰り返
す。
Next, it is determined whether or not the above series of processing has been completed for all motion vectors (step 1129).
If the series of processing has not been completed for all motion vectors, the variable (i) is incremented by 1 (step 1130),
Steps 1122 to 1129 are repeated.

【0128】図12に示す処理手順によれば、予め過去
の領域情報を利用してラベリングを行うため、ラベリン
グにかかるスピードを軽減することができる。
According to the processing procedure shown in FIG. 12, labeling is performed in advance by using past area information, so that the speed of labeling can be reduced.

【0129】図13は、本実施の形態の動き被写体領域
分離部29の処理手順の他の例を示すフローチャートで
ある。
FIG. 13 is a flowchart showing another example of the processing procedure of the moving subject area separating section 29 according to the present embodiment.

【0130】以下、本実施の形態の被写体領域分離部2
9の処理手順の他の例について、図13を用いて詳細に
説明する。
Hereinafter, the subject area separating section 2 of the present embodiment will be described.
Another example of the processing procedure of No. 9 will be described in detail with reference to FIG.

【0131】図13に示す処理手順においては、ステッ
プ1140ないしステップ1146により、各フレーム
毎に動き被写体領域候補1147を算出する。なお、ス
テップ1140ないしステップ1146の処理は、図9
の処理手順と同じであるので、詳細な説明は省略する。
In the processing procedure shown in FIG. 13, a moving subject region candidate 1147 is calculated for each frame in steps 1140 to 1146. Note that the processing of steps 1140 to 1146 is the same as that of FIG.
And the detailed description is omitted.

【0132】次に、得られた動き被写体領域候補114
7を、次の領域候補1148として保存するとともに、
得られた動き被写体領域の候補1147と過去の動き被
写体領域候補1149との領域がどの程度重複している
のか判断する(ステップ1150)。
Next, the obtained moving subject area candidate 114
7 as the next area candidate 1148,
It is determined how much the overlap between the obtained moving subject region candidate 1147 and the past moving subject region candidate 1149 overlaps (step 1150).

【0133】一般に、実際に動き被写体領域が存在する
場合には、過去のフレームでも、同様の大きさ、位置に
動き被写体領域が存在するはずである。
In general, when a moving subject area actually exists, a moving subject area should exist in a similar size and position in a past frame.

【0134】そのため、図13に示す処理手順において
は、ステップ1150で、得られた注目フレーム上の動
き被写体領域候補1147と、既に算出されている過去
の動き被写体領域候補1149とを比較し、注目フレー
ム上の動き被写体領域候補1147と対応した位置に過
去の動き被写体領域候補1149が多数存在する場合に
のみ、注目フレーム上の動き被写体領域候補1147を
正しい動き被写体領域と判定する。
For this reason, in the processing procedure shown in FIG. 13, in step 1150, the obtained moving subject region candidate 1147 on the frame of interest is compared with the previously calculated past moving subject region candidate 1149, and Only when a large number of past moving subject region candidates 1149 exist at positions corresponding to the moving subject region candidates 1147 on the frame, the moving subject region candidate 1147 on the target frame is determined to be a correct moving subject region.

【0135】なお、正しい動き被写体領域であるか否か
の判定は、対象注目フレーム上の動き被写体領域候補1
147と、過去の動き被写体領域候補1149との間
で、動きベクトルがどれだけ重複しているかを基に判定
する。また、この比較に際しては、単純に動きベクトル
の重複する個数だけでなく、各領域に含まれる動きベク
トルの方向、大きさを含めて重複しているか判定しても
よい。
It is to be noted that whether or not the moving subject area is correct is determined by the moving subject area candidate 1 on the target frame of interest.
The determination is made based on how much the motion vector overlaps between 147 and the past moving subject region candidate 1149. In this comparison, not only the number of overlapping motion vectors but also the direction and magnitude of the motion vectors included in each area may be determined as to whether or not they overlap.

【0136】本実施の形態では、カメラワーク動きベク
トル判定の際に、対象としてパンやチルトのみを対象と
し、ズームやドリーについては対象としていない。しか
し、カメラワーク動きベクトル判定の際に、新しオペレ
ーションを組み込むことで、これを検出することも可能
である。既に、いくつかの従来方法が提案されているの
で、こうした手法を応用してもよい。
In the present embodiment, only the pan and the tilt are targeted, and the zoom and the dolly are not targeted when the camera motion vector is determined. However, it is also possible to detect this by incorporating a new operation when determining the camera work motion vector. Since some conventional methods have already been proposed, such a method may be applied.

【0137】また、本実施の形態では、予め、カメラワ
ーク動きベクトルを除去することで、動き被写体領域の
分離を容易にしていたが、このカメラワーク動きベクト
ルを除去する処理を前処理部において行わず、動き被写
体領域を分離するようにしてもよい。
In the present embodiment, the camera work motion vector is removed in advance to facilitate the separation of the moving subject area. However, the processing for removing the camera work motion vector is performed in the preprocessing unit. Instead, the moving subject area may be separated.

【0138】この場合には、カメラワーク動きベクトル
群も、1つの動き被写体領域と判定される。しかしなが
ら、一般に、カメラワーク動きベクトルは、画面全体に
広がり、かつ、最大の領域となる。したがって、こうし
た特徴を用いて最大の領域を有するものをカメラワーク
領域として分離すればよい。
In this case, the camera work motion vector group is also determined as one moving subject area. However, in general, the camerawork motion vector spreads over the entire screen and is the largest area. Therefore, what has the largest area may be separated as the camera work area by using these features.

【0139】なお、本実施の形態では、類似ベクトルの
判定に用いる閾値はあらかじめ与えられるものとしてい
たが、映像や画像の内容によって適宜変化させても良
く、また、インタフェースを付加することによって人間
の手によってチューニングし、適宜情報を与えるとして
も良い。
In the present embodiment, the threshold value used to determine the similarity vector is given in advance. However, the threshold value may be changed as appropriate according to the contents of the video or image. The tuning may be performed by hand and information may be given as appropriate.

【0140】このように、本実施の形態の動き被写体情
報抽出装置によれば、圧縮された画像データ列から、動
き被写体情報を抽出し、従来方法によって抽出されてい
るカット点の情報と組み合わせることによって、カット
点と動き被写体情報という映像内容における特別な情報
を基に、圧縮された画像データ列の内容を高速、簡便に
閲覧することが可能である。また、本実施の形態の動き
被写体情報抽出装置は、その仕様をソフトウェアで記述
し、汎用コンピュータにおいて実行するだけで容易に実
現することができる。
As described above, according to the moving subject information extracting apparatus of the present embodiment, moving subject information is extracted from a compressed image data sequence, and is combined with cut point information extracted by a conventional method. Thereby, the contents of the compressed image data sequence can be browsed at high speed and easily on the basis of special information in the video contents such as cut points and moving subject information. Further, the moving subject information extracting apparatus according to the present embodiment can be easily realized only by describing its specifications by software and executing it on a general-purpose computer.

【0141】以上、本発明者によってなされた発明を、
前記実施例に基づき具体的に説明したが、本発明は、前
記実施例に限定されるものではなく、その要旨を逸脱し
ない範囲において種々変更可能であることは勿論であ
る。
As described above, the invention made by the present inventors is described below.
Although the present invention has been described in detail with reference to the embodiment, the present invention is not limited to the embodiment, and it is needless to say that various changes can be made without departing from the scope of the invention.

【0142】[0142]

【発明の効果】本願において開示される発明のうち代表
的なものによって得られる効果を簡単に説明すれば、下
記のとおりである。
The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.

【0143】(1)本発明によれば、動き被写体情報抽
出方法及び装置において、理想的な環境下でなくても、
アナログ信号の乱れやA/D変換時のノイズなどの影響
を受けることなく、正しい動き被写体を反映する動きベ
クトルを抽出することが可能であり、これにより、原画
像を復号化しなくても、原画像の内容を推測することが
可能となる。
(1) According to the present invention, in the moving subject information extracting method and apparatus, even if the environment is not ideal,
It is possible to extract a motion vector reflecting a correct moving subject without being affected by disturbance of an analog signal or noise at the time of A / D conversion, and thereby, it is possible to extract a motion vector without decoding an original image. It is possible to infer the contents of the image.

【0144】(2)本発明によれば、動き被写体情報抽
出方法及び装置において、動き被写体領域を正確に判定
し、さらに、動き被写体領域を正確に分離することが可
能となる。
(2) According to the present invention, in the method and apparatus for extracting moving subject information, it is possible to accurately determine the moving subject region and to accurately separate the moving subject region.

【0145】(3)本発明によれば、動き被写体情報抽
出方法及び装置において、動き情報と無関係な動きベク
トルを正確に判定し、除去することが可能となる。
(3) According to the present invention, in the method and apparatus for extracting moving subject information, it is possible to accurately determine and remove a motion vector irrelevant to motion information.

【0146】(4)本発明によれば、動き被写体情報抽
出方法及び装置において、カメラワークを正確に判定
し、カメラワークを反映する動きベクトルを正確に判定
し、除去することが可能となる。
(4) According to the present invention, in the method and apparatus for extracting moving subject information, it is possible to accurately determine camera work, and to accurately determine and remove a motion vector reflecting camera work.

【0147】(5)本発明によれば、圧縮された画像デ
ータ列の内容を高速、簡便に閲覧することが可能であ
る。
(5) According to the present invention, the contents of a compressed image data sequence can be browsed at high speed and easily.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一発明の実施の形態である動き被写体
情報抽出方法を説明するための図である。
FIG. 1 is a diagram for explaining a moving subject information extraction method according to an embodiment of the present invention;

【図2】本発明の一発明の実施の形態である動き被写体
情報抽出装置を備える映像再生装置の概略構成を示すブ
ロック図である。
FIG. 2 is a block diagram illustrating a schematic configuration of a video reproduction device including a moving subject information extraction device according to an embodiment of the present invention;

【図3】右から左へパンニングを行っているカメラによ
り撮影された画像列の中の1つの画像を示す模式図であ
る。
FIG. 3 is a schematic diagram illustrating one image in an image sequence captured by a camera performing panning from right to left.

【図4】図3に示す原画像を予測符号化した時の動きベ
クトルの分布を示す図である。
FIG. 4 is a diagram showing a distribution of motion vectors when the original image shown in FIG. 3 is predictively encoded.

【図5】本実施の形態のノイズベクトル除去部25の処
理手順を示すフローチャートである。
FIG. 5 is a flowchart illustrating a processing procedure of a noise vector removing unit 25 according to the present embodiment.

【図6】図4に示す動きベクトルの中で、ノイズ動きベ
クトルと判定された動きベクトルを除去した後の動きベ
クトル分布を示す図である。
6 is a diagram showing a motion vector distribution after removing a motion vector determined as a noise motion vector from the motion vectors shown in FIG. 4;

【図7】図4あるいは図5に示す動きベクトルの方向と
角度の定義を説明するための図である。
FIG. 7 is a diagram for explaining the definition of the direction and angle of the motion vector shown in FIG. 4 or FIG.

【図8】本実施の形態のカメラワーク除去部27の処理
手順の一例を示すフローチャートである。
FIG. 8 is a flowchart illustrating an example of a processing procedure of a camera work removing unit 27 according to the present embodiment.

【図9】本実施の形態の動き被写体領域分離部29の処
理手順の一例を示すフローチャートである。
FIG. 9 is a flowchart illustrating an example of a processing procedure of a moving subject area separating unit 29 according to the present embodiment.

【図10】本実施の形態のノイズベクトル除去部25の
処理手順の他の例を示すフローチャートである。
FIG. 10 is a flowchart illustrating another example of the processing procedure of the noise vector removing unit 25 according to the present embodiment.

【図11】本実施の形態のカメラワーク除去部27の処
理手順の他の例を示すフローチャートである。
FIG. 11 is a flowchart illustrating another example of the processing procedure of the camera work removing unit 27 according to the present embodiment.

【図12】本実施の形態の動き被写体領域分離部29の
処理手順の他の例を示すフローチャートである。
FIG. 12 is a flowchart illustrating another example of the processing procedure of the moving subject area separation unit 29 according to the present embodiment.

【図13】本実施の形態の動き被写体領域分離部29の
処理手順の他の例を示すフローチャートである。
FIG. 13 is a flowchart illustrating another example of the processing procedure of the moving subject area separation unit 29 according to the present embodiment.

【図14】理想的な環境下での動き被写体が存在する場
合から、カメラワークが存在する場合、さらにはノイズ
が存在する場合の動きベクトルの分布の一例を示す図で
ある。
FIG. 14 is a diagram illustrating an example of a distribution of motion vectors in a case where a moving subject exists in an ideal environment, a case where camera work exists, and a case where noise exists.

【符号の説明】[Explanation of symbols]

1…フレーム間予測符号化画像データ列、10,20…
入力MPEGデータ列、21…ショット単位分類部、2
3…符号化情報解析部、25…ノイズベクトル除去部、
27…カメラワーク除去部、29…動き被写体領域分離
部、31…動き被写体情報抽出部、60…可変長復号
器、61…逆走査部、62…逆量子化部、63…逆DC
T部、64…加算器、65…動き補償部、66…再生
(復号化)画像データ列、67…再生表示部。
1... Inter-frame predictive coded image data sequence, 10, 20,.
Input MPEG data string, 21... Shot unit classification unit, 2
3: encoded information analyzer, 25: noise vector remover,
27: camera work removing unit, 29: moving subject region separating unit, 31: moving subject information extracting unit, 60: variable length decoder, 61: inverse scanning unit, 62: inverse quantization unit, 63: inverse DC
T section, 64: adder, 65: motion compensation section, 66: reproduced (decoded) image data string, 67: reproduction display section.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 動き予測方式を用いた圧縮符号化方式に
よって符号化された映像圧縮符号化データに含まれる動
きベクトルから動き被写体情報を算出する動き被写体情
報抽出方法において、 前記映像圧縮符号化データに含まれる動きベクトルの中
から動き被写体とは無関係な動きベクトルをノイズとし
て除去する第1のステップと、 前記第1のステップで無関係な動きベクトルが除去され
た動きベクトルから動き被写体に相当する動き被写体領
域を抽出する第2のステップと、 前記第2のステップで抽出された動き被写体領域から動
き被写体情報を抽出する第3のステップとを具備するこ
とを特徴とする動き被写体情報抽出方法。
1. A moving subject information extracting method for calculating moving subject information from a motion vector included in video compression encoded data encoded by a compression encoding method using a motion prediction method, comprising: A first step of removing, as noise, a motion vector irrelevant to the moving object from among the motion vectors included in the motion vector; A moving subject information extraction method, comprising: a second step of extracting a subject region; and a third step of extracting moving subject information from the moving subject region extracted in the second step.
【請求項2】 前記第1のステップにおいて、動き被写
体領域と無関係なカメラワーク情報を予め抽出し、カメ
ラワークを反映する動きベクトルを除去することを特徴
とする請求項1に記載された動き被写体情報抽出方法。
2. The moving subject according to claim 1, wherein in the first step, camera work information irrelevant to the moving subject region is extracted in advance, and a motion vector reflecting the camera work is removed. Information extraction method.
【請求項3】 前記第2のステップにおいて、時間ある
いは空間的に隣接している動きベクトルと類似した特性
を示す動きベクトルの集合を動き被写体領域として分離
抽出することを特徴とする請求項1または請求項2に記
載された動き被写体情報抽出方法。
3. The method according to claim 1, wherein, in the second step, a set of motion vectors having characteristics similar to those of temporally or spatially adjacent motion vectors is separated and extracted as a moving subject region. The moving subject information extraction method according to claim 2.
【請求項4】 前記時間あるいは空間的に隣接している
動きベクトルと類似した特性を示す動きベクトルの集合
を動き被写体領域として分離抽出する際に、動きベクト
ルの特徴量を少なくとも1つ算出し、隣接している2つ
の動きベクトルの間で、特徴量を比較し、その比較結果
が所定の値を満足する場合に、前記隣接している2つの
動きベクトルは類似していると判定することを特徴とす
る請求項3に記載された動き被写体情報抽出方法。
4. When separating and extracting a set of motion vectors having characteristics similar to the temporally or spatially adjacent motion vectors as a moving subject area, at least one feature amount of the motion vector is calculated. A feature value is compared between two adjacent motion vectors, and when the comparison result satisfies a predetermined value, it is determined that the two adjacent motion vectors are determined to be similar. 4. The moving subject information extraction method according to claim 3, wherein:
【請求項5】 動き予測方式を用いた圧縮符号化方式に
よって符号化された映像圧縮符号化データに含まれる動
きベクトルから動き被写体情報を算出する動き被写体情
報抽出装置において、 前記映像圧縮符号化データに含まれる動きベクトルから
動き被写体とは無関係な動きベクトルをノイズとして除
去する前処理部と、 前記前処理部で動き被写体とは無関係な動きベクトルが
除去された動きベクトルから動き被写体に相当する動き
被写体領域を抽出する動き被写体領域分離部と、 前記動き被写体領域分離部で抽出された動き被写体領域
から動き被写体情報を抽出する動き被写体情報抽出部と
を具備することを特徴とする動き被写体情報抽出装置。
5. A moving subject information extraction apparatus for calculating moving subject information from a motion vector included in video compression encoded data encoded by a compression encoding method using a motion prediction method, comprising: A preprocessing unit that removes, as noise, a motion vector unrelated to the moving subject from the motion vectors included in the motion vector; and a motion corresponding to the moving subject from the motion vector from which the motion vector unrelated to the moving subject has been removed by the preprocessing unit. A moving subject information extraction unit comprising: a moving subject region separating unit that extracts a subject region; and a moving subject information extracting unit that extracts moving subject information from the moving subject region extracted by the moving subject region separating unit. apparatus.
【請求項6】 前記前処理部は、動き被写体領域と無関
係なカメラワーク情報を予め抽出し、カメラワークを反
映する動きベクトルを除去するカメラワーク除去部を備
えることを特徴とする請求項5に記載された動き被写体
情報抽出装置。
6. The camera according to claim 5, wherein the pre-processing unit includes a camera work removing unit that extracts camera work information irrelevant to the moving subject area in advance and removes a motion vector reflecting the camera work. The described moving subject information extraction device.
【請求項7】 前記動き被写体領域分離部は、時間ある
いは空間的に隣接している動きベクトルと類似した特性
を示す動きベクトルの集合を動き被写体領域として分離
抽出することを特徴とする請求項5または請求項6に記
載された動き被写体情報抽出装置。
7. The moving subject area separating section separates and extracts a set of motion vectors having characteristics similar to temporally or spatially adjacent motion vectors as a moving subject area. A moving subject information extracting device according to claim 6.
【請求項8】 前記時間あるいは空間的に隣接している
動きベクトルと類似した特性を示す動きベクトルの集合
を動き被写体領域として分離抽出する際に、動きベクト
ルの特徴量を少なくとも1つ算出し、隣接している2つ
の動きベクトルの間で特徴量を比較し、その比較結果が
所定の値を満足する場合に、前記隣接している2つの動
きベクトルは類似していると判定することを特徴とする
請求項7に記載された動き被写体情報抽出装置。
8. When separating and extracting a set of motion vectors having characteristics similar to the temporally or spatially adjacent motion vectors as a moving subject region, at least one feature amount of the motion vector is calculated, A feature amount is compared between two adjacent motion vectors, and when the comparison result satisfies a predetermined value, it is determined that the two adjacent motion vectors are similar. The moving subject information extracting apparatus according to claim 7, wherein
JP26448596A 1996-10-04 1996-10-04 Moving subject information extraction method and apparatus Pending JPH10112863A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26448596A JPH10112863A (en) 1996-10-04 1996-10-04 Moving subject information extraction method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26448596A JPH10112863A (en) 1996-10-04 1996-10-04 Moving subject information extraction method and apparatus

Publications (1)

Publication Number Publication Date
JPH10112863A true JPH10112863A (en) 1998-04-28

Family

ID=17403902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26448596A Pending JPH10112863A (en) 1996-10-04 1996-10-04 Moving subject information extraction method and apparatus

Country Status (1)

Country Link
JP (1) JPH10112863A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030072909A (en) * 2002-03-07 2003-09-19 주식회사 엘지이아이 Object segmentation method for moving picture decoder
JP2003346160A (en) * 2002-05-29 2003-12-05 Matsushita Electric Ind Co Ltd Device and method for detecting mobile object
JP2006039700A (en) * 2004-07-23 2006-02-09 Casio Comput Co Ltd Image processing apparatus and image processing program
JP2009032284A (en) * 2008-10-06 2009-02-12 Panasonic Corp Moving object detection device
JP2010198634A (en) * 2010-05-14 2010-09-09 Casio Computer Co Ltd Image processing device and image processing program
KR20170086165A (en) * 2016-01-15 2017-07-26 에스케이텔레콤 주식회사 Method and Apparatus for Detecting Motion of Feature Point in Image

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030072909A (en) * 2002-03-07 2003-09-19 주식회사 엘지이아이 Object segmentation method for moving picture decoder
JP2003346160A (en) * 2002-05-29 2003-12-05 Matsushita Electric Ind Co Ltd Device and method for detecting mobile object
JP2006039700A (en) * 2004-07-23 2006-02-09 Casio Comput Co Ltd Image processing apparatus and image processing program
JP2009032284A (en) * 2008-10-06 2009-02-12 Panasonic Corp Moving object detection device
JP2010198634A (en) * 2010-05-14 2010-09-09 Casio Computer Co Ltd Image processing device and image processing program
KR20170086165A (en) * 2016-01-15 2017-07-26 에스케이텔레콤 주식회사 Method and Apparatus for Detecting Motion of Feature Point in Image

Similar Documents

Publication Publication Date Title
KR100468967B1 (en) Thumbnail image generating system
US7027509B2 (en) Hierarchical hybrid shot change detection method for MPEG-compressed video
Liu et al. Scene decomposition of MPEG-compressed video
US6473459B1 (en) Scene change detector
JP3656036B2 (en) Dissolve / fade detection method in MPEG compressed video environment
EP1389016B1 (en) Improved motion estimation and block matching pattern
JP4666784B2 (en) Video sequence key frame extraction method and video sequence key frame extraction device
US8098729B2 (en) Implementing B-picture scene changes
KR20040006065A (en) Scene change detector and method thereof
US20030026340A1 (en) Activity descriptor for video sequences
JP2000224590A (en) Method for extracting characteristics of video sequence
JP2010500818A (en) System and method for comic animation compression
US7295711B1 (en) Method and apparatus for merging related image segments
JPH10257436A (en) Automatic hierarchical structuring method for moving image and browsing method using the same
EP3175621B1 (en) Video-segment identification systems and methods
JP2008505562A (en) Method and apparatus for detecting motion in an MPEG video stream
Sugano et al. A fast scene change detection on MPEG coding parameter domain
JP2869398B2 (en) Cut point detection method and device
JPH10112863A (en) Moving subject information extraction method and apparatus
JP3332202B2 (en) Camera work calculation method and device
JP2003061112A (en) Camerawork detector and camerawork detection method
JP2002064823A (en) Apparatus for detecting scene change of compressed moving image, method of detecting scene change of compressed moving image, and recording medium recording program thereof
JP2004112678A (en) Video search device
Gu et al. Dissolve detection in MPEG compressed video
JPH03214364A (en) Scene variation detecting method