JP2013120504A - Object extraction device, object extraction method and program - Google Patents
Object extraction device, object extraction method and program Download PDFInfo
- Publication number
- JP2013120504A JP2013120504A JP2011268456A JP2011268456A JP2013120504A JP 2013120504 A JP2013120504 A JP 2013120504A JP 2011268456 A JP2011268456 A JP 2011268456A JP 2011268456 A JP2011268456 A JP 2011268456A JP 2013120504 A JP2013120504 A JP 2013120504A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- feature amount
- feature
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】ユーザが指定する注目オブジェクトを高精度に追跡、抽出することが可能なオブジェクト抽出装置の提供。
【解決手段】オブジェクト抽出装置1は、時系列画像から注目するオブジェクト領域を抽出するものであって、時系列画像における基準画像上のオブジェクト領域の画像とその周辺領域の画像より、オブジェクト領域とオブジェクト周辺領域とを識別する識別特徴量を算出する識別特徴量算出部20と、前記時系列画像における参照画像上のオブジェクト領域内の特徴点と時系列画像における処理対象画像の特徴点との対応により処理対象画像上のオブジェクト領域を推定するオブジェクト領域推定部30と、推定されたオブジェクト領域とその周辺領域の画像の特徴量を算出し、該算出した特徴量と識別特徴量との対比によって、推定した処理対象画像におけるオブジェクトの領域を修正確定する。
【選択図】図1An object extraction apparatus capable of tracking and extracting a target object designated by a user with high accuracy.
An object extracting apparatus extracts an object region of interest from a time-series image. An object region and an object are extracted from an image of the object region on a reference image in the time-series image and an image of its peripheral region. Based on the correspondence between the feature point in the object region on the reference image in the time-series image and the feature point of the processing target image in the time-series image An object region estimation unit 30 that estimates an object region on the processing target image, calculates the feature amount of the image of the estimated object region and its surrounding region, and estimates by comparing the calculated feature amount and the identification feature amount The area of the object in the processed image is corrected and confirmed.
[Selection] Figure 1
Description
本発明は、ユーザが所望する注目オブジェクトを映像中より抽出するオブジェクト抽出装置、オブジェクト抽出方法に関する。 The present invention relates to an object extraction apparatus and an object extraction method for extracting an object of interest desired by a user from a video.
近年、デジタルビデオカメラ、デジタルスチルカメラ、携帯電話など撮像機能付き端末が急速に普及している。また、これらのカメラによって撮影された映像に対して、加工や処理を施し、新たな映像を生成する装置がある。例えば、映像中の特定の画像領域を抽出し、抽出した画像領域を部品として映像の加工に利用することや、映像を個々の画像領域毎に抽出し、抽出した映像を元の映像の管理や検索に利用することが知られている。 In recent years, terminals with an imaging function such as a digital video camera, a digital still camera, and a mobile phone are rapidly spreading. In addition, there is an apparatus that generates a new video by processing and processing video shot by these cameras. For example, a specific image area in a video can be extracted, and the extracted image area can be used as a part for video processing, or a video can be extracted for each individual image area, and the extracted video can be managed in the original video. It is known to use for search.
映像からユーザが指定する注目オブジェクトを追跡し、抽出する手法として、例えば、特許文献1記載の技術がある。
特許文献1では、背景差分に基づいて取得したオブジェクト領域を示すシルエット画像とオブジェクト固有の画像特徴量(色情報)とに基づいて、前記オブジェクトが存在する領域の部分領域を検出し、前記部分領域を前記シルエット画像に基づいて領域を成長させることでオブジェクト領域全体を抽出するオブジェクト抽出装置が開示されている。
As a technique for tracking and extracting a target object designated by a user from a video, for example, there is a technique described in Patent Document 1.
In Patent Literature 1, a partial area of an area where the object exists is detected based on a silhouette image indicating an object area acquired based on a background difference and an image characteristic amount (color information) unique to the object, and the partial area An object extraction device is disclosed that extracts an entire object region by growing the region based on the silhouette image.
しかしながら、特許文献1は、背景差分に基づいてオブジェクト領域を示すシルエット画像を取得するため、カメラワークや、シーンチェンジにより背景に変化を伴う場合は、オブジェクト領域を示すシルエット画像内に、背景領域を誤ってオブジェクト領域として抽出することがある。 However, since Patent Document 1 acquires a silhouette image indicating an object area based on a background difference, if the background changes due to camera work or a scene change, the background area is included in the silhouette image indicating the object area. It may be extracted as an object area by mistake.
本発明は上記の点に鑑みてなされたものであり、ユーザが指定する注目オブジェクトを高精度に追跡、抽出することが可能なオブジェクト抽出装置、オブジェクト抽出方法、及びプログラムを提供する。 The present invention has been made in view of the above points, and provides an object extraction device, an object extraction method, and a program capable of tracking and extracting a target object designated by a user with high accuracy.
上記課題を解決するために、本発明の第1の技術手段は、時系列画像から注目するオブジェクト領域を抽出するオブジェクト抽出装置であって、時系列画像における基準画像上のオブジェクト領域の画像とその周辺領域の画像より、オブジェクト領域とオブジェクト周辺領域とを識別する識別特徴量を算出する識別特徴量算出部と、前記時系列画像における参照画像上のオブジェクト領域内の特徴点と前記時系列画像における処理対象画像の特徴点との対応により処理対象画像上のオブジェクト領域を推定するオブジェクト領域推定部と、前記推定されたオブジェクト領域とその周辺領域の画像の特徴量を算出し、該算出した特徴量と前記算出した識別特徴量との対比によって、前記推定した処理対象画像におけるオブジェクトの領域を修正確定するオブジェクト領域確定部と、を備えることを特徴としたものである。 In order to solve the above-described problem, a first technical means of the present invention is an object extraction device that extracts an object region of interest from a time-series image, the image of the object region on the reference image in the time-series image and its An identification feature amount calculating unit for calculating an identification feature amount for identifying an object region and an object peripheral region from an image of the peripheral region, a feature point in the object region on the reference image in the time-series image, and the time-series image An object region estimation unit for estimating an object region on the processing target image by correspondence with a feature point of the processing target image; and calculating a feature amount of the image of the estimated object region and its surrounding region; The region of the object in the estimated processing target image is corrected by comparing the calculated identification feature amount An object region determination unit for constant, is obtained by comprising: a.
本発明の第2の技術手段は、第1の技術手段において、前記識別特徴量算出部が、前記基準画像におけるオブジェクト領域を示すシルエット画像に基づいて、オブジェクト領域とオブジェクト周辺領域との識別のための画像特徴量を算出する特徴量算出範囲を設定する特徴量算出範囲設定部と、設定した特徴量算出範囲において、所定サイズの小領域毎に前記画像特徴量を算出する画像特徴量算出部と、前記画像特徴量のうち、オブジェクト領域上の画像特徴量をクラスタリングし、オブジェクト領域の画像特徴量を表現するK個の異なる代表画像特徴量を算出する代表画像特徴量算出部と、小領域毎に、該小領域の画像特徴量とK個の異なる代表画像特徴量とから、画像特徴量と代表画像特徴量との類似度ベクトルを算出する類似度ベクトル算出部と、該算出したオブジェクト領域上の類似度ベクトル及びオブジェクト周辺領域の類似度ベクトルから、小領域が特徴量空間上においてオブジェクト領域に属するか否かのクラス境界を表す識別関数を算出する識別関数算出部と、を備え、前記識別特徴量として前記K個の異なる代表画像特徴量と前記識別関数を出力することを特徴としたものである。 According to a second technical means of the present invention, in the first technical means, the identification feature amount calculation unit is configured to identify an object region and an object peripheral region based on a silhouette image indicating the object region in the reference image. A feature amount calculation range setting unit that sets a feature amount calculation range for calculating the image feature amount, and an image feature amount calculation unit that calculates the image feature amount for each small region of a predetermined size in the set feature amount calculation range A representative image feature amount calculation unit that clusters image feature amounts on the object region out of the image feature amounts and calculates K different representative image feature amounts expressing the image feature amount of the object region; Further, a similarity vector for calculating a similarity vector between the image feature quantity and the representative image feature quantity from the image feature quantity of the small region and K different representative image feature quantities. Identification for calculating an identification function representing a class boundary as to whether or not a small area belongs to the object area in the feature amount space from the calculation unit and the calculated similarity vector on the object area and the similarity vector of the object peripheral area A function calculation unit, and outputs the K different representative image feature values and the discrimination function as the discrimination feature values.
本発明の第3の技術手段は、第2の技術手段において、前記オブジェクト領域確定部が、前記推定されたオブジェクト領域を示す推定シルエット画像に基づいて、画像特徴量を算出する特徴量算出範囲を設定する特徴量算出範囲設定部と、該設定した特徴量算出範囲において、所定サイズの小領域毎に画像特徴量を算出する画像特徴量算出部と、小領域毎に、該小領域の画像特徴量と、前記基準画像におけるK個の異なる代表画像特徴量とから、前記類似度ベクトルを算出する類似度ベクトル算出部と、を備え、該算出した類似度ベクトルと、前記識別関数に基づいて、各小領域を特徴量空間上においてオブジェクト領域に属するか否かを識別し、該オブジェクト領域に含まれると判定された小領域の集合を前記処理対象画像上のオブジェクト領域と確定することを特徴としたものである。 According to a third technical means of the present invention, in the second technical means, a feature amount calculation range in which the object region determining unit calculates an image feature amount based on an estimated silhouette image indicating the estimated object region. A feature amount calculation range setting unit to be set, an image feature amount calculation unit that calculates an image feature amount for each small region of a predetermined size in the set feature amount calculation range, and an image feature of the small region for each small region A similarity vector calculation unit that calculates the similarity vector from an amount and K different representative image feature values in the reference image, and based on the calculated similarity vector and the identification function, Whether each small area belongs to the object area in the feature amount space is identified, and a set of small areas determined to be included in the object area is defined as an object on the processing target image. Is obtained is characterized in that determining the region.
本発明の第4の技術手段は、第1〜第3のいずれか1の技術手段において、前記オブジェクト領域推定部が、前記参照画像と該参照画像上のオブジェクト領域を示すシルエット画像とから、前記参照画像上のオブジェクト領域内の特徴点を算出する特徴点算出部と、該算出した参照画像上のオブジェクト領域内の特徴点と、前記参照画像上のオブジェクト領域を示すシルエット画像と、前記処理対象画像とから、前記参照画像上のオブジェクト領域内の特徴点と対応する処理対象画像上の特徴点を算出する対応点算出部と、前記参照画像上のオブジェクト領域内の特徴点と、該特徴点と対応する処理対象画像上の特徴点とから、前記参照画像上のオブジェクト領域内の特徴点を該特徴点と対応する処理対象画像上の特徴点へ射影する変換行列を算出する変換行列算出部と、を備え、前記変換行列と、前記参照画像上のオブジェクト領域を示すシルエット画像とから、処理対象画像上の各画素について、変換行列の逆行列を乗じ参照画像上のオブジェクト領域に含まれるか否かを判定し、該オブジェクト領域に含まれると判定された画素の集合を前記処理対象画像上のオブジェクト領域と推定することを特徴としたものである。 According to a fourth technical means of the present invention, in any one of the first to third technical means, the object region estimation unit includes the reference image and a silhouette image indicating an object region on the reference image. A feature point calculation unit for calculating a feature point in an object area on the reference image, a feature point in the object area on the reference image, a silhouette image indicating the object area on the reference image, and the processing target A corresponding point calculating unit that calculates a feature point on the processing target image corresponding to a feature point in the object area on the reference image from the image, a feature point in the object area on the reference image, and the feature point And a feature matrix on the image to be processed corresponding to a feature point in the object area on the reference image to a feature point on the image to be processed corresponding to the feature point A conversion matrix calculating unit for calculating, on the reference image, multiplying each pixel on the processing target image by the inverse matrix of the conversion matrix from the conversion matrix and the silhouette image indicating the object region on the reference image. It is determined whether it is included in the object area, and a set of pixels determined to be included in the object area is estimated as an object area on the processing target image.
本発明の第5の技術手段は、時系列画像から注目するオブジェクト領域を抽出するオブジェクト抽出方法であって、時系列画像における基準画像上のオブジェクト領域の画像とその周辺領域の画像より、オブジェクト領域とオブジェクト周辺領域とを識別する識別特徴量を算出する識別特徴量算出ステップと、前記時系列画像における参照画像上のオブジェクト領域内の特徴点と前記時系列画像における処理対象画像の特徴点との対応により処理対象画像上のオブジェクト領域を推定するオブジェクト領域推定ステップと、前記推定されたオブジェクト領域とその周辺領域の画像の特徴量を算出し、該算出した特徴量と前記算出した識別特徴量との対比によって、前記推定した処理対象画像におけるオブジェクトの領域を修正確定するオブジェクト領域確定ステップと、を含むことを特徴としたものである。 According to a fifth technical means of the present invention, there is provided an object extraction method for extracting an object region of interest from a time-series image, wherein the object region is obtained from an image of the object region on the reference image and its surrounding region in the time-series image. An identification feature amount calculating step for calculating an identification feature amount for distinguishing between the object peripheral region and the object peripheral region, a feature point in the object region on the reference image in the time-series image, and a feature point of the processing target image in the time-series image An object region estimation step for estimating an object region on the processing target image by correspondence; calculating a feature amount of the image of the estimated object region and its surrounding region; and the calculated feature amount and the calculated identification feature amount The object for correcting and confirming the object region in the estimated processing target image by comparing And transfected region determination step, it is obtained by comprising a.
本発明の第6の技術手段は、第5の技術手段において、前記識別特徴量算出ステップが、前記基準画像におけるオブジェクト領域を示すシルエット画像に基づいて、オブジェクト領域とオブジェクト周辺領域との識別のための画像特徴量を算出する特徴量算出範囲を設定する特徴量算出範囲設定ステップと、設定した特徴量算出範囲において、所定サイズの小領域毎に前記画像特徴量を算出する画像特徴量算出ステップと、前記画像特徴量のうち、オブジェクト領域上の画像特徴量をクラスタリングし、オブジェクト領域の画像特徴量を表現するK個の異なる代表画像特徴量を算出する代表画像特徴量算出ステップと、小領域毎に、該小領域の画像特徴量とK個の異なる代表画像特徴量とから、画像特徴量と代表画像特徴量との類似度ベクトルを算出する類似度ベクトル算出ステップと、該算出したオブジェクト領域上の類似度ベクトル及びオブジェクト周辺領域の類似度ベクトルから、小領域が特徴量空間上においてオブジェクト領域に属するか否かのクラス境界を表す識別関数を算出する識別関数算出ステップと、前記識別特徴量として前記K個の異なる代表画像特徴量と前記識別関数を出力するステップと、を含むことを特徴としたものである。 According to a sixth technical means of the present invention, in the fifth technical means, the identification feature amount calculating step is for identifying an object region and an object peripheral region based on a silhouette image indicating the object region in the reference image. A feature amount calculation range setting step for setting a feature amount calculation range for calculating the image feature amount, and an image feature amount calculation step for calculating the image feature amount for each small region of a predetermined size in the set feature amount calculation range; A representative image feature amount calculating step of clustering image feature amounts on the object region out of the image feature amounts and calculating K different representative image feature amounts expressing the image feature amount of the object region; Further, from the image feature amount of the small area and K different representative image feature amounts, the similarity vector between the image feature amount and the representative image feature amount is calculated. A class boundary indicating whether or not a small region belongs to the object region in the feature amount space from the similarity vector calculating step for calculating the similarity vector and the similarity vector on the object region and the similarity vector of the object peripheral region An identification function calculating step for calculating an identification function; and a step of outputting the K different representative image feature values and the identification function as the identification feature values.
本発明の第7の技術手段は、第6の技術手段において、前記オブジェクト領域確定ステップが、前記推定されたオブジェクト領域を示す推定シルエット画像に基づいて、画像特徴量を算出する特徴量算出範囲を設定する特徴量算出範囲設定ステップと、該設定した特徴量算出範囲において、所定サイズの小領域毎に画像特徴量を算出する画像特徴量算出ステップと、小領域毎に、該小領域の画像特徴量と、前記基準画像におけるK個の異なる代表画像特徴量とから、前記類似度ベクトルを算出する類似度ベクトル算出ステップと、該算出した類似度ベクトルと、前記識別関数に基づいて、各小領域を特徴量空間上においてオブジェクト領域に属するか否かを識別し、該オブジェクト領域に含まれると判定された小領域の集合を前記処理対象画像上のオブジェクト領域と確定するステップと、を含むことを特徴としたものである。 According to a seventh technical means of the present invention, in the sixth technical means, a feature amount calculation range in which the object region determination step calculates an image feature amount based on an estimated silhouette image indicating the estimated object region. A feature amount calculation range setting step to be set; an image feature amount calculation step of calculating an image feature amount for each small region of a predetermined size in the set feature amount calculation range; and an image feature of the small region for each small region A similarity vector calculating step for calculating the similarity vector from the amount and K different representative image feature values in the reference image, and each subregion based on the calculated similarity vector and the identification function Are included in the object area in the feature amount space, and a set of small areas determined to be included in the object area is defined as the processing target image. A step of determining an object region of the upper is obtained by comprising a.
本発明の第8の技術手段は、第5〜第7のいずれか1の技術手段において、前記オブジェクト領域推定ステップが、前記参照画像と該参照画像上のオブジェクト領域を示すシルエット画像とから、前記参照画像上のオブジェクト領域内の特徴点を算出する特徴点算出ステップと、該算出した参照画像上のオブジェクト領域内の特徴点と、前記参照画像上のオブジェクト領域を示すシルエット画像と、前記処理対象画像とから、前記参照画像上のオブジェクト領域内の特徴点と対応する処理対象画像上の特徴点を算出する対応点算出ステップと、前記参照画像上のオブジェクト領域内の特徴点と、該特徴点と対応する処理対象画像上の特徴点とから、前記参照画像上のオブジェクト領域内の特徴点を該特徴点と対応する処理対象画像上の特徴点へ射影する変換行列を算出する変換行列算出ステップと、前記変換行列と、前記参照画像上のオブジェクト領域を示すシルエット画像とから、処理対象画像上の各画素について、変換行列の逆行列を乗じ参照画像上のオブジェクト領域に含まれるか否かを判定し、該オブジェクト領域に含まれると判定された画素の集合を前記処理対象画像上のオブジェクト領域と推定するステップと、を含むことを特徴としたものである。 According to an eighth technical means of the present invention, in any one of the fifth to seventh technical means, the object region estimation step includes the reference image and a silhouette image indicating the object region on the reference image. A feature point calculating step for calculating a feature point in the object area on the reference image, a feature point in the object area on the reference image, a silhouette image showing the object area on the reference image, and the processing target A corresponding point calculating step for calculating a feature point on the processing target image corresponding to a feature point in the object region on the reference image from the image, a feature point in the object region on the reference image, and the feature point And a feature point on the processing target image corresponding to the feature point in the object area on the reference image A reference image obtained by multiplying a transformation matrix calculation step for calculating a transformation matrix to be projected, the transformation matrix, and a silhouette image indicating an object region on the reference image by multiplying an inverse matrix of the transformation matrix for each pixel on the processing target image. Determining whether or not the object area is included in the upper object area, and estimating a set of pixels determined to be included in the object area as the object area on the processing target image. It is.
本発明の第9の技術手段は、第1〜第4のいずれか1の技術手段のオブジェクト抽出装置の各処理部として機能させるためのオブジェクト抽出プログラムである。 A ninth technical means of the present invention is an object extraction program for causing each processing unit of the object extraction device of any one of the first to fourth technical means to function.
本発明によれば、ユーザが指定する注目オブジェクトを高精度に追跡、抽出することができる。 According to the present invention, an object of interest designated by a user can be tracked and extracted with high accuracy.
以下、図面を参照しながら本発明の実施形態について詳しく説明する。図面において同じ機能を有する部分については同じ符号を付し、繰り返しの説明は省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, portions having the same function are denoted by the same reference numerals, and repeated description is omitted.
図1は、本発明に係るオブジェクト抽出装置の概略構成を表すブロック図である。この図において、オブジェクト抽出装置1は、識別特徴量算出部20、オブジェクト領域推定部30及びオブジェクト領域確定部40を備えている。また図2は、図1のオブジェクト抽出装置1の動作例を説明するフロー図である。
FIG. 1 is a block diagram showing a schematic configuration of an object extracting apparatus according to the present invention. In this figure, the object extraction apparatus 1 includes an identification feature
図1のオブジェクト抽出装置1は、時刻t0の画像F(t0)(以降、基準画像ともいう)と、予め作成された、抽出対象となるオブジェクトの基準画像上の領域を示すシルエット画像S(t0)を外部より取得し、識別特徴量算出部20へ入力する(図2のステップS1−1)。ここで、シルエット画像S(t)とは、「S(x,y|t)=1」となる画素の集合をオブジェクト領域(前景領域ともいう)、「S(x、y|t)=0」となる画素の集合を背景領域として示す2値画像である。また、オブジェクト領域を示す情報として、シルエット画像を用いているが、本発明はこれに限定されない。シルエット画像の代わりに、オブジェクト領域の輪郭線をチェインコードで表現した輪郭情報を用いても良い。なお、チェインコードとは、ある点Aに対して隣接する点Bの位置を数値化し、さらに、その隣接する点Bに対して隣接する点C(点Aではない点)の位置を数値化する、ことを繰り返し、それらの数値の結合によって、線を表すものである。 The object extraction apparatus 1 in FIG. 1 includes an image F (t 0 ) (hereinafter also referred to as a reference image) at time t 0 and a silhouette image S indicating a region on the reference image of an object to be extracted that has been created in advance. (T 0 ) is acquired from the outside and input to the discriminating feature amount calculation unit 20 (step S1-1 in FIG. 2). Here, the silhouette image S (t) is a set of pixels where “S (x, y | t) = 1” is an object area (also referred to as a foreground area), and “S (x, y | t) = 0. Is a binary image showing a set of pixels as a background region. Moreover, although the silhouette image is used as the information indicating the object area, the present invention is not limited to this. Instead of the silhouette image, contour information expressing the contour line of the object region with a chain code may be used. The chain code is a numerical value of a position of a point B adjacent to a certain point A, and a numerical value of a position of a point C (a point other than the point A) adjacent to the adjacent point B. , And so on, and a line is represented by the combination of those numerical values.
(識別特徴量算出部20について)
識別特徴量算出部20は、入力された画像F(t0)と、画像F(t0)上の抽出対象オブジェクトOFGの領域を示すシルエット画像S(t0)に基づいて、オブジェクト領域OFGを表現するN個の代表画像特徴量(代表ローカル特徴量)と、画像F(t0)における各小領域の画像特徴量(ローカル特徴量)を算出し、その代表ローカル特徴量と各小領域のローカル特徴量とから、小領域が抽出対象オブジェクトであるか否かを特徴量空間上で識別する識別関数(オブジェクト領域とそれ以外の領域との境界)を算出し、算出した識別特徴量(代表ローカル特徴量と識別関数)をオブジェクト領域確定部40へ出力する(図2のステップS1−2)。以下では、画像特徴量の一例として、色ヒストグラムを用いる場合の識別特徴量算出部20について、図3〜図7を用いて説明する。
(About the identification feature amount calculation unit 20)
Based on the input image F (t 0 ) and the silhouette image S (t 0 ) indicating the region of the extraction target object OFG on the image F (t 0 ), the identification feature amount calculation unit 20 N representative image feature amounts (representative local feature amounts) representing the FG and image feature amounts (local feature amounts) of each small area in the image F (t 0 ) are calculated, and the representative local feature amounts and the respective small feature amounts are calculated. An identification function (boundary between the object area and the other area) that identifies whether or not a small area is an object to be extracted is calculated from the local feature quantity of the area, and the calculated identification feature quantity (Representative local feature value and discriminant function) are output to the object area determining unit 40 (step S1-2 in FIG. 2). Hereinafter, as an example of the image feature amount, the identification feature
図3に示すように、識別特徴量算出部20は、特徴量算出範囲設定部201、ローカル特徴量算出部202、代表ローカル特徴量算出部203、類似度ベクトル算出部204、及び識別関数算出部205とで構成されている。図4は、識別特徴量算出部20の動作例を説明するフロー図である。
As illustrated in FIG. 3, the identification feature
特徴量算出範囲設定部201は、入力されたシルエット画像S(t)(図3の例ではシルエット画像S(t0))に基づいて、オブジェクト領域とオブジェクト周辺領域のそれぞれのローカル特徴量を算出する範囲を設定し、設定した特徴量算出範囲をローカル特徴量算出部202及び識別関数算出部205へ出力する(図4のステップS20−1)。オブジェクト領域、及びオブジェクト周辺領域の特徴量の算出範囲の設定について、図5を用いて説明する。
The feature amount calculation
図5(A)は時刻t0のオブジェクト領域OFGを表すシルエット画像S(t0)であるとする。まず、特徴量算出範囲設定部201は、図5(B)に示すように、オブジェクト領域OFGを所定のカーネルによりモルフォロジー演算である膨張処理をK回行い、領域を拡張したオブジェクト領域OK dilatedを求める。続いて、特徴算出範囲設定部201は、図5(C)に示す拡張オブジェクト領域OK dilatedからオブジェクト領域OFGを除いた領域(オブジェクト周辺領域OAround)を求める。このとき、オブジェクト領域とそれ以外の領域(オブジェクト周辺領域)から取得する特徴量のサンプル数を同程度にするため、オブジェクト領域OFGの面積と同程度になるようオブジェクト周辺領域OAroundを設定することが望ましい。例えば、K回目の膨張処理により得られる拡張オブジェクト領域の面積をS(Ok dilated)、オブジェクト領域OFGの面積をS(OFG)とすれば、式(20−1)を最初に満たす拡張オブジェクト領域OK dilatedより、オブジェクト領域OFGを除いた領域を取得すればよい。
FIG. 5A is a silhouette image S (t 0 ) representing the object area OFG at time t 0 . First, the feature quantity calculation
図3のローカル特徴量算出部202は、入力された画像F(t)(図3の例ではF(t0))と、特徴量算出範囲設定部201で設定された特徴量算出範囲に基づいて、オブジェクト領域OFGとオブジェクト周辺領域OAroundに含まれる各小領域のローカル特徴量を算出する(図4のステップS20−2)。ここで、ローカル特徴量として、色ヒストグラムを例に算出方法を説明する。なお、小領域は画素(x,y)を中心とする半径rの円であるとする。まず、ローカル特徴量算出部202は、小領域内の画素毎に量子化ステップサイズQにより量子化した画素値CQ(r,g,b)を取得する(式(20−2))。なお、本例では、小領域を、画素(x,y)を中心とする半径rの円として説明しているが、これに限定されない。例えば、画素(x、y)を中心とするN×M画素単位の矩形領域であってよい。
3 is based on the input image F (t) (F (t 0 ) in the example of FIG. 3) and the feature amount calculation range set by the feature amount calculation
なお、式(20−2)において、演算子‘//’は整数除算である。続いて、量子化した画素値CQ(r,g,b)の出現頻度を数え上げ、ヒストグラムの各要素を小領域の面積で正規化した色ヒストグラムHC(x,y)を算出する。また、ローカル特徴量202は、画像の色空間としてRGBを用いてローカル特徴量を算出するが、本発明はこれに限らず、YCbCr(YUV)、CIE L*a*b*、CIE L*u*v*であっても良いし、他の色空間であってもよい。
In Expression (20-2), the operator “//” is integer division. Subsequently, the appearance frequency of the quantized pixel value C Q (r, g, b) is counted, and a color histogram H C (x, y) in which each element of the histogram is normalized by the area of the small region is calculated. The
図3の代表ローカル特徴量算出部203は、入力されたオブジェクト領域、及びオブジェクト周辺領域の各小領域のローカル特徴量をクラスタリングし、オブジェクト領域を表現するK個の代表ローカル特徴量を算出する(図4のステップS20−3)。例えば、ローカル特徴量にK−means法を適用し、K個の代表ローカル特徴量を取得すればよい。
The representative local feature
図3の類似度ベクトル算出部204は、各小領域のローカル特徴量(色ヒストグラム)と、オブジェクト領域の画像特徴量を表す代表ローカル特徴量(色ヒストグラム)より、オブジェクト領域、オブジェクト周辺領域の小領域毎のローカル特徴量と、オブジェクト領域のK個の代表ローカル特徴量との類似度を算出し、その類似度ベクトルを出力する(図4のステップS20−4)。ここで、小領域の色ヒストグラムHc(x、y)と代表色ヒストグラムHc,k(OFG)との類似度d(HC(x,y), HC,k(OFG))は、例えば、式(20−3)に示すヒストグラムインターセクションにより算出する。類似度の値域は0〜1であり、1に近いほどヒストグラムの形状が似ており、0に近いほどヒストグラムの形状が異なることを示す。
The similarity
図3の識別関数算出部205は、入力されたオブジェクト領域OFGの代表ローカル特徴量と、オブジェクト領域OFG、及びオブジェクト周辺領域OAroundの各小領域のローカル特徴量との類似度ベクトルより、図6に示すように特徴量空間においてオブジェクト領域OFGとオブジェクト周辺領域OAroundとを識別(分類)する識別関数「φ(x)=0」を算出する(図3のステップS20−5)。
The discriminant
図7において、画像F(t0)上の点線Uに囲まれている領域内の各小領域を、オブジェクト領域とオブジェクト周辺領域との2クラスへ分類する問題を考える。2クラスへの分類問題は、N個の特徴量ベクトルxと教師信号yからなるデータD={(xu,yu),u=1,2,...,N}を与えられて、式(20−4)に示す二乗和誤差を最小にする識別関数φ(x)を求める問題として定式化される。 In FIG. 7, consider a problem of classifying each small region in the region surrounded by the dotted line U on the image F (t 0 ) into two classes of an object region and an object peripheral region. The classification problem into two classes includes data D = {(x u , yu ), u = 1, 2,. . . , N} and is formulated as a problem for obtaining the discriminant function φ (x) that minimizes the sum-of-squares error shown in equation (20-4).
式(20−4)において、sgn(・)は符号関数である。ここで、データDにおいて、xuは、図7の領域U上のu番目の小領域における特徴量ベクトルを表し、yuはu番目の小領域がオブジェクト領域OFGに属するか否かの正解を与える2×1のベクトルで表される教師信号である。なお、教師信号yuは、u番目の小領域がオブジェクト領域OFGに属する場合(小領域の中心となる画素(x,y)のシルエット画像S(t)の値が「S(x、y|t)=1」のとき)、「yu=(1,0)」とし、それ以外の場合(小領域の中心となる画素(x,y)のシルエット画像S(t)の値が「S(x、y|t)=0」のとき)、「yu=(0,1)」であるとする。ここで、識別関数φ(x)を式(20−5)で与えられると仮定すれば、式(20−4)は式(20−6)を最小化する重みwを求める問題となる。 In Expression (20-4), sgn (•) is a sign function. Here, the data D, x u represents the feature vector of u-th small region on the region U in FIG. 7, y u is correct u-th small region of whether belonging to the object area O FG Is a teacher signal represented by a 2 × 1 vector. Note that the teacher signal yu is obtained when the u-th small region belongs to the object region OFG (the value of the silhouette image S (t) of the pixel (x, y) that is the center of the small region is “S (x, y | T) = 1 ”,“ y u = (1, 0) ”, otherwise (the value of the silhouette image S (t) of the pixel (x, y) that is the center of the small region is“ S (x, y | t) = 0), and “y u = (0, 1)”. Here, if it is assumed that the discriminant function φ (x) is given by the equation (20-5), the equation (20-4) becomes a problem for obtaining the weight w that minimizes the equation (20-6).
式(20−6)を最小二乗法により解くと、式(20−7)として重みwは与えられる。 When the equation (20-6) is solved by the least square method, the weight w is given as the equation (20-7).
以上、識別特徴量算出部20によれば、基準となる画像F(t0)とそのシルエット画像S(t0)から、オブジェクト領域の画像特徴量を表現するN個の代表ローカル特徴量と、オブジェクト領域、及びオブジェクト周辺領域の小領域毎のローカル特徴量との類似度ベクトルから、各小領域がオブジェクト領域、オブジェクト周辺領域のいずれのクラスに属するかを識別する識別関数を算出することができる。なお、本例では、識別特徴量算出部20では、識別関数を線形分離可能であると仮定し、最小二乗法により算出する場合について説明したが、これに限定されない。例えば、最小二乗法の代わりに、非線形サポートベクトルマシン(support vector machine)、決定木、多層パーセプトロンなどの機械学習によって識別関数を算出してもよい。
As described above, according to the identification feature
なお、図7には、小領域のローカル特徴量の一例である色ヒストグラムHc(x、y)と、オブジェクト領域のK個の代表ローカル特徴量の一例である代表色ヒストグラムHc,1(x、y)〜Hc,K(x、y)も示されている。 In FIG. 7, a color histogram H c (x, y), which is an example of a local feature amount in a small area, and a representative color histogram H c, 1 (an example of K representative local feature amounts in an object area) are shown. x, y) to H c, K (x, y) are also shown.
図2に戻って、図1のオブジェクト抽出装置1は、時刻t1の画像F(t1)(以降、処理対象画像ともいう)と、時刻t1の直前に算出した時刻t2におけるオブジェクト領域を示すシルエット画像S(t2)とその画像F(t2)(以降、参照画像ともいう)を外部より取得し、オブジェクト領域推定部30へ入力する(図2のステップS1−3)。 Returning to FIG. 2, the object extraction apparatus 1 in FIG. 1 includes an image F (t 1 ) at time t 1 (hereinafter also referred to as a processing target image) and an object region at time t 2 calculated immediately before time t 1. A silhouette image S (t 2 ) indicating the above and an image F (t 2 ) (hereinafter also referred to as a reference image) are acquired from the outside and input to the object region estimation unit 30 (step S1-3 in FIG. 2).
(オブジェクト領域推定部30について)
図2に戻って、図1のオブジェクト領域推定部30は、入力された画像F(t1)と、外部で記憶されている、1つ前の画像F(t2)とその画像F(t2)上のオブジェクト領域を示すシルエット画像S(t2)とから、時刻t2のオブジェクト領域上の特徴点を、時刻t1の対応する特徴点へ射影する変換行列Hを求め、その変換行列から時刻t1のオブジェクト領域を推定した推定シルエット画像Spred(t1)を生成し、オブジェクト領域確定部40へ出力する(図2のステップS1−4)。
(About the object region estimation unit 30)
Returning to FIG. 2, the object
続いて、図8〜図10を参照して、本実施形態におけるオブジェクト領域推定部30について詳細に説明する。図8はオブジェクト領域推定部30の概略構成を表すブロック図である。図8に示すように、オブジェクト領域推定部30は、特徴点算出部301、対応点算出部302、変換行列算出部303、及び推定シルエット画像生成部304とで構成されている。図9は、オブジェクト領域推定部30の動作例を説明するフロー図である。また、図10は、時刻t1と時刻t2の特徴点の対応関係から、時刻t1におけるオブジェクト領域を推定する動作を表す模式図である。
Next, the object
図9のステップS30−1において、図8の特徴点算出部301は、一つ前の画像F(t2)のオブジェクト領域と、入力された画像F(t1)との画像間の対応関係を求めるために画像F(t2)におけるオブジェクト領域内のN個の特徴点Ks(t2)(s=1,・・・,N)を算出し、その結果を対応点算出部302へ出力する(ステップS30−1)。
なお、特徴点とは、画素間の色や輝度の変化等に基づいて被写体のエッジの一部や頂点として抽出される点である。例えば、ある画素(x,y)を中心とした局所領域Sの範囲内のx方向、y方向の輝度の勾配ベクトルGi(x,y)(i=x,y)を用いて表される二次モーメント行列A(式(30−1))の第一固有値λ1と第二固有値λ2を求め、式(30−2)に示す条件を満たす画素(x,y)を特徴点として検出する。
In step S30-1 in FIG. 9, the feature
A feature point is a point extracted as a part or vertex of a subject's edge based on a change in color or luminance between pixels. For example, it is represented using a gradient vector G i (x, y) (i = x, y) of luminance in the x and y directions within the range of the local region S with a certain pixel (x, y) as the center. First eigenvalue λ 1 and second eigenvalue λ 2 of second moment matrix A (Equation (30-1)) are obtained, and pixel (x, y) satisfying the condition shown in Equation (30-2) is detected as a feature point. To do.
つまり、二次モーメント行列Aの第一固有値λ1、及び第二固有値λ2のうち小さい方の固有値が所定の閾値λthより大きい(または以上)場合に特徴点とするものである(例えば、「J. Shi and C. Tomasi, “Good Features to Track,” 9th IEEE Conference on Computer Vision and Pattern Recognition, June 1994」参照)。なお、式(30−1)において係数w(u,v)は、画素(x,y)からx方向にu,y方向にvだけ離れた画素(x+u,y+v)に関する重み係数を表し、例えば、式(30−3)の条件を満たすように定めた、局所領域Sの範囲内の2次ガウス分布の値を正規化した値を用いる。 That is, a characteristic point is obtained when the smaller eigenvalue of the first eigenvalue λ 1 and the second eigenvalue λ 2 of the second moment matrix A is greater than (or greater than) the predetermined threshold λ th (for example, see "J. Shi and C. Tomasi," Good Features to Track, "9 th IEEE Conference on Computer Vision and Pattern Recognition, June 1994 "). In the equation (30-1), the coefficient w (u, v) represents a weighting coefficient related to the pixel (x + u, y + v) separated from the pixel (x, y) by u in the x direction and v in the y direction. A value obtained by normalizing the value of the secondary Gaussian distribution within the range of the local region S, which is determined so as to satisfy the condition of Expression (30-3), is used.
ここで、図10(A)に画像F(t2)のオブジェクト領域上から、特徴点Ks(t2)を検出した結果の一例を示す。
図9のステップS30−2に進んで、図8の対応点算出部302は、入力された画像F(t1)と外部より読みだした一つ前の画像F(t2)と、ステップS30−1で取得した画像F(t2)の特徴点情報K(t2)に基づいて、画像F(t2)の各特徴点Ks(t2)(s=1,・・・,N)と対応する画像F(t1)上の点Ks(t1)をオプティカルフローにより算出し、その特徴点Ksの時刻t1,時刻t2における位置を記述した対応点情報Q(t1,t2)を変換行列算出部303へ出力する(ステップS30−2)。図10(A)には、画像F(t2)のオブジェクト領域上の特徴点Ks(t2)と画像F(t1)上の対応する特徴点Ks(t1)を検出した結果が示されている。また、画像F(t2)のオブジェクト領域上の特徴点Ks(t2)と一致する画像F(t1)上の特徴点Ks(t1)を結ぶ点線は、対応点情報Q(t1,t2)を視覚的に表したものである。
Here, FIG. 10A shows an example of the result of detecting the feature point Ks (t 2 ) from the object area of the image F (t 2 ).
Proceeding to step S30-2 in FIG. 9, the corresponding
なお、画像F(t2)の各特徴点Ks(t2)と対応する画像F(t1)上の点Ks(t1)は、例えば、式(30−4)に示す勾配法によるオプティカルフローの拘束条件をKs(t1)について解くことで取得できる(例えば、「B. D. Lucas and T. Kanade, “An iterative image registration technique with an application to stereo vision,” Proceedings of the 1981 DARPA imaging Understanding Workshop (pp.121-130), 1981」参照)。 Each feature point Ks of the image F (t 2) (t 2) and the corresponding image F (t 1) points on Ks (t 1), for example, optical with a gradient method shown in Equation (30-4) It can be obtained by solving the flow constraint on Ks (t 1 ) (for example, “BD Lucas and T. Kanade,“ An iterative image registration technique with an application to stereo vision, ”Proceedings of the 1981 DARPA imaging Understanding Workshop ( pp. 121-130), 1981 ”).
ここで、式(30−4)において、Gi(x,y|t1)(i=x,y,t)は画像F(t1)の輝度に関するx方向、y方向、t方向(時間方向)の勾配ベクトルを表し、Sは特徴点Ksを中心とする所定サイズの局所領域を表す。 Here, in Expression (30-4), G i (x, y | t 1 ) (i = x, y, t) is the x direction, y direction, and t direction (time) regarding the luminance of the image F (t 1 ). Direction), and S represents a local region of a predetermined size centered on the feature point Ks.
図9のステップS30−3に進んで、図8の変換行列算出部303は、ステップS30−2で取得した対応点情報Q(t1,t2)から、特徴点Ks(s=1,・・・,N)を一つ前の画像F(t2)上の位置から、画像F(t1)上の位置へ射影する変換行列Hを算出し、その変換行列Hを記述した情報を推定シルエット画像生成部304へ出力する(ステップS30−3)。
Proceeding to step S30-3 in FIG. 9, the transformation
画像F(t2)上のオブジェクト領域O(t2)上の画素(x,y)を、変換行列Hによって、画像F(t1)に射影した点の座標を(xpred,ypred)とすると、推定オブジェクト領域Opred(t1)とオブジェクト領域O(t2)の対応関係は、変換行列Hを用いて式(30−5)により表される(例えば、「CG−ARTS協会,ディジタル画像処理 第2版,2009」参照)。 The coordinates of a point obtained by projecting the pixel (x, y) on the object area O (t 2 ) on the image F (t 2 ) onto the image F (t 1 ) by the transformation matrix H are (x pred , y pred ). Then, the correspondence relationship between the estimated object region O pred (t 1 ) and the object region O (t 2 ) is expressed by Expression (30-5) using the transformation matrix H (for example, “CG-ARTS Association, Digital image processing 2nd edition, 2009 ").
式(30−5)において、記号「〜」は同値関係を表し、定数倍の違いを許して等しいことを意味する。また、変換行列Hは、一般的な変換を表現することができるため、射影変換と呼ばれる。ここで、時刻t2と時刻t1のオブジェクト領域間の対応関係を平行移動として表現できると仮定すると、式(30−5)は、式(30−6)として表現される。 In the expression (30-5), the symbol “˜” represents an equivalence relationship, which means that they are equal by allowing a constant multiple difference. The transformation matrix H is called projective transformation because it can express general transformation. Here, assuming that the correspondence between the object region at time t 2 and time t 1 can be expressed as a translation, formula (30-5) is expressed as Equation (30-6).
式(30−6)中の係数tx、tyはそれぞれx方向、y方向への移動量を表す。また、画像間の対応関係を平行移動、回転、拡大・縮小を含めたアフィン変換として表現できると仮定すると、式(30−5)は、式(30−7)として表現される。 Coefficient t x in the formula (30-6), t y is x-direction, respectively, represent the amount of movement in the y-direction. Assuming that the correspondence between images can be expressed as affine transformation including translation, rotation, and enlargement / reduction, Expression (30-5) is expressed as Expression (30-7).
式(30−7)中の係数a,b,c,dは拡大・縮小、及び回転を表し、係数tx、tyは式(30−6)と同様である。なお、式(30−5)乃至式(30−7)における変換行列Hの各係数hij(i,j=1,2,3)は、各変換モデル(平行移動、アフィン変換、射影変換)の拘束条件と対応点情報Q(t1,t2)から導出される連立方程式を最小二乗法により解くことで算出する。なお、十分な対応点数が無く、変換行列Hを算出できない場合は、所定の変換行列H0を用いる。例えば、変換行列H0の具体例としては、一つ前の変換行列の算出結果を用いる。 Factor in the equation (30-7) a, b, c, d is scaled, and represents a rotation factor t x, is t y is the same as in the formula (30-6). Note that the coefficients h ij (i, j = 1, 2, 3) of the transformation matrix H in the equations (30-5) to (30-7) are the transformation models (translation, affine transformation, projective transformation). This is calculated by solving simultaneous equations derived from the constraint conditions and the corresponding point information Q (t 1 , t 2 ) by the method of least squares. If there is not a sufficient number of corresponding points and the conversion matrix H cannot be calculated, a predetermined conversion matrix H 0 is used. For example, as a specific example of the transformation matrix H 0 , the calculation result of the previous transformation matrix is used.
図9のステップS30−4に進んで、図8の推定シルエット画像生成部304は、変換行列Hとシルエット画像S(t2)に基づいて、「時刻t1におけるオブジェクト領域は、一つ前の画像F(t2)上のオブジェクト領域を、図8の変換行列算出部303で算出した変換行列Hを用いて、画像F(t1)上へ射影した領域にある」と仮定して、時刻t1のオブジェクト領域を推定し、そのオブジェクト領域を表す推定シルエット画像Spred(t1)を生成する(ステップS30−4)。具体的には、画像F(t1)上の各画素(x,y)(図10(B)の点Pn)に関して、変換行列Hの逆行列H−1を乗じて画像F(t2)上へ逆射影した位置の座標(x’、y’)(図10(B)の点Pn´)が、時刻t2のオブジェクト領域O(t2)上に含まれるどうか判定する。なお、時刻t2のオブジェクト領域O(t2)とは、シルエット画像S(t2)上で、「S(x,y|t2)=1」となる画素の集合である。
Proceeding to step S30-4 in FIG. 9, the estimated silhouette image generation unit 304 in FIG. 8 determines that “the object region at time t 1 is the previous one based on the transformation matrix H and the silhouette image S (t 2 ). Assuming that the object area on the image F (t 2 ) is an area projected onto the image F (t 1 ) using the transformation matrix H calculated by the transformation
式(30−8)に示すように、画像F(t1)上の画素(x,y)を画像F(t2)へ逆射影した位置がオブジェクト領域O(t2)に含まれる場合、画素(x,y)は推定オブジェクト領域Opred(t1)を構成する画素であると判定し、推定シルエット画像Spred(x,y|t1)に「1」を設定する。また、画像F(t1)上の画素(x,y)オブジェクト領域O(t2)に含まれない場合、画素(x,y)は推定オブジェクト領域Opred(t1)を構成する画素ではないと判定し、推定シルエット画像Spred(x,y|t1)に「0」を設定する。ここで、図10(B)にシルエット画像S(t2)より求めた推定シルエット画像Spred(t1)の一例を示す。 As shown in Equation (30-8), if the image F (t 1) on the pixel (x, y) was back projected to the image F (t 2) position is included in the object area O (t 2), The pixel (x, y) is determined to be a pixel constituting the estimated object region O pred (t 1 ), and “1” is set to the estimated silhouette image S pred (x, y | t 1 ). Further, when the pixel (x, y) on the image F (t 1 ) is not included in the object area O (t 2 ), the pixel (x, y) is not a pixel constituting the estimated object area O pred (t 1 ). It is determined that the estimated silhouette image S pred (x, y | t 1 ) is “0”. Here, FIG. 10B shows an example of the estimated silhouette image S pred (t 1 ) obtained from the silhouette image S (t 2 ).
以上、オブジェクト領域推定部30によれば、オブジェクト領域の固有の特徴点に基づいて、時刻t1と時刻t2のオブジェクト領域の対応関係を求めるため、カメラワーク、シーンチェンジなど背景に変化が伴う場合にも頑健なオブジェクト領域を推定することができる。
As described above, according to the object
(オブジェクト領域確定部40について)
再び図2に戻って、図1のオブジェクト領域確定部40は、推定シルエット画像Spred(t1)より特徴量を算出する範囲を設定し、画像F(t1)上の小領域毎にローカル特徴量を算出し、そのローカル特徴量と、基準画像の識別特徴量(代表ローカル特徴量と識別関数φ(x))とに基づいて、オブジェクト領域であるか否かを識別し、オブジェクト領域を示すシルエット画像S(t1)を出力する(図2のステップS1−4)。
続いて、本実施形態におけるオブジェクト領域確定部40について詳細に説明する。
(About the object area determination unit 40)
Returning again to FIG. 2, the object
Next, the object
図11に示すように、オブジェクト領域確定部40は、特徴量算出範囲設定部201、ローカル特徴量算出部202、類似度ベクトル算出部203、及びオブジェクト領域識別部404とで構成されている。図12は、オブジェクト領域確定部40の動作例を説明するフロー図である。また、図13(A)は時刻t1の画像F(t1)、図13(B)は時刻t2の画像F(t2)、図13(C)は時刻t1のオブジェクト領域を推定した推定シルエット画像Spred(t1)、図13(D)は時刻t2のオブジェクト領域を示すシルエット画像S(t2)の一例である。なお、図13(A)の時刻t1のオブジェクト領域において、点線で囲まれた領域R1は、図13(B)の時刻t2のオブジェクト領域上の点線で囲まれた領域R2の部分が形状変化したものとする。また、図14(A)は、図13(C)上の点線で囲まれた領域B1の拡大図、図14(B)は領域B1内の特徴量算出範囲OK ,dilatedからオブジェクト領域とオブジェクト周辺領域を識別した結果の一例である。
As shown in FIG. 11, the object
図11の特徴量算出範囲設定部201は、入力された時刻t1の推定オブジェクト領域を示す推定シルエット画像Spred(t1)に基づいて、ローカル特徴量を算出する範囲として、図14(A)に示すように推定オブジェクト領域Opredを所定のカーネルによりモルフォロジー演算である膨張処理をK回行い、領域を拡張した領域OK dilatedを求めて、その算出範囲をローカル特徴量算出部202、オブジェクト領域識別部404へ出力する(図12のステップS40−1)。
The feature amount calculation
図11のローカル特徴量算出部202は、入力された画像F(t1)と、特徴量算出範囲設定部201で設定された特徴量算出範囲上にある各小領域のローカル特徴量を算出する(図12のステップS40−2)。
The local feature
図11の類似度ベクトル算出部203は、各小領域のローカル特徴量と、オブジェクト領域の画像特徴量を表す代表ローカル特徴量より、オブジェクト領域、オブジェクト周辺領域の小領域毎のローカル特徴量と、オブジェクト領域のK個の代表ローカル特徴量との類似度を算出し、その類似度ベクトルxを出力する(図12のステップS40−3)。
The similarity
図11のオブジェクト領域識別部404は、入力された各小領域の類似度ベクトルxと、識別関数φ(x)に基づいて、特徴量算出範囲OK ,dilated上の各小領域がオブジェクト領域であるか、オブジェクト周辺領域であるかを識別し、図13(D)に示すように確定したオブジェクト領域を示すシルエット画像S(t1)を出力する(図12のステップS40−4)。具体的には、画素(x,y)を中心とする小領域の類似度ベクトルxを識別関数φ(x)に入力し、その応答値がオブジェクト領域を示す場合(φ(x)>0)、画素(x,y)はオブジェクト領域OFGを構成する画素であると判定し、シルエット画像S(x,y|t1)に「1」を設定する。また、応答値がオブジェクト周辺領域を示す場合(φ(x)<0)、画素(x,y)はオブジェクト領域OFGを構成する画素ではないと判定し、シルエット画像S(x,y|t1)に「0」を設定する。また、応答値が識別関数の境界上を示す場合(φ(x)=0)、ランダムにオブジェクト領域かオブジェクト周辺領域であるか選択し、シルエット画像S(x,y|t1)に該当する値を設定するものとする。なお、シルエット画像S(t1)は「0」により初期化されているものとする。
Object
図14(B)は図14(A)において特徴量算出範囲OK ,dilated上の各小領域に対して、オブジェクト領域であるか否かを識別した結果である。図14(A)において、時刻t2上のオブジェクト領域を時刻t1に射影変換して得た推定オブジェクト領域Opredは、時刻t1のオブジェクト領域のうち、時刻t2の領域R2が形状変化した領域R1を含まない。つまり、時刻t2のオブジェクト領域を時刻t1へ射影変換するだけでは、形状変化を伴うオブジェクトの領域を精度良く抽出することができない。しかし、推定オブジェクト領域を拡張した特徴量算出範囲OK dilatedに領域R1が含まれている場合、オブジェクト領域であるか否かを識別することで、領域R1を抽出することができる。つまり、形状変化を伴うオブジェクトの領域を精度良く抽出することができる。
以上、オブジェクト領域確定部40によれば、推定したオブジェクト領域より特徴量算出範囲を設定し、設定した特徴量算出範囲に対して、オブジェクト領域であるか、オブジェクト周辺領域であるか識別し、オブジェクト領域を確定することができる。そのため、特徴量算出範囲内であれば、形状変化を伴うオブジェクト領域を抽出することができる。また、特徴量算出範囲を、オブジェクト領域の周辺部分に限定するため、特徴量の算出に要する演算量を削減することができる。
Figure 14 (B) is the feature quantity calculation range O K in FIG. 14 (A), the respective small regions on the dilated, the result of identifying whether the object region. In FIG. 14A, the estimated object region O pred obtained by projective transformation of the object region at time t 2 to time t 1 is the shape change of the region R 2 at time t 2 among the object regions at time t 1. The region R1 is not included. In other words, the object region accompanying the shape change cannot be extracted with high accuracy simply by projective transformation of the object region at time t 2 to time t 1 . However, if it contains regions R1 to extend the estimated object region feature calculation range O K dilated, by identifying whether the object region can be extracted area R1. That is, it is possible to accurately extract an object region that accompanies a shape change.
As described above, according to the object
図2に戻って、図1のオブジェクト抽出装置1は、時刻t1の次の時刻(t1+1)の画像におけるオブジェクト抽出処理を行なうため、ステップS1−3へ戻る(図2のステップS1−6においてYes)。時刻(t1+1)の画像がなければ、オブジェクト抽出処理を終了する(図2のステップS1−6においてNo)。 Returning to FIG. 2, the object extracting apparatus 1 of FIG. 1, for performing object extraction processing in the image of the next time of the time t 1 (t 1 +1), it returns to step S1-3 (in FIG. 2, step S1- 6). If there is no image at time (t 1 +1), the object extraction process is terminated (No in step S1-6 in FIG. 2).
(効果)
このように、オブジェクト抽出装置は、時系列画像上の第1の画像(基準画像)におけるオブジェクト領域を示すシルエット画像と、基準画像上の該オブジェクト領域とそのオブジェクト周辺領域の画像信号から、各小領域のローカル特徴量と、オブジェクト領域を代表するローカル特徴量(代表ローカル特徴量)を算出し、算出した代表ローカル特徴量と各小領域のローカル特徴量とに基づいて、各小領域がオブジェクト領域か否かを識別する識別関数を算出する。また、時系列画像上の第2の画像(処理対象画像)と、時系列画像上の第3の画像(参照画像)におけるオブジェクト領域を示すシルエット画像と参照画像とに基づいて、処理対象画像と参照画像間のオブジェクト領域の対応関係を算出し、その対応関係から参照画像上のオブジェクト領域を処理対象画像上へ射影変換する変換行列を算出する。算出した変換行列と参照画像のシルエット画像に基づいて、処理対象画像上のオブジェクト領域を推定し、推定シルエット画像を生成する。また、処理対象画像上の推定シルエット画像が示す推定オブジェクト領域と処理対象画像の画像信号から、各小領域のローカル特徴量を算出し、そのローカル特徴量と基準画像の代表ローカル特徴量と識別関数とに基づいて、各小領域がオブジェクト領域であるか否かを識別して、処理対象画像上のオブジェクト領域を確定する。これにより、ユーザが指定する注目オブジェクトを高精度に追跡、抽出することができる。
(effect)
As described above, the object extraction device uses the silhouette image indicating the object area in the first image (reference image) on the time-series image, and the image signal of the object area on the reference image and the object peripheral area to calculate each small area. The local feature amount of the region and the local feature amount representing the object region (representative local feature amount) are calculated, and each small region is converted into the object region based on the calculated representative local feature amount and the local feature amount of each small region. An identification function for identifying whether or not is calculated. Further, based on the second image (processing target image) on the time-series image and the silhouette image and reference image indicating the object area in the third image (reference image) on the time-series image, A correspondence relationship between the object areas between the reference images is calculated, and a transformation matrix for projectively transforming the object area on the reference image onto the processing target image is calculated from the correspondence relation. Based on the calculated transformation matrix and the silhouette image of the reference image, an object region on the processing target image is estimated to generate an estimated silhouette image. Further, the local feature amount of each small region is calculated from the estimated object region indicated by the estimated silhouette image on the processing target image and the image signal of the processing target image, the local feature amount, the representative local feature amount of the reference image, and the discrimination function Based on the above, it is determined whether or not each small area is an object area, and the object area on the processing target image is determined. Thereby, the object of interest designated by the user can be tracked and extracted with high accuracy.
(ローカル特徴量算出部202の変形例)
上記実施形態において、ローカル特徴量算出部202では、画像特徴量の一例として、色ヒストグラムを用いる場合について説明したが、本発明はこれに限定されない。ローカル特徴量算出部202は、小領域における勾配ヒストグラムを算出してもよい。この場合のローカル特徴量算出部202において、勾配ヒストグラムの算出方法について、図15を参照しながら説明する。図15は、勾配ヒストグラムの算出方法を示す模式図である。
(Modification of local feature amount calculation unit 202)
In the above embodiment, the local feature
まず、ローカル特徴量算出部202は、小領域内の画素毎に、輝度成分に関して勾配ベクトルG(x,y)=(Gx,Gy)を算出する。次に、算出した各画素の勾配ベクトルG(x,y)より、量子化ステップサイズQにより量子化した勾配ベクトルの角度θQを取得する(式(20−8))。
First, the local feature
続いて、量子化した勾配ベクトルの角度θQの出現頻度を数え上げ、図15(A)に示すヒストグラムの各要素を小領域の面積で正規化した勾配ヒストグラムHθ(x,y)を算出する。続いて、算出した勾配ヒストグラムHθ(x,y)より、出現頻度が最大となる勾配ベクトルの角度θmを取得し、勾配ヒストグラムHθ(x,y)と出現頻度が最大となる勾配ベクトル角度θmに基づいて、図15(B)に示す角度θmを原点として正規化した勾配ヒストグラムHθm,(x,y)を算出する。輝度の勾配ヒストグラムをローカル特徴量として用いることで、照明変化などの色変化に対して頑健となる。また、ローカル特徴量算出部202は、画像特徴量として、色ヒストグラム、勾配ヒストグラムのほかに、ウェーブレット特徴量、Harr−like特徴量、Edgelet特徴量、EOH特徴量、HOG特徴量を用いてもよい。また、各画像特徴量を異なる画像特徴量と組み合わせて用いてもよい。
Subsequently, the appearance frequency of the angle θ Q of the quantized gradient vector is counted, and a gradient histogram H θ (x, y) is calculated by normalizing each element of the histogram shown in FIG. 15A with the area of the small region. . Subsequently, from the calculated gradient histogram H θ (x, y), the angle θ m of the gradient vector having the maximum appearance frequency is acquired, and the gradient vector having the maximum appearance frequency with the gradient histogram H θ (x, y) is acquired. based on the angle .theta.m, calculated normalized gradient histogram H .theta.m the angle theta m shown in FIG. 15 (B) as the origin, the (x, y). By using a luminance gradient histogram as a local feature amount, it is robust against color changes such as illumination changes. In addition to the color histogram and the gradient histogram, the local feature
(オブジェクト抽出装置1の変形例(オブジェクト抽出装置1a))
上記実施形態において、図1のオブジェクト抽出装置1は、基準画像において、抽出対象オブジェクトのシルエット画像と基準画像の画像信号より、抽出対象オブジェクトの画像特徴量を表現する代表ローカル特徴量と、小領域をオブジェクト領域であるか否かを識別する識別関数を算出しているが、これに限定されない。例えば、オブジェクト領域確定部40より得られる、時刻t1のオブジェクト領域を示すシルエット画像S(t1)と画像F(t1)を、時刻t1の次の時刻(t1+1)にフィードバックし、基準画像、及び基準画像のシルエット画像として用いても良い。毎時刻におけるオブジェクト領域のローカル特徴量が微小に変化する場合にも、精度良く追跡、抽出をすることが可能となる。
(Modification of Object Extraction Device 1 (Object Extraction Device 1a))
In the above embodiment, the object extraction device 1 in FIG. 1 includes, in the reference image, a representative local feature amount that represents the image feature amount of the extraction target object from the silhouette image of the extraction target object and the image signal of the reference image, and a small region. Is used to calculate whether or not the object region is an object region. However, the present invention is not limited to this. For example, obtained from the object
なお、上述した実施形態におけるオブジェクト抽出装置1の一部をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、オブジェクト抽出装置1に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。 A part of the object extraction device 1 in the above-described embodiment may be realized by a computer. In that case, the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed. Here, the “computer system” is a computer system built in the object extraction apparatus 1 and includes hardware such as an OS and peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In such a case, a volatile memory inside a computer system serving as a server or a client may be included and a program that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
また、上述した実施形態におけるオブジェクト抽出装置1の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。立体画像生成装置1の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。 Moreover, you may implement | achieve part or all of the object extraction apparatus 1 in embodiment mentioned above as integrated circuits, such as LSI (Large Scale Integration). Each functional block of the stereoscopic image generating apparatus 1 may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, in the case where an integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology may be used.
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to
1…オブジェクト抽出装置、20…識別特徴量算出部、30…オブジェクト領域推定部、40…オブジェクト領域確定部、201、401…特徴量算出範囲設定部、202、402…ローカル特徴量算出部、203…代表ローカル特徴量算出部、204…識別関数算出部、301…特徴点算出部、302…対応点算出部、303…変換行列算出部、304…推定シルエット画像生成部、403…オブジェクト領域識別部。 DESCRIPTION OF SYMBOLS 1 ... Object extraction apparatus, 20 ... Identification feature-value calculation part, 30 ... Object area | region estimation part, 40 ... Object area | region determination part, 201, 401 ... Feature-value calculation range setting part, 202, 402 ... Local feature-value calculation part, 203 ... representative local feature amount calculation unit, 204 ... identification function calculation unit, 301 ... feature point calculation unit, 302 ... corresponding point calculation unit, 303 ... transformation matrix calculation unit, 304 ... estimated silhouette image generation unit, 403 ... object region identification unit .
Claims (9)
時系列画像における基準画像上のオブジェクト領域の画像とその周辺領域の画像より、オブジェクト領域とオブジェクト周辺領域とを識別する識別特徴量を算出する識別特徴量算出部と、
前記時系列画像における参照画像上のオブジェクト領域内の特徴点と前記時系列画像における処理対象画像の特徴点との対応により処理対象画像上のオブジェクト領域を推定するオブジェクト領域推定部と、
前記推定されたオブジェクト領域とその周辺領域の画像の特徴量を算出し、該算出した特徴量と前記算出した識別特徴量との対比によって、前記推定した処理対象画像におけるオブジェクトの領域を修正確定するオブジェクト領域確定部と、を備えることを特徴とするオブジェクト抽出装置。 An object extraction device that extracts an object region of interest from a time-series image,
An identification feature amount calculating unit that calculates an identification feature amount for identifying the object region and the object peripheral region from the image of the object region on the reference image in the time-series image and the image of the peripheral region;
An object region estimation unit that estimates an object region on the processing target image by correspondence between a feature point in the object region on the reference image in the time-series image and a feature point of the processing target image in the time-series image;
The feature amount of the image of the estimated object region and its peripheral region is calculated, and the object region in the estimated processing target image is corrected and confirmed by comparing the calculated feature amount with the calculated identification feature amount. And an object area determination unit.
設定した特徴量算出範囲において、所定サイズの小領域毎に前記画像特徴量を算出する画像特徴量算出部と、
前記画像特徴量のうち、オブジェクト領域上の画像特徴量をクラスタリングし、オブジェクト領域の画像特徴量を表現するK個の異なる代表画像特徴量を算出する代表画像特徴量算出部と、
小領域毎に、該小領域の画像特徴量とK個の異なる代表画像特徴量とから、画像特徴量と代表画像特徴量との類似度ベクトルを算出する類似度ベクトル算出部と、
該算出したオブジェクト領域上の類似度ベクトル及びオブジェクト周辺領域の類似度ベクトルから、小領域が特徴量空間上においてオブジェクト領域に属するか否かのクラス境界を表す識別関数を算出する識別関数算出部と、を備え、前記識別特徴量として前記K個の異なる代表画像特徴量と前記識別関数を出力することを特徴とする請求項1に記載のオブジェクト抽出装置。 The identification feature amount calculation unit sets a feature amount calculation range for calculating an image feature amount for identifying an object region and an object peripheral region based on a silhouette image indicating the object region in the reference image. A range setting section;
An image feature amount calculation unit that calculates the image feature amount for each small region of a predetermined size in a set feature amount calculation range;
A representative image feature amount calculation unit that clusters image feature amounts on the object region out of the image feature amounts and calculates K different representative image feature amounts expressing the image feature amount of the object region;
For each small region, a similarity vector calculation unit that calculates a similarity vector between the image feature amount and the representative image feature amount from the image feature amount of the small region and K different representative image feature amounts;
An identification function calculation unit for calculating an identification function representing a class boundary as to whether or not a small area belongs to the object area in the feature amount space from the calculated similarity vector on the object area and the similarity vector of the object peripheral area; The object extraction apparatus according to claim 1, wherein the K different representative image feature quantities and the discrimination function are output as the discrimination feature quantities.
前記推定されたオブジェクト領域を示す推定シルエット画像に基づいて、画像特徴量を算出する特徴量算出範囲を設定する特徴量算出範囲設定部と、
該設定した特徴量算出範囲において、所定サイズの小領域毎に画像特徴量を算出する画像特徴量算出部と、
小領域毎に、該小領域の画像特徴量と、前記基準画像におけるK個の異なる代表画像特徴量とから、前記類似度ベクトルを算出する類似度ベクトル算出部と、を備え、
該算出した類似度ベクトルと、前記識別関数に基づいて、各小領域を特徴量空間上においてオブジェクト領域に属するか否かを識別し、該オブジェクト領域に含まれると判定された小領域の集合を前記処理対象画像上のオブジェクト領域と確定することを特徴とする請求項2に記載のオブジェクト抽出装置。 The object area determination unit
A feature amount calculation range setting unit for setting a feature amount calculation range for calculating an image feature amount based on an estimated silhouette image indicating the estimated object region;
An image feature amount calculation unit that calculates an image feature amount for each small region of a predetermined size in the set feature amount calculation range;
A similarity vector calculating unit that calculates the similarity vector from the image feature amount of the small region and K different representative image feature amounts in the reference image for each small region;
Based on the calculated similarity vector and the discrimination function, each small area is identified as belonging to the object area in the feature amount space, and a set of small areas determined to be included in the object area is determined. The object extraction apparatus according to claim 2, wherein the object area is determined as an object area on the processing target image.
前記参照画像と該参照画像上のオブジェクト領域を示すシルエット画像とから、前記参照画像上のオブジェクト領域内の特徴点を算出する特徴点算出部と、
該算出した参照画像上のオブジェクト領域内の特徴点と、前記参照画像上のオブジェクト領域を示すシルエット画像と、前記処理対象画像とから、前記参照画像上のオブジェクト領域内の特徴点と対応する処理対象画像上の特徴点を算出する対応点算出部と、
前記参照画像上のオブジェクト領域内の特徴点と、該特徴点と対応する処理対象画像上の特徴点とから、前記参照画像上のオブジェクト領域内の特徴点を該特徴点と対応する処理対象画像上の特徴点へ射影する変換行列を算出する変換行列算出部と、を備え、
前記変換行列と、前記参照画像上のオブジェクト領域を示すシルエット画像とから、処理対象画像上の各画素について、変換行列の逆行列を乗じ参照画像上のオブジェクト領域に含まれるか否かを判定し、該オブジェクト領域に含まれると判定された画素の集合を前記処理対象画像上のオブジェクト領域と推定することを特徴とする請求項1〜3のいずれか1項に記載のオブジェクト抽出装置。 The object region estimation unit
A feature point calculation unit for calculating a feature point in the object region on the reference image from the reference image and a silhouette image indicating the object region on the reference image;
A process corresponding to a feature point in the object area on the reference image from the calculated feature point in the object area on the reference image, a silhouette image indicating the object area on the reference image, and the processing target image A corresponding point calculation unit for calculating feature points on the target image;
From the feature points in the object region on the reference image and the feature points on the processing target image corresponding to the feature points, the processing target image corresponding to the feature points in the object region on the reference image A transformation matrix calculation unit for calculating a transformation matrix to be projected onto the upper feature point,
From each of the transformation matrix and the silhouette image indicating the object region on the reference image, each pixel on the processing target image is multiplied by an inverse matrix of the transformation matrix to determine whether it is included in the object region on the reference image. The object extraction apparatus according to claim 1, wherein a set of pixels determined to be included in the object area is estimated as an object area on the processing target image.
時系列画像における基準画像上のオブジェクト領域の画像とその周辺領域の画像より、オブジェクト領域とオブジェクト周辺領域とを識別する識別特徴量を算出する識別特徴量算出ステップと、
前記時系列画像における参照画像上のオブジェクト領域内の特徴点と前記時系列画像における処理対象画像の特徴点との対応により処理対象画像上のオブジェクト領域を推定するオブジェクト領域推定ステップと、
前記推定されたオブジェクト領域とその周辺領域の画像の特徴量を算出し、該算出した特徴量と前記算出した識別特徴量との対比によって、前記推定した処理対象画像におけるオブジェクトの領域を修正確定するオブジェクト領域確定ステップと、を含むことを特徴とするオブジェクト抽出方法。 An object extraction method for extracting an object region of interest from a time series image,
An identification feature amount calculating step for calculating an identification feature amount for identifying the object region and the object peripheral region from the image of the object region on the reference image in the time-series image and the image of the peripheral region;
An object region estimation step for estimating an object region on the processing target image by correspondence between a feature point in the object region on the reference image in the time-series image and a feature point of the processing target image in the time-series image;
The feature amount of the image of the estimated object region and its peripheral region is calculated, and the object region in the estimated processing target image is corrected and confirmed by comparing the calculated feature amount with the calculated identification feature amount. And an object region determination step.
設定した特徴量算出範囲において、所定サイズの小領域毎に前記画像特徴量を算出する画像特徴量算出ステップと、
前記画像特徴量のうち、オブジェクト領域上の画像特徴量をクラスタリングし、オブジェクト領域の画像特徴量を表現するK個の異なる代表画像特徴量を算出する代表画像特徴量算出ステップと、
小領域毎に、該小領域の画像特徴量とK個の異なる代表画像特徴量とから、画像特徴量と代表画像特徴量との類似度ベクトルを算出する類似度ベクトル算出ステップと、
該算出したオブジェクト領域上の類似度ベクトル及びオブジェクト周辺領域の類似度ベクトルから、小領域が特徴量空間上においてオブジェクト領域に属するか否かのクラス境界を表す識別関数を算出する識別関数算出ステップと、
前記識別特徴量として前記K個の異なる代表画像特徴量と前記識別関数を出力するステップと、を含むことを特徴とする請求項5に記載のオブジェクト抽出方法。 The identification feature amount calculating step sets a feature amount calculation range for calculating an image feature amount for identifying an object region and an object peripheral region based on a silhouette image indicating the object region in the reference image. A range setting step;
An image feature amount calculating step for calculating the image feature amount for each small region of a predetermined size in the set feature amount calculation range;
A representative image feature amount calculating step of clustering image feature amounts on the object region out of the image feature amounts and calculating K different representative image feature amounts expressing the image feature amount of the object region;
A similarity vector calculation step for calculating a similarity vector between the image feature quantity and the representative image feature quantity from the image feature quantity of the small area and K different representative image feature quantities for each small area;
An identification function calculating step for calculating an identification function representing a class boundary as to whether or not a small area belongs to the object area in the feature amount space from the calculated similarity vector on the object area and the similarity vector of the object peripheral area; ,
6. The object extraction method according to claim 5, further comprising: outputting the K different representative image feature amounts and the discrimination function as the discrimination feature amounts.
前記推定されたオブジェクト領域を示す推定シルエット画像に基づいて、画像特徴量を算出する特徴量算出範囲を設定する特徴量算出範囲設定ステップと、
該設定した特徴量算出範囲において、所定サイズの小領域毎に画像特徴量を算出する画像特徴量算出ステップと、
小領域毎に、該小領域の画像特徴量と、前記基準画像におけるK個の異なる代表画像特徴量とから、前記類似度ベクトルを算出する類似度ベクトル算出ステップと、
該算出した類似度ベクトルと、前記識別関数に基づいて、各小領域を特徴量空間上においてオブジェクト領域に属するか否かを識別し、該オブジェクト領域に含まれると判定された小領域の集合を前記処理対象画像上のオブジェクト領域と確定するステップと、を含むことを特徴とする請求項6に記載のオブジェクト抽出方法。 The object region determination step includes
A feature amount calculation range setting step for setting a feature amount calculation range for calculating an image feature amount based on the estimated silhouette image indicating the estimated object region;
An image feature amount calculating step for calculating an image feature amount for each small region of a predetermined size in the set feature amount calculation range;
For each small region, a similarity vector calculating step for calculating the similarity vector from the image feature amount of the small region and K different representative image feature amounts in the reference image;
Based on the calculated similarity vector and the discrimination function, each small area is identified as belonging to the object area in the feature amount space, and a set of small areas determined to be included in the object area is determined. The object extracting method according to claim 6, further comprising: determining an object region on the processing target image.
前記参照画像と該参照画像上のオブジェクト領域を示すシルエット画像とから、前記参照画像上のオブジェクト領域内の特徴点を算出する特徴点算出ステップと、
該算出した参照画像上のオブジェクト領域内の特徴点と、前記参照画像上のオブジェクト領域を示すシルエット画像と、前記処理対象画像とから、前記参照画像上のオブジェクト領域内の特徴点と対応する処理対象画像上の特徴点を算出する対応点算出ステップと、
前記参照画像上のオブジェクト領域内の特徴点と、該特徴点と対応する処理対象画像上の特徴点とから、前記参照画像上のオブジェクト領域内の特徴点を該特徴点と対応する処理対象画像上の特徴点へ射影する変換行列を算出する変換行列算出ステップと、
前記変換行列と、前記参照画像上のオブジェクト領域を示すシルエット画像とから、処理対象画像上の各画素について、変換行列の逆行列を乗じ参照画像上のオブジェクト領域に含まれるか否かを判定し、該オブジェクト領域に含まれると判定された画素の集合を前記処理対象画像上のオブジェクト領域と推定するステップと、を含むことを特徴とする請求項5〜7のいずれか1項に記載のオブジェクト抽出方法。 The object region estimation step includes:
A feature point calculating step of calculating a feature point in the object area on the reference image from the reference image and a silhouette image indicating the object area on the reference image;
A process corresponding to a feature point in the object area on the reference image from the calculated feature point in the object area on the reference image, a silhouette image indicating the object area on the reference image, and the processing target image A corresponding point calculating step for calculating feature points on the target image;
From the feature points in the object region on the reference image and the feature points on the processing target image corresponding to the feature points, the processing target image corresponding to the feature points in the object region on the reference image A transformation matrix calculating step for calculating a transformation matrix to be projected onto the upper feature point;
From each of the transformation matrix and the silhouette image indicating the object region on the reference image, each pixel on the processing target image is multiplied by an inverse matrix of the transformation matrix to determine whether it is included in the object region on the reference image. And a step of estimating a set of pixels determined to be included in the object area as an object area on the processing target image. Extraction method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011268456A JP2013120504A (en) | 2011-12-08 | 2011-12-08 | Object extraction device, object extraction method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011268456A JP2013120504A (en) | 2011-12-08 | 2011-12-08 | Object extraction device, object extraction method and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013120504A true JP2013120504A (en) | 2013-06-17 |
Family
ID=48773114
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011268456A Pending JP2013120504A (en) | 2011-12-08 | 2011-12-08 | Object extraction device, object extraction method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013120504A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020112899A (en) * | 2019-01-09 | 2020-07-27 | 裕樹 有光 | Learning program associating three-dimensional model and depth image |
| US11423561B2 (en) * | 2018-02-09 | 2022-08-23 | Nippon Telegraph And Telephone Corporation | Learning apparatus, estimation apparatus, learning method, estimation method, and computer programs |
-
2011
- 2011-12-08 JP JP2011268456A patent/JP2013120504A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11423561B2 (en) * | 2018-02-09 | 2022-08-23 | Nippon Telegraph And Telephone Corporation | Learning apparatus, estimation apparatus, learning method, estimation method, and computer programs |
| JP2020112899A (en) * | 2019-01-09 | 2020-07-27 | 裕樹 有光 | Learning program associating three-dimensional model and depth image |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6438403B2 (en) | Generation of depth maps from planar images based on combined depth cues | |
| US8903177B2 (en) | Method, computer program and device for hybrid tracking of real-time representations of objects in a sequence | |
| Krig | Image pre-processing | |
| US9639943B1 (en) | Scanning of a handheld object for 3-dimensional reconstruction | |
| CN104202547B (en) | Method, projection interactive approach and its system of target object are extracted in projected picture | |
| KR101409810B1 (en) | Real-time object tracking method in moving camera by using particle filter | |
| KR101753360B1 (en) | A feature matching method which is robust to the viewpoint change | |
| JP5261501B2 (en) | Permanent visual scene and object recognition | |
| US9721387B2 (en) | Systems and methods for implementing augmented reality | |
| US20150319373A1 (en) | Method and device to compose an image by eliminating one or more moving objects | |
| JP6139447B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| WO2013145589A1 (en) | Image-processing device, image-capturing device, and image-processing method | |
| WO2013073168A1 (en) | Image processing device, imaging device, and image processing method | |
| CN110858277A (en) | Method and device for obtaining attitude classification model | |
| WO2017168462A1 (en) | An image processing device, an image processing method, and computer-readable recording medium | |
| CN111383252A (en) | Multi-camera target tracking method, system, device and storage medium | |
| JP2013037539A (en) | Image feature amount extraction device and program thereof | |
| JP6511950B2 (en) | Image processing apparatus, image processing method and program | |
| CN111199169A (en) | Image processing method and device | |
| JP6770363B2 (en) | Face direction estimator and its program | |
| JP5337252B2 (en) | Feature extraction device | |
| JP2013120504A (en) | Object extraction device, object extraction method and program | |
| JP6362947B2 (en) | Video segmentation apparatus, method and program | |
| Donoser et al. | Robust planar target tracking and pose estimation from a single concavity | |
| JP6717769B2 (en) | Information processing device and program |